De hecho, la fecha clave para el nacimiento de la ciencia cognitiva es 1956, por la coincidencia de dos acontecimientos. Uno es el Simposio de la Teoría de la Información en el Massachusetts Institute of Technology (MIT), donde Allen Newell y Herbert Simon expusieron por primera vez la prueba completa de un teorema obtenida por un ordenador, Noam Chomsky presentó una de sus primeras versiones de la lingüística transformacional y George Miller explicó su famosa teoría de los siete elementos de la memoria a corto plazo.
El otro acontecimiento, que tuvo lugar el mismo verano, consistió en una reunión en el Dartmouth College, donde diversos investigadores trabajaban en inteligencia artificial. John MacCarthy fue quien propuso este término en la reunión, y fue aceptado por Marvin Minsky, Allen Newell y Herbert Simon, entre otros.
Pero, ¿en qué consiste la posición formalista, la dominante en los inicios de la ciencia cognitiva?
LA CIENCIA COGNITIVA FORMALISTA
La ciencia cognitiva formalista está basada en tres grandes principios (Pylyshyn, 1984; Posner, 1989; von Eckardt, 1993):
(I) El conocimiento puede ser formalizado como representaciones simbólicas con contenido y estructura.
(II) Los procesos cognitivos pueden ser simulados como operaciones formales que aplican reglas sobre símbolos.
(III) El pensamiento y otras funciones inteligentes no se definen por el tipo de material que forma el sistema que lo soporta (neuronas o chips), sino por su función abstracta.
Veamos cada punto por separado:
(I) El conocimiento se ha de entender como una gran base de datos. Las entradas de la gran base de datos son elementos simbólicos, es decir, estructuras con una forma y un contenido, como las palabras. En general, un símbolo es una cadena de caracteres que tiene las siguientes propiedades:
a) Un símbolo es un elemento matemáticamente discreto, es decir, que ni en el nivel de los estados eléctricos ni como descripción de cadena de caracteres existe un continuo entre dos símbolos. Entre símbolo y símbolo hay siempre un cambio; en un ordenador, por ejemplo, siempre se puede decir qué símbolo está activo y cuál no lo está.
b) Un símbolo representa objetos o estados del mundo.
c) Un símbolo es arbitrario. El tipo de cadena de caracteres que identifica un símbolo se ha decidido por motivos que no tienen nada que ver con lo que el símbolo representa, es decir, entre el símbolo y lo que éste representa no hay ninguna relación de similitud, ni de causa-efecto.
Esta manera de entender el conocimiento en una mente permite formalizar todo el conocimiento de manera combinatoria: los constituyentes atómicos, las entradas de las bases de datos, pueden combinarse en conjuntos moleculares que constituyen las estructuras simbólicas.
En resumen, tenemos un sistema de símbolos con una sintaxis combinatoria y una semántica. Ahora bien, entre las diferentes escuelas cognitivas hay diferencias en el momento de considerar si los símbolos que están representados en nuestro cerebro corresponden a palabras de nuestra lengua natural, el castellano, el inglés, etc., o están escritos en una lengua especial, que habitualmente se considera la lengua de la mente o mentalés.
(II) La hipótesis central formalista sobre cómo se producen los procesos cognitivos consiste en que la cognición es una especie de computación o cálculo. Muchos teóricos consideran que el primero que formuló tal hipótesis fue Hobbes, con su expresión Reasoning is nothing but reckoning («razonar no es otra cosa que calcular»). El desarrollo teórico de este principio proviene de la idea cartesiana de que toda comprensión consiste en formar y utilizar representaciones simbólicas apropiadas. Para Descartes, estas representaciones son descripciones complejas construidas a partir de ideas o elementos primitivos. Kant añadió que todo concepto consiste en las reglas que relacionan estos elementos primitivos y Frege demostró que estas reglas podían ser formalizadas de tal manera que su manipulación podía hacerse sin intuición o interpretación. Eso, y de acuerdo con el primer principio, se traduce en el hecho de que la cognición se puede entender fundamentalmente como una manipulación de símbolos, mientras que las relaciones que determinan el procesamiento cognitivo son en gran parte relaciones lógicas entre símbolos.
Ahora bien, ya que los símbolos se pueden manipular independientemente de su contenido, porque son elementos formales, la cognición puede ser formalizada con reglas que manipulen los símbolos. Esto permite que una máquina pueda también ser cognitiva, ya que puede transformar los símbolos que se le dan como input y que devuelve como output, sin necesidad de saber el contenido de los símbolos. En otras palabras, los procesos cognitivos en un sistema simbólico material están ciegos al contenido de los símbolos, tan sólo se interesan por su forma. Les resulta igual la manipulación de la palabra suerte que la de la palabra muerte.
(III) Que el pensamiento y otras funciones inteligentes no se definan por el tipo de material que forma su sistema (neuronas o chips), sino por su función abstracta, quiere decir que el significado de un determinado símbolo mental depende de su papel en la descripción abstracta de su función: la función saber jugar a ajedrez no depende del silicio del ordenador o de las proteínas del gran maestro que juega, sino que se basa en la representación de la información en símbolos (peón, caballo, reina, etc., en ambos sistemas) codificados según el tipo de sistema (binario en un ordenador y desconocido en un cerebro) y su manipulación a través de reglas explícitas ejecutadas en un orden determinado («si se come el caballo con la reina es jaque mate»; «de las N posibilidades que tengo, X es la que reduce mis pérdidas, así como disminuir las posibilidades de mi contrincante de ganar») para conseguir una finalidad determinada («ganar a mi contrincante»; «concluir el proceso realizando el último movimiento»).
LOS RESULTADOS
¿Cómo ha funcionado la perspectiva formalista en el campo de la reproducción de la inteligencia en sistemas autónomos, es decir, sin intervención humana?
Los primeros años se dedicaron a la conducta inteligente de tipo general, aunque estuvo aplicada a ámbitos concretos. Fueron años invertidos en la resolución de problemas, que servirían de modelos generales de conducta inteligente. Esta tendencia estuvo muy influida por los trabajos de Newell y Simon, quienes demostraron que los ordenadores podían hacer mucho más que simplemente calcular.
Los resultados de toda aquella primera oleada dieron bastantes logros, pero no sirvieron para establecer un modelo de inteligencia general. Entre otras cosas porque para que un sistema mostrase la más mínima inteligencia era necesaria una gran cantidad de información referencial. El problema de base de todos los programas es que no había manera de que los programas identificaran la relevancia de una situación o concepto y, por tanto, se tenían que considerar todas las alternativas posibles.
Otra perspectiva encabezada por Marvin Minsky tomó el relevo (1977). Hubo un cambio de los programas generalistas a los sistemas especializados. En los años setenta se intentó, en lugar de ofrecer programas generales que fallaban en ciertas situaciones, aportar programas restringidos a ámbitos concretos, pero que fueran fiables en todos los casos. Se entró en el mundo de los micromundos. Todas las características y posibilidades del ámbito en cuestión se asentaban en una base de datos de referencia que permitía al programa controlarlas en todo momento y hacer frente a cualquier problema que se presentara.
A pesar de esto, los micromundos tampoco ofrecieron grandes éxitos. El asunto es que, por más que se reduzca un mundo, siempre hay algún aspecto no relacionado con ese mundo que es necesario para encontrar una solución. Parte de lo necesario para comprender un micromundo es parte de lo necesario para comprender cualquier mundo. Si algo resulta artificial en la voluntad de controlar las variables del mundo es intentar escapar de lo que se denomina sentido común.
Читать дальше