Conocer - Francisco Varela PDF
Conocer - Francisco Varela PDF
Conocer - Francisco Varela PDF
Página 2
Francisco Varela
Conocer
Las ciencias cognitivas: Tendencias y perspectivas.
Cartografía de las ideas actuales
ePub r1.0
Titivillus 29.10.2019
Página 3
Título original: Cognitive Science. A Cartography of Current Ideas
Francisco Varela, 1988
Traducción: Carlos Gardini
Retoque de cubierta: Titivillus
Editor digital: Titivillus
ePub base r2.1
Página 4
Índice de contenido
Introducción
Agradecimientos
6. Conclusiones
Notas
Página 5
Esta obra está dedicada, con todo mi amor, a mis hijos
Alejandra, Javier y Leonor
Página 6
Introducción
Página 7
medida en que la mente humana es la fuente primordial y el ejemplo más
accesible de la cognición y el conocimiento.
La fase moderna de las ciencias cognitivas representa una mutación
notable en esta historia paralela de la mente y la naturaleza. Por primera vez
la ciencia (es decir, el conjunto de científicos que definen qué debe ser la
ciencia) reconoce plenamente la legitimidad de las investigaciones sobre el
conocimiento mismo, en todos sus niveles, más allá de los límites
tradicionalmente impuestos por la psicología o la epistemología. Esta
mutación, que tiene apenas treinta años, fue enfáticamente introducida
mediante el programa cognitivista comentado en el texto, tal como el
programa darwiniano inauguró el estudio científico de la evolución, aunque
otros se habían interesado antes en ella.
Más aun, a través de esta mutación, el conocimiento se ha ligado
tangiblemente a una tecnología que transforma las prácticas sociales que lo
posibilitaron: la inteligencia artificial constituye el ejemplo más visible. La
tecnología, entre otras cosas, actúa como un amplificador. No podemos
separar las ciencias cognitivas de la tecnología cognitiva sin despojar a una u
otra de un vital elemento complementario. En otras palabras, a través de la
tecnología, la exploración científica de la mente brinda a la sociedad un
inadvertido espejo de si misma que trasciende el circulo del filósofo, el
psicólogo o el pensador.
Y por primera vez la sociedad occidental en su conjunto comienza a
enfrentar en sus prácticas interrogantes, tales como: ¿Es la mente una
Manipulación de símbolos? ¿Puede una máquina aprender el lenguaje? Se
trata de preocupaciones que afectan la vida de la gente y no se limitan a ser
teóricas. No es de extrañar que los medios manifiesten un constante interés
por las ciencias cognitivas y la tecnología emparentada con ellas, ni que la
inteligencia artificial haya penetrado profundamente en la mente de los
jóvenes a través de los juegos de computación y la ciencia ficción. El efecto
de esta fermentación es el siguiente: mientras durante milenios las gentes
tuvieron una comprensión espontánea de si mismas, según la cultura de su
época, por primera vez esta visión popular de la mente entra en contacto con
la ciencia y es transformada por ella. Muchos deplorarán esta revolución,
mientras que otros la celebrarán.
Sea como fuere, este fenómeno adquiere creciente celeridad. El fecundo
diálogo entre investigadores, tecnólogos y público encierra un potencial para
la transformación de la conciencia humana que yo encuentro fascinante, pues
se trata de una de las más interesantes aventuras que hoy enfrentamos. Este
Página 8
texto constituye un modesto pero —espero— significativo aporte a este
diálogo transformador. Por ejemplo, en este ensayo cuestionaré la difundida
idea de que el conocimiento está relacionado con el procesamiento de
información. Argumentaré que la información es semejante a un moderno
flogisto que intenta explicar la estructura del conocimiento apoyándose en un
orden de cosas preexistente. El pivote de la cognición es precisamente su
capacidad para explicar la significación y las regularidades; la información no
debe aparecer como un orden intrínseco sino como un orden emergente de las
actividades cognitivas mismas. Si ello se verifica, nuestra ingenua
comprensión de las relaciones que entablamos con el mundo cambiará
drásticamente.
Página 9
Esta cuestión resulta especialmente delicada en Europa, pues durante el
siglo veinte hubo muy importantes aportes al trasfondo conceptual de lo que
hoy llamamos ciencias cognitivas, y con frecuencia se los ignora por
completo. Pienso ante todo en: a) el movimiento fenomenológico,
especialmente Edmund Husserl y Maurice Merleau–Ponty, y b) los enfoques
inaugurados por Jean Piaget en epistemología genética. Estas escuelas
exploraron profundos interrogantes cognitivos y sus mecanismos, como luego
comentaremos en este texto. Lamentablemente, han estado casi totalmente
ausentes de la ortodoxia cognitivista, y en consecuencia sus ideas básicas a
veces se reinventan como si fueran novedades. Un notable ejemplo es el
redescubrimiento de la intencionalidad en los estudios cognitivos, algo
claramente expresado por pensadores europeos en la década de 1940, pero
totalmente ignorado en la ciencia cognitiva tradicional hasta 1980.
Si Europa ha de participar en pie de igualdad en el diálogo destinado a
desarrollar la nueva ciencia de la mente, es esencial que se valga de sus
singulares tradiciones, que se anticipe a los planteamientos y que permanezca
abierta a diversos estilos de trabajo. Es interesante señalar que el Japón ya se
desplaza enérgicamente en esa dirección; en este campo, más que en ningún
otro, se siente la presencia del Japón en la ciencia internacional, un hecho
directamente reflejado en su liderazgo tecnológico. El lector verá que guardo
una desembozada distancia frente a la ciencia cognitiva tradicional, e insisto
en las diferencias existentes. Lo hago, por cierto, a partir de convincentes
razones científicas, pero también se trata de una posición tomada en lo
relacionado con la sociología de la ciencia.
Página 10
Agradecimientos
Página 11
Mi gratitud, en fin, a la Fondation de France por darme una cátedra de
ciencias de 1986 a 1990, y al Prince Charitable Fund por sus subvenciones
científicas. Sin tal respaldo, estas páginas no existirían.
Fragmentos de este texto se han publicado con estos títulos:
Página 12
— 1 —
¿Por qué este ensayo?
Motivación
Las ciencias y tecnologías de la cognición (CTC) constituyen la revolución
conceptual y tecnológica más significativa desde la física atómica, pues
ejercen un impacto de largo plazo en todos los niveles de la sociedad. La
tecnología de la información (TI) es sólo el aspecto más visible de este vasto
complejo de investigaciones y aplicaciones cuyos principales intereses se
orientan hacia el conocimiento, la información y la comunicación.
Las CTC son un híbrido de diversas disciplinas interrelacionadas, y cada
cual aporta sus intereses y preocupaciones propios (Figura 1). Se puede
argumentar que la ciencia cognitiva es una disciplina aparte cuyo polo
tecnológico es la inteligencia artificial (IA), y que no se las debería confundir
como hacemos aquí. No obstante, el distingo entre ciencia aplicada y ciencia
pura parece fuera de lugar en esta empresa (como para la mayoría de las
ciencias modernas: pensemos en la biotecnología). Uno de nuestros
propósitos es demostrar que concentrarse sólo en el aspecto tecnológico o el
aspecto «puro» de las CTC equivale a perder de vista su vitalidad y su futuro.
Este campo resulta fascinante precisamente porque conjuga puntos de vista
que proceden de fuentes alejadas entre sí como son la ingeniería informática y
el pensamiento filosófico. Es fácil comprenderlo cuando se enumeran algunas
de las áreas que interesan al científico cognitivo de hoy: la percepción, el
lenguaje, la inferencia y la acción. Dichos intereses también se reflejan en las
siguientes tecnologías: reconocimiento de imágenes, comprensión del
lenguaje, síntesis de programas, robótica.
Página 13
Figura 1. Las principales disciplinas que forman parte de las CTC.
Las CTC tienen poco más de 40 años. No están afianzadas como ciencias
maduras que disponen de un rumbo preciso y una numerosa comunidad de
investigadores, como ocurre, por ejemplo, con la física atómica o la biología
molecular. Por lo tanto, el desarrollo futuro de las CTC dista de ser claro, pero
sus productos ya han ejercido un profundo impacto, y muchos opinan que
seguirán ejerciéndolo. Pero el progreso en este campo se basa en audaces
apuestas conceptuales: algo parecido a tratar de enviar un hombre a la Luna
sin saber dónde queda la Luna.
Página 14
allanando el camino a nuevas perspectivas emergentes (etapas tercera y
cuarta). Estas provocativas heterodoxias encierran el potencial para causar un
profundo impacto en el futuro.
Esta evaluación de las tendencias emergentes se propone indicar el peligro
de un excesivo predominio de la orientación prevaleciente en las CTC, sin
que se otorgue al menos cierto espacio a otros enfoques. En la medida en que
cada grupo social ha tomado, y continuará tomando, importantes decisiones
acerca de cuáles CTC son más apropiadas y compatibles con su identidad, las
citadas posibilidades merecen una sería reflexión. En el futuro inmediato,
estas posibilidades podrían inducir significativos cambios en áreas, tales
como la automatización de las oficinas y el análisis de imágenes. Dentro de
cinco o diez años, podrían conducir a un modo totalmente diferente de
incorporar las CTC a nuestras preocupaciones sociales por el funcionamiento
y la identidad. Por ejemplo, ¿debemos dar prioridad a la compatibilidad entre
ordenadores o a la construcción de máquinas capaces de comprender el
lenguaje humano? Como veremos, quien enfrenta una decisión de este tipo —
trátese de un rector universitario o del Ministerio de Investigación y
Tecnología— debe tener en cuenta todas las posibilidades que presentan las
CTC: un mero análisis de costes económicos no será suficiente, Pues se
pagará un precio muy alto si por ignorancia se ahonda la inercia de ciertas
estructuras transformándolas en escollo para cambios futuros.
Página 15
— 2 —
Primera etapa
Los años jóvenes
Los comienzos
Comenzaremos con los años formativos de las CTC, que abarcan el período
1940–1956. Esta breve ojeada a las raíces es necesaria. Una ciencia que
olvida su pasado está condenada a repetir sus errores, y es incapaz de evaluar
su desarrollo. Por cierto, nuestra breve excursión no se propone ser una
historia exhaustiva, sino sólo tocar aquellos problemas de relevancia directa
para el presente ensayo.[5]
De hecho, casi todos los temas que hoy se debaten activamente se
introdujeron en esos años de formación, lo cual evidencia que los problemas
son profundos y difíciles de abordar. Los «padres fundadores» sabían muy
bien que sus preocupaciones conducían a una nueva ciencia, y la bautizaron
con un nombre que aludía explícitamente a su orientación epistemológica.[6]
Esta palabra ha caído en desuso, y en la actualidad muchos científicos
cognitivos ni siquiera reconocerían el parentesco. No mencionamos esto
porque sí. Refleja el hecho de que para consolidarse como ciencia, en su clara
orientación cognitivista (la segunda etapa, en este texto), la futura ciencia
cognitiva tuvo que cercenar sus complejas raíces, más difusas pero también
más ricas. Ello ocurre a menudo en la historia de la ciencia: es el precio que
se paga por pasar de una etapa exploratoria a la constitución de un paradigma:
de la nube al cristal.
Los años pioneros fueron el resultado de un intenso diálogo entre gentes
de muy diversa formación: un esfuerzo interdisciplinario singularmente feliz
que se produjo con notable coincidencia en Europa y los Estados Unidos. En
Suiza Jean Piaget formuló un programa de investigación en lo que él
denominaba epistemología genética, mientras Konrad Lorenz describía su
visión de una epistemología evolutiva. Al mismo tiempo, en los Estados
Página 16
Unidos, Warren McCulloch empezaba a hablar de epistemología
experimental.
Esta sincronicidad de los esfuerzos para naturalizar la epistemología tuvo
su desarrollo más intenso en una zona geográfica localizada, principalmente
centrada alrededor del MIT y de Princeton. Los principales actores fueron un
puñado de científicos respaldados por algunas mentes pródigas,
principalmente John von Neumann, Norbert Wiener, Alan Turing y Warren
McCulloch. Es interesante recordar que estos esfuerzos cobraron forma
visible al amparo del neologismo acuñado por Wiener: cibernética.[7]
Página 17
comprender el cerebro y la actividad mental. Segundo, ver que el cerebro es
un dispositivo que encarna principios lógicos en sus elementos constitutivos o
neuronas. Se considera que cada neurona es un autómata–umbral cuyo estado,
activo o inactivo, indicaría un valor lógico de verdad o falsedad, según el
caso. Tales neuronas se podrían conectar entre sí, y sus interconexiones
desempeñarían el papel de las operaciones lógicas («y», «no», y demás). A
partir de allí, se podía considerar al cerebro entero como una máquina
deductiva.
En manos de John von Neumann de Princeton, estas ideas constituirían un
paso fundamental para el invento del ordenador digital.[9] En esa época usó
tubos de vacío para representar las neuronas McCulloch–Pitts. Hoy
encontramos chips de silicio en su lugar, pero los ordenadores modernos (con
la excepción de las muy modernas máquinas paralelistas) todavía respetan la
arquitectura von Neumann. Este nombre tan técnico se ha convertido en una
idea casi cotidiana con la llegada de los microordenadores y su familiar
configuración: una unidad procesadora central, una memoria, y una unidad
para operaciones aritméticas, todas interconectadas por un bus portador de
señales. Se trató por cierto de un decisivo avance tecnológico, pero su mayor
importancia consistió en echar los cimientos para el enfoque dominante en el
estudio científico de la mente, el cual cristalizaría en la siguiente década como
el paradigma cognitivista (Etapa 2).
Página 18
estructural, administración de empresas, urbanismo) y economía
(teoría de los juegos);
la teoría de la información como una teoría estadística de la señal y de
los canales de comunicaciones, que aún constituye la base de muchas
tecnologías de la comunicación;
los primeros ejemplos de robots parcialmente autónomos y sistemas
autoorganizativos. Esta investigación constituía el centro del debate
acerca de si la lógica (como antes se mencionó) bastaba para
comprender el cerebro, pues pasaba por alto sus cualidades
distribuidas y analógicas. Se plantearon otros modelos y teorías que
gozaron de una recepción entusiasta. No obstante, este entusiasmo se
extinguió pronto y sólo resurgió en la década de 1980, cuando revivió
para constituir un importante enfoque de las CTC (tercera etapa). Para
comprender el porqué de esta situación, primero debemos examinar los
años cognitivistas; regresaremos en varias ocasiones a este importante
tópico.
Página 19
— 3 —
Segunda etapa
Los símbolos: la hipótesis cognitivista
Página 20
Síntesis de la doctrina
¿Qué significa decir que la cognición se puede definir como computación? Un
cómputo es una operación realizada mediante símbolos, es decir, mediante
elementos que representan algo. Aquí la idea clave es la de representación o
«intencionalidad», el término filosófico que designa algo que es «acerca de
algo».[12] El argumento cognitivista es que la conducta inteligente supone la
capacidad para representar el mundo de ciertas maneras. Así que no podemos
explicar la conducta cognitiva a menos que demos por sentado que un agente
actúa representando rasgos relevantes de las situaciones en que se halla, En la
medida en que su representación de una situación sea exacta, la conducta del
agente tendrá éxito (siempre que todas las demás cosas sean iguales).
Esta noción de la representación es —al menos desde el ocaso del
conductismo— relativamente poco controvertida. Lo controvertido es el paso
siguiente, en el cual el cognitivista afirma que el único modo de dar cuenta de
la inteligencia y la intencionalidad consiste en formular la hipótesis de que la
cognición consiste en actuar sobre la base de representaciones que adquieren
realidad física con la forma de un código simbólico en el cerebro o en una
máquina.
Según el cognitivista, el problema a resolver es el siguiente: cómo
correlacionar la atribución de estados intencionales o representacionales
(como creencias, deseos e intenciones) con los cambios físicos que el agente
sufre cuando actúa. En otras palabras, si deseamos afirmar que los estados
intencionales tienen propiedades causales, tenemos que demostrar no sólo
cómo esos estados son físicamente posibles, sino cómo pueden causar
conducta. Aquí es donde entra la idea de computación simbólica: los símbolos
tienen una realidad física y semántica, y esta realidad semántica condiciona la
computación. En otras palabras, la computación es fundamentalmente
semántica o representacional: la idea de computación no tiene sentido (en
contraste con una operación simbólica aleatoria o arbitraria) sin tener en
cuenta las relaciones semánticas existentes entre las expresiones simbólicas.
(Este es el sentido del popular slogan «no hay computación sin
representación»). Sin embargo, un ordenador digital opera sólo sobre la forma
física de los símbolos que computa; no tiene acceso a su valor semántico. No
obstante, sus operaciones están limitadas semánticamente porque los
programadores han codificado toda distinción semántica relevante para su
programa y la han expresado en la sintaxis de su lenguaje simbólico. En un
ordenador la sintaxis refleja la proyección semántica o es paralela a ella. Los
Página 21
cognitivistas afirman, pues, que este paralelismo demuestra la realidad física
y mecánica de la inteligencia y la intencionalidad (semántica). La hipótesis es
pues que los ordenadores brindan un modelo mecánico del pensamiento o, en
otras palabras que el pensamiento consiste en la computación física de
símbolos. Las ciencias cognitivas se convierten en el estudio de esos sistemas
cognitivos constituidos por símbolos físicos.[13]
Para comprender adecuadamente esta hipótesis, es fundamental advertir
en qué nivel se propone. El cognitivista no afirma que si abriéramos la cabeza
de alguien y le miráramos el cerebro hallaríamos allí pequeños símbolos. El
nivel simbólico tiene una dimensión física pero no es reductible al nivel
físico. (Ello resulta evidente cuando recordamos que el mismo símbolo puede
adoptar muchas formas físicas.) En consecuencia, una expresión simbólica
poseedora de una realidad física se puede corresponder con un patrón global y
altamente distribuido de actividad cerebral. Regresaremos luego sobre esta
idea. Pero por ahora deseamos enfatizar que, además de los niveles de la
física y la neurobiología, el cognitivismo postula un claro e irreductible nivel
simbólico para explicar la cognición. Más aun, como los símbolos son ítems
semánticos, los cognitivistas también postulan un tercer nivel semántico o
representacional. (La irreductibilidad de este nivel también resulta evidente
cuando recordamos que el mismo valor semántico puede adoptar muchas
formas simbólicas.)[14]
Esta multiplicidad de niveles en la explicación científica es muy reciente y
constituye una de las principales innovaciones de las ciencias cognitivas. Los
orígenes y la formulación inicial de la innovación como idea científica amplia
nacieron en la era cibernética, pero los cognitivistas han hecho grandes
aportes para una articulación filosófica más rigurosa.[15] Nos agradaría que el
lector tuviera presente esta idea, pues cobrará nueva significación cuando en
la siguiente etapa comentemos una idea emparentada con ella, la
controvertida noción de emergencia.
El lector también debe advertir que la hipótesis cognitivista pone gran
énfasis en las relaciones entre sintaxis y semántica. Como hemos
mencionado, en un programa de computación la sintaxis del código simbólico
refleja su semántica. Ahora bien, en el caso del lenguaje humano, dista de ser
obvio que todos los distingos semánticos relevantes para una explicación de la
conducta estén reflejados sintácticamente. En verdad, se pueden esgrimir
muchos argumentos filosóficos contra esta idea.[16] Más aun, aunque sabemos
de dónde procede el nivel semántico de los cómputos de un ordenador (los
Página 22
programadores), no sabemos cómo obtienen su sentido las expresiones
simbólicas que el cognitivista supone registradas en el cerebro.
El programa de investigación cognitivista se puede sintetizar en las
respuestas a las siguientes preguntas:
Pregunta 1: ¿Qué es la cognición?
Respuesta: Procesamiento de información; manipulación de símbolos
basada en reglas.
Pregunta 2: ¿Cómo funciona?
Respuesta: A través de cualquier dispositivo que pueda representar y
manipular elementos físicos discretos: los símbolos. El sistema interactúa sólo
con la forma de los símbolos (sus atributos físicos), no su significado.
Pregunta 3: ¿Cómo saber que un sistema cognitivo funciona
adecuadamente?
Respuesta: Cuando los símbolos representan apropiadamente un aspecto
del mundo real, y el procesamiento de la información conduce a una feliz
solución del problema planteado al sistema.
Obviamente el programa cognitivista que acabo de delinear no nació
completo, como Atenea de la cabeza de Zeus. Lo presentamos con los
beneficios de treinta años de perspectiva. Sin embargo, no sólo este audaz
programa se ha consolidado plenamente, sino que ahora se lo identifica con
las ciencias cognitivas. Pocos de sus participantes activos, y mucho menos el
público en general, tienen en cuenta sus raíces o sus actuales desafíos y
posibilidades. «El cerebro procesa información del mundo exterior» es una
frase cotidiana que todos entienden. Decir que tal enunciado puede ser
desorientador suena extraño, y de inmediato se tildará de «filosófica» a la
subsiguiente conversación. Esta ceguera que el paradigma cognitivista ha
introducido en el sentido común contemporáneo es capaz de poner en jaque
horizontes más amplios para el futuro de las CTC.
Página 23
Figura 3. Una caricatura de la revista Punch que ilustra sucintamente la hipótesis cognitivista.
Para capturar su presa, Un martín pescador debe tener en el cerebro la representación de la
ley de refracción de Snell.
Página 24
La IA y su base cognitivista alcanzaron su culminación social en el
Programa de Quinta Generación ICOT del Japón. Por primera vez un plan
concebido en escala nacional, concertando los esfuerzos de la industria, el
gobierno y las universidades, ha convertido al Japón en líder en IA. El núcleo
de este programa —el «cohete que se mandará a la Luna» en 1992— es un
ordenador de quinta generación, un dispositivo cognitivo capaz de
comprender el lenguaje humano y de escribir sus propios programas cuando
el usuario inexperto le propone una tarea. El corazón del programa ICOT
utiliza PROLOG, un lenguaje de programación de alto nivel basado en la
lógica de predicados, para la resolución de problemas y las interfaces entre
patrones de representación. El programa ICOT ha causado reacciones
inmediatas en Europa (el programa Esprit) y en los Estados Unidos. Es
indudable que se trata de un decisivo campo de batalla comercial y técnico
para la tecnología de la información (IM). Sin embargo, aquí no nos interesa
si el cohete se construirá o no, sino que en efecto apunte hacía la Luna.
Volveremos luego sobre esto.
Página 25
Las ciencias cognitivas
La hipótesis cognitivista tiene en la IA su proyección más literal. Su propósito
complementario consiste en el estudio de sistemas cognitivos naturales y
biológicos, muy especialmente el hombre. También aquí la principal
herramienta explicativa ha sido la formulación computacional de la
representación. Las representaciones mentales son asimiladas a elementos de
un sistema formal a los que la actividad de la mente da su matiz
interpretativo: creencias, deseos, planes y demás. Al contrario de lo que
ocurre en la IA, pues, aquí encontramos un interés en los sistemas cognitivos
naturales, y se da por sentado que sus representaciones cognitivas son acerca
de algo para el sistema (es decir, son intencionales).
Por ejemplo, se presenta a los sujetos figuras geométricas y se les pide
que las hagan rotar mentalmente. Los informes insisten en que la dificultad de
la tarea, medida según el tiempo que se tarda en realizarla, depende del
número de grados de libertad en que se debe hacer rotar la figura: en un
espacio plano o tridimensional. Es decir, da la impresión de que tuviéramos
una «pantalla» mental interna en donde las figuras rotan como en una pantalla
de televisión.[18] Con el tiempo estos experimentos condujeron a una teoría
explícita que postulaba reglas de operación del espacio mental similares a los
que usan los ordenadores para desplegar los datos almacenados. Los
investigadores sugerían que existe una interacción entre las operaciones de
tipo lingüístico y las operaciones de tipo visual, y que juntas generan nuestro
ojo interno.[19] Este enfoque ha generado una abundante literatura a favor y en
contra, y cada nivel de las observaciones ha recibido diversas
interpretaciones. Los cognitivistas acérrimos, tales como Zenon Pylyshyn,
argumentan que las imágenes son simplemente epifenómenos subjetivos de
una computación simbólica más profunda.[20] Sin embargo, el estudio de las
imágenes es un ejemplo representativo del modo en que actúa el enfoque
cognitivista cuando estudia los fenómenos mentales.
Página 26
su enorme masa de pruebas empíricas) está imbuida de la perspectiva
cognitivista del procesamiento de la información. Así comienza un popular
libro de texto sobre la neurociencia: «El cerebro es un activo conjunto de
células que continuamente recibe, elabora y percibe información, y toma
decisiones».[21] A menudo ni siquiera se cuestionan los orígenes y los
supuestos de esta perspectiva.
Un ejemplo sobresaliente son las dos décadas de estudios sobre la corteza
visual, una zona del cerebro en la que es fácil detectar respuestas eléctricas de
las neuronas cuando se presenta al animal una imagen visual. Se declaró
tempranamente que era posible clasificar las neuronas corticales como
detectores de rasgos que responden a ciertos atributos del objeto de marras:
su orientación, contraste, velocidad, color y demás. En concordancia con la
hipótesis cognitivista, se suele considerar que estos resultados dan respaldo
biológico a la idea de que el cerebro recoge información visual a partir de la
retina por intermedio de las neuronas detectoras de rasgos de la corteza, y que
luego la información pasa a posteriores etapas del cerebro para nuevos
procesamientos (categorización conceptual, asociaciones de memoria, y
eventualmente la acción).[22]
En su forma más extrema, esta visión del cerebro está expresada en la
doctrina de la «célula abuela» de Barlow, en la que hay una correspondencia
entre conceptos (tal como el concepto que alguien tiene de su abuela) o
percepciones y neuronas especificas,[23] un equivalente IA de los sensores
electrónicos y las etiquetas acanaladas. Esta posición extrema está perdiendo
popularidad[24] pero la idea básica de que el cerebro es un dispositivo para
procesar información y que reacciona selectivamente ante ciertas
características ambientales persiste en el núcleo de la neurociencia moderna y
de la percepción del público. Luego volveremos a hablar de este problema.
Página 27
atención sobre la profundidad de este compromiso social de un amplio sector
de la comunidad de investigadores de CTC. Nos interesa examinar los
fundamentos de las CTC cognitivistas para aclarar las bases del disenso. El
disenso esencial respecto de los puntos de vista establecidos en las CTC de
hoy cobra dos formas básicas:
Página 28
— 4 —
Tercera etapa
La emergencia: una alternativa ante la orientación
simbólica
Página 29
ideas autoorganizativas en física y en matemática no lineal,[29] así como el
fácil acceso a ordenadores rápidos, como veremos a continuación.
La nueva motivación para echar un segundo vistazo a la autoorganización
se basaba en dos reconocidas lagunas del cognitivismo. La primera es que el
procesamiento de información simbólica se basa en reglas secuenciales,
aplicadas una por vez. Este «cuello de botella von Neumann» se convierte en
una sería limitación cuando la tarea requiere gran cantidad de operaciones
secuenciales (tales como el análisis de imágenes o el pronóstico
meteorológico). La continua búsqueda de algoritmos de procesamiento
paralelo ha tenido poco éxito porque toda la ortodoxia computacional parece
ir precisamente contra esa corriente.
Una segunda limitación importante es que el procesamiento simbólico
está localizado: la pérdida o disfunción de cualquier parte de los símbolos o
reglas del sistema deriva en un grave daño. En cambio, una operación
distribuida resulta muy deseable, para que al menos haya una relativa
equípotencialidad e inmunidad ante las mutilaciones.
Los resultados de la experiencia de las dos primeras décadas de
predominio cognitivista se expresan claramente señalando una convicción que
gradualmente cobró arraigo en la comunidad de investigadores: es preciso
invertir los papeles del experto y del niño en la escala de desempeños. Los
primeros intentos se proponían resolver los problemas más generales, tales
como la traducción del lenguaje natural o el diseño de soluciones generales
para los problemas. Se pensaba que estos intentos, que trataban de imitar la
pericia de los expertos, abordaban los problemas difíciles e interesantes. A
medida que los intentos se volvían más modestos y localizados, fue evidente
que la inteligencia más profunda y fundamental es la del bebé que puede
adquirir el lenguaje a partir de manifestaciones diarias y dispersas, y que
puede distinguir objetos significativos a partir de lo que parece ser un mar de
luces. Las arquitecturas cognitivistas se habían alejado en exceso de las
inspiraciones biológicas. No se trata de reducir lo cognitivo a lo biológico,
sino de que las tareas más comunes, aun las emprendidas por diminutos
insectos, se realizan más deprisa que cuando se intentan con una estrategia
computacional como la que propone la ortodoxia cognitivista. Análogamente,
los neurobiólogos dan por sentada la plasticidad del cerebro ante las lesiones,
o la flexibilidad de la cognición biológica para adaptarse a nuevos ámbitos sin
perder toda su competencia, pero ella no existe en el paradigma
computacional en cuanto tal.
Página 30
La estrategia conexionista
Así el cerebro ha vuelto a convertirse en fuente de metáforas e ideas para
otros campos de las ciencias cognitivistas en esta orientación alternativa. Aquí
no partimos de descripciones simbólicas abstractas, sino de una hueste de
componentes de tipo neural, no inteligentes, que, apropiadamente conectados,
presentan interesantes propiedades globales. Estas propiedades globales
corresponden a las aptitudes cognitivas que se estudian.
Todo el enfoque depende, pues, de introducir las conexiones apropiadas,
lo cual se suele hacer mediante una regla para el gradual cambio de
conexiones a partir de un estado inicial bastante arbitrario. La regla de
aprendizaje mejor explorada es la «Regla de Hebb». En 1949 Donald Hebb
sugirió que el aprendizaje se podía basar en cambios cerebrales que surgen
del grado de actividad correlacionada entre las neuronas; si dos neuronas
tienden a actuar en conjunto, su conexión se refuerza; de lo contrario
disminuye. Por lo tanto, la conectividad del sistema se vuelve inseparable de
su historia de transformación y se relaciona con la clase de tarea que se
propone al sistema. Como la verdadera acción se produce en el nivel de las
conexiones, se ha propuesto el nombre de conexionismo (a menudo llamado
neoconexionismo, para distinguirlo del paleoconexionismo de los años
cibernéticos) para esta linea de investigación.[30]
Un factor decisivo en el explosivo interés que despierta este enfoque fue
la introducción de métodos eficaces para seguir los cambios que se producen
en estas redes. Se ha dado gran atención a la introducción de medidas
estadísticas que brindan al sistema una función de «energía» global que nos
permite seguir cómo llega el sistema a estados convergentes.[31]
Veamos un ejemplo, ilustrado en la Figura 5. Tomemos un número total N
de elementos simples semejantes a neuronas y conectémoslos entre sí. Luego
presentemos a este sistema una sucesión de patrones tratando algunos de sus
nódulos como extremos sensoriales (digamos una retina). Al cabo de cada
presentación, dejemos que el sistema se reorganice reacomodando sus
conexiones de acuerdo con un principio hebbiano, es decir, incrementando los
enlaces entre las neuronas que actúan juntas ante el ítem presentado. La
presentación de la lista de patrones constituye la fase de aprendizaje del
sistema.
Página 31
Figura 5. Red de Hopfield. Un circuito de optimización para resolver el problema de
asignación de tareas. Consiste en una red de n–flops interconectadas. Los amplificadores de
cada hilera y columna están enlazados por conexiones inhibitorias que imponen la restricción
de que sólo un amplificador por hilera o columna pueda hallarse en estado +1. Como cada
uno de los 36 amplificadores de esta red inhibe a otros 10 amplificadores, hay 360 conexiones
en total. El diagrama presenta las conexiones de uno de los amplificadores. Los
amplificadores reciben entradas de corriente proporcionales a las tasas de reducción. Los
amplificadores que corresponden a la mejor solución —la combinación de entradas [inputs]
que suman el total mayor— emiten un +1 y el resto emite un O. Las emisiones [outputs]
pueden controlar un panel, en este caso un conjunto de bombillas eléctricas. (Fuente:
Hopfield y Tank, “Collective Computation in Neuronlike Circuits”, Sctentific American,
diciembre 1987).
Emergencia y autoorganización
Página 32
Este ejemplo es sólo uno de toda una clase de redes neurales o modelos
conexdonistas, tal como veremos más adelante. Pero antes de ello es preciso
ampliar nuestro comentario para ver qué está en juego en el estudio de estas
redes. La estrategia, como dijimos, consiste en construir un sistema cognitivo
no a partir de símbolos y reglas, sino de componentes simples que se
conectarían dinámicamente entre sí de maneras densas. En este enfoque, cada
componente opera sólo en su ámbito local, de modo que no hay un agente
externo que, por así decirlo, haga girar la manivela del sistema. Pero, dada la
constitución de la red del sistema, hay una cooperación global que emerge
espontáneamente cuando todas las «neuronas» participantes alcanzan un
estado mutuamente satisfactorio. En tal sistema, pues, no se requiere una
unidad procesadora central que guíe toda la operación. Este tránsito de las
reglas locales a la coherencia global es el corazón de lo que en los años
cibernéticos se denominaba autoorganización.[33] Hoy la gente prefiere hablar
de propiedades emergentes o globales, dinámica de red, redes no lineales,
sistemas complejos o aun de sinergia.[34]
No hay una teoría formal unificada de las propiedades emergentes. No
obstante, resulta claro que se han hallado propiedades emergentes en todos los
dominios: vórtices y lásers, oscilaciones químicas, redes genéticas, patrones
de desarrollo, genética de población, redes de inmunidad, ecología y
geofísica. Lo que tienen en común estos diversos fenómenos es que en cada
caso una red permite surgir nuevas propiedades, las cuales los investigadores
procuran entender en toda su generalidad.[35] El concepto de «atractor»,
procedente de la teoría de los sistemas dinámicos, es muy útil para captar las
propiedades emergentes que estos diversos sistemas tienen en común. Como
esta idea será importante para el resto de nuestro análisis, detengámonos a
examinar un ejemplo.[36]
Pensemos en un «autómata celular», una unidad simple que recibe
información de dos vecinos inmediatos y comunica su estado interno a dichos
vecinos. Supongamos que la célula o unidad puede estar en sólo dos estados
(0 y 1, activo 0 inactivo) y que la regla que gobierna el cambio en cada
autómata es simplemente una función (de Boole) de dos argumentos (tales
como «y» u «o excluyente»). Como podemos escoger tal función para cada
uno de los dos estados en que está el autómata celular, la operación de cada
unidad está completamente definida por un par de funciones de Boole (Figura
6–1).
Página 33
Figura 6.1.Para construir un sistema simple dotado de autoorganización, comencemos por
una cadena de elementos simples similares a las neuronas de McCulloch–Pitts de la Figura 2.
Conectémoslas de tal modo que cada neurona reciba influencias sólo de sus vecinas
contiguas, e influya sobre ellas. La configuración se cierra sobre sí misma formando un anillo.
La conducta de cada neurona se determina mediante la elección de una regla lógica. En cada
momento del tiempo, el estado de todo el anillo se puede comprobar con sólo mostrar en el
panel neuronas activas como un cuadrado negro, y las neuronas inactivas como blancos.
Para seguir lo que sucede en el tiempo, el primer instante se muestra como la primera hilera,
el segundo instante como la segunda hilera, y así sucesivamente. (Tomado de F. Varela,
Autonomie et connaissance, op. cit.)
Página 34
Figura 6.2. Al estudiar la conducta de los anillos con reglas diferentes, se observa que
rápidamente surgen esquemas globales de tales sistemas, resultado de una actividad
cooperadora entre todas las neuronas constitutivas. Se obtienen, entonces, representaciones
visuales de atractores a partir de estos sistemas autoorganizados. (Según F. Varela, 1989,
op. cit.)
Página 35
caóticos, en los cuales no se detecta ninguna regularidad en el espacio ni en el
tiempo.
El punto básico que ilustramos aquí es que la emergencia de patrones o
configuraciones globales en sistemas de elementos interactuantes no es una
rareza de casos aislados ni es exclusiva de los sistemas neurales. De hecho,
parece difícil que ningún compuesto densamente conectado escape a las
propiedades emergentes, así que las teorías de tales propiedades son un enlace
natural para diversos niveles de descripciones en los fenómenos naturales y
cognitivos. Teniendo en cuenta esta perspectiva más amplia de la
autoorganización, regresemos ahora a las redes neurales y al conexionismo.
El conexionismo en la actualidad
Las teorías conexionistas brindan elegantes modelos funcionales para diversas
e interesantes aptitudes cognitivas, tales como el reconocimiento rápido, la
memoria asociativa y la generalización categórica, como vimos en el ejemplo
de la Figura 5. El actual entusiasmo por esta orientación está justificado por
diversas razones. Primero, la IA cognitivista y la neurociencia contaban con
pocos resultados convincentes para explicar (o reconstruir) los procesos
cognitivos que acabamos de presentar. Segundo, los modelos conexionistas
están mucho más cerca de los sistemas biológicos, así que se puede trabajar
con un grado de integración entre la IA y la neurociencia que hasta el
momento era impensable. Por último, los modelos son tan generales como
para aplicarlos, con escasas modificaciones, a diversas áreas, tales como la
visión o el reconocimiento del lenguaje.
Hay diversos ejemplos de estados neurales emergentes para tareas que no
requieren aprendizaje, tales como los movimientos oculares o el
desplazamiento balístico de los miembros. Obviamente, la mayoría de las
tareas cognitivas que deseamos comprender involucran transformaciones
dependientes de la experiencia, de allí el interés en aprender reglas como la de
Hebb, que introdujimos en nuestro primer ejemplo. Tales reglas de
aprendizaje brindan a una red neural no sólo configuraciones emergentes
(como ocurría aun con nuestro simple autómata celular), sino la aptitud para
sintetizar nuevas configuraciones de acuerdo con la experiencia.
No reseñaremos aquí este explosivo campo de investigación en las redes
neurales plásticas y sus aplicaciones al estudio del cerebro y la inteligencia
artificial.[39] Baste con destacar que actualmente se exploran dos clases
Página 36
principales de métodos de aprendizaje. El primero, ilustrado por la regla de
Hebb e inspirado por los mecanismos cerebrales, es el aprendizaje por
correlación: se presenta al sistema una serie de ejemplos que lo condicionan
para futuros encuentros. El segundo es el aprendizaje por imitación, es decir
mediante un modelo que actúa como instructor activo. Esta estrategia es la
propuesta por Rossenblatt en su Perceptrón. En su versión moderna se la
conoce como «retropropagación». En esta técnica, los cambios en las
conexiones neuronales del interior de la red (llamadas unidades ocultas) se
asignan de tal modo de reducir al mínimo la diferencia entre la reacción de la
red y lo que se espera de ella.[40] Aquí el aprendizaje se parece a alguien que
trata de imitar a un instructor, NetTalk, un célebre y reciente ejemplo de este
método, es un conversor grafemas–fonemas que opera a partir de ciertas
páginas en inglés que se le presentan en su fase de aprendizaje. Como
resultado, NetTalk puede leer en voz alta un nuevo texto en lo que muchos
testigos consideran un inglés deficiente pero comprensible.[41]
Página 37
reacciones sólo se producen en un animal anestesiado cuyo ámbito (interno y
externo) está muy simplificado. Cuando el animal estudiado está consciente y
activo en un ámbito sensorial más normal, resulta cada vez más evidente que
las respuestas neuronales estereotipadas que describimos antes se vuelven
muy sensibles al contexto. Por ejemplo, hay claros efectos producidos por la
inclinación corporal o la estimulación auditiva.[43] Más aun, las características
de la respuesta neuronal dependen directamente de neuronas localizadas lejos
de sus campos receptivos.[44] Aun un cambio de postura, ante un idéntico
estímulo sensorial, altera las respuestas neuronales en la corteza visual
primaria, demostrando que, a pesar de la aparente separación, el motortum
está en consonancia con el sensorium.[45] Parece antinatural hacer una
descripción simbólica, punto por punto, de un sistema configurado de este
modo.
Por lo tanto, los neurocientificos han comprendido que es preciso estudiar
las neuronas como miembros de grandes conjuntos que aparecen y
desaparecen constantemente a través de sus interacciones cooperativas, y
donde cada neurona tiene respuestas múltiples y cambiantes en un modo que
depende del contexto. Una regla para la constitución del cerebro es que si una
región (núcleo, capa) A se conecta con B, luego B se conecta recíprocamente
con A. Esta ley de reciprocidad tiene sólo dos o tres excepciones menores. El
cerebro es así un sistema altamente cooperativo: las densas interconexiones
entre sus componentes implican que eventualmente todo ocurrirá en función
de todos esos componentes.
Esta clase de cooperación se sostiene tanto local como globalmente:
funciona dentro de los subsistemas cerebrales y en las conexiones entre
dichos subsistemas. Uno puede tomar el cerebro entero y dividirlo en
subsecciones, según las clases de células y zonas, tales como el tálamo, el
hipotálamo, los pliegues corticales, etc. Estas subsecciones están conformadas
por complejas redes celulares, pero también se relacionan entre si
conformando una red. En consecuencia, todo el sistema cobra una coherencia
interna en patrones intrincados, aunque no podamos decir exactamente cómo
ocurre. Sí uno moviliza artificialmente el sistema reticular, un organismo
cambia de conducta: por ejemplo, pasa de estar despierto a estar dormido. Sin
embargo, este cambio no indica que el sistema reticular controle la vigilia.
Ese sistema es más bien una forma de arquitectura, dentro del cerebro, que
permite la manifestación de ciertas coherencias internas. Pero cuando tales
coherencias se manifiestan, no se debe simplemente a un sistema particular.
El sistema reticular es necesario pero no suficiente para ciertos estados
Página 38
coherentes, tales como la vigilia y el sueño. Lo que está dormido o despierto
es el animal, no las neuronas reticulares.
Veamos lo que ocurre en la percepción visual en sus etapas periféricas. El
primer diagrama de la Figura 5.5 despliega las sendas visuales cuando uno
mira el cerebro desde abajo. El nervio óptico va desde los ojos hasta una
región del tálamo llamada núcleo geniculado lateral (NG) y desde allí a la
corteza visual. La descripción estándar del procesamiento de información
(todavía hallada en libros de texto y en publicaciones populares) es que la
información entra por los ojos y es retransmitida secuencialmente a través del
tálamo hasta la corteza, donde se llevan a cabo «más procesamientos». Pero si
miramos atentamente la configuración de todo el sistema, encontramos pocos
elementos que respalden esta idea de secuencialidad. El diagrama de la Figura
7 retrata el modo en que el NGL está encastrado en la red cerebral. Es
evidente que el 80 por ciento de lo que ve cualquier célula del NGL no
proviene de la retina, sino de la densa interconectividad de otras regiones del
cerebro. Más aun, son más las fibras que bajan desde la corteza al NGL que
las que suben en dirección inversa. Considerar las sendas visuales como
procesos secuenciales parece totalmente arbitrario; de la misma manera
podríamos considerar que la secuencia se mueve en la dirección inversa.
Figura 7. El diagrama de las conexiones del sistema visual de los mamíferos. NPG: núcleo
perigeniculado; col. sup: colículo superior; hip.: hipotálamo; FRM formación reticular mediana;
C.V.: corteza visual; NGL: núcleo geniculado lateral.
De manera que aun en el extremo más periférico del sistema visual las
influencias que el cerebro recibe del ojo se topan con más actividad que fluye
Página 39
desde la corteza. El encuentro de estos dos conjuntos de actividad neuronal es
una etapa en la emergencia de una nueva configuración coherente, que
depende del éxito del cotejo entre la actividad sensorial y la conformación
«interna» de la corteza primaria.[46] La corteza visual primaria es, no obstante,
sólo uno de los socios de este circuito neuronal local especifico en el nivel del
NGL. Otros socios desempeñan papeles igualmente activos, tales como la
formación reticular, las fibras procedentes del colículo superior, o la
consecuente actividad de las neuronas que controlan los movimientos
oculares,[47] La conducta de todo el sistema se parece más a una animada
charla en una fiesta que a una cadena de mando.
Lo que hemos descrito para la NGL y la visión es válido para todo el
cerebro. La visión es un ejemplo cómodo porque los detalles se conocen
mejor que los de la mayoría de los demás núcleos y zonas corticales. Una
neurona individual participa en muchos patrones globales como el descrito y
tiene escasa significación cuando se la toma aisladamente. En este sentido, se
puede decir que el mecanismo básico de reconocimiento visual es la
emergencia de un estado global entre conjuntos neuronales resonantes. De
hecho, Stephen Grosberg ha sido pionero de un análisis detallado de esas
redes neuronales resonantes.[48] Estos modelos son interesantes porque
concuerdan con la arquitectura general de los caminos visuales que acabamos
de delinear, al tiempo que son matemáticamente precisos, con lo cual
permiten una simulación e implementación artificial. Por ejemplo, se ha
demostrado que estas redes resonantes son capaces de aprender rápidamente a
clasificar letras en categorías, sin necesidad de recibir una lista predefinida.
Página 40
Pregunta 2: ¿Cómo funciona?
Respuesta: A través de reglas locales que gobiernan las operaciones
individuales y de reglas de cambio que gobiernan la conexión entre los
elementos.
Pregunta 3: ¿Cómo saber si un sistema cognitivo funciona
adecuadamente?
Respuesta: Cuando vemos que las propiedades emergentes (y la estructura
resultante) se corresponden con una aptitud cognitiva especifica: una solución
feliz para la tarea requerida.
Uno de los aspectos más interesantes de este nuevo enfoque de la ciencias
cognitivas es que los símbolos, en sentido convencional, no desempeñan
ningún papel. En el enfoque conexionista, la computación simbólica es
reemplazada por operaciones numéricas, por ejemplo, las ecuaciones
diferenciales que gobiernan un sistema dinámico. Estas operaciones son más
afinadas que las realizadas usando símbolos: en un modelo conexionista, el
resultado de una sola computación simbólica discreta se obtendría a través de
una gran cantidad de operaciones numéricas que gobiernan una red de
unidades simples. En tal sistema, los ítems significativos no son símbolos sino
complejos patrones de actividad entre las muchas unidades que constituyen la
red.
Este enfoque no simbólico implica un radical abandono del supuesto
cognitivista básico de que tiene que haber un claro nivel simbólico en la
explicación de la cognición. Como expusimos antes, el cognitivismo utiliza
los símbolos para satisfacer la necesidad de un nivel semántico o
representacional que sea de naturaleza física. Los símbolos son significantes y
físicos a la vez, y el ordenador es un aparato que respeta el sentido de los
símbolos pero sólo manipula su forma física. Esta separación entre forma y
sentido fue el golpe maestro que dio origen al enfoque cognitivista, y en
verdad a la lógica moderna. Pero esta maniobra fundamental también implica
una flaqueza cuando se encaran los fenómenos cognitivos en un nivel más
profundo: ¿cómo adquieren los símbolos su sentido?
En situaciones donde el universo de elementos representables es limitado
y definido (por ejemplo, cuando se programa un ordenador o cuando se dirige
un experimento con un conjunto de estímulos visuales predefinidos), el origen
del sentido es claro. Cada elemento físico o funcional y particular se tiene que
corresponder con un elemento externo (su referencia) mediante una función
que el observador provee fácilmente. Si eliminamos tales restricciones, sólo
Página 41
queda la forma de los símbolos, tan vacía de sentido como un grupo de bits en
un ordenador cuyo manual de instrucciones hemos perdido.
Sin embargo, en el enfoque conexionista, el sentido no está localizado en
símbolos particulares; está en función del estado global del sistema y está
enlazado con el desempeño general en un área determinada, como el
reconocimiento o el aprendizaje. Como este estado global emerge de una red
de unidades que son más densas que los símbolos, algunos investigadores se
refieren al conexionismo como el «paradigma subsimbólico».[49] Argumentan
que los principios formales de la cognición residen en este dominio
subsimbólico, un dominio que está por encima de lo biológico, pero también
más cerca de lo biológico que el nivel simbólico del cognitivismo. En el nivel
subsimbólico, las descripciones cognitivas están elaboradas a partir de
componentes que en un nivel superior llamaríamos símbolos discretos. El
significado, sin embargo, no reside en estos componentes per se, sino en
complejos patrones de actividad que emergen de las interacciones de dichos
componentes.
Esta diferencia entre lo subsimbólico y lo simbólico nos lleva de vuelta a
nuestra pregunta acerca de la relación entre diversos niveles de explicación en
el estudio de la cognición. ¿Cómo podrían estar relacionadas la emergencia
subsimbólica y la computación simbólica?
La respuesta más obvia es que se trata de dos enfoques, uno ascendente y
otro descendente, o que se deberían unir pragmáticamente de un modo mixto,
o que simplemente se deberían usar en diferentes niveles o etapas. Un
ejemplo típico consistiría en describir las primeras fases de la visión en
términos conexionistas, hasta, por ejemplo, la corteza visual primaria. Luego,
en el nivel de la corteza inferotemporal, la descripción se basaría en
programas simbólicos. La situación conceptual de tal síntesis, sin embargo,
dista de ser clara, y todavía nos faltan ejemplos concretos.
A nuestro juicio, la más interesante relación entre la emergencia
subsimbólica y la computación simbólica es una relación de inclusión, en la
cual vemos los símbolos como una descripción más elevada de propiedades
que en última instancia están encastradas en un sistema distribuido
subyacente. El caso del llamado «código» genético es paradigmático, y aquí
podemos usarlo como ejemplo concreto.
Los biólogos han pensado durante años que las proteínas están codificadas
por los nucleótidos del ADN, Sin embargo, es claro que los tripletes de ADN
son capaces de seleccionar adecuadamente un aminoácido en una proteína
sólo si están encastrados en el metabolismo de la célula, es decir, en medio de
Página 42
miles de regulaciones enzimáticas en una compleja red química. Es sólo a
causa de las regularidades emergentes de tal red en su conjunto que podemos
hacer abstracción de este trasfondo metabólico y tratar a los tripletes como
códigos para aminoácidos. En otras palabras, la descripción simbólica es
posible en otro nivel. Es legítimo tratar tales regularidades simbólicas en sí
mismas, pero su status e interpretación son muy distintas que cuando las
encaramos como si fueran independientes del sustrato del cual emergen.[50]
El ejemplo de la información genética se puede transponer directamente a
las redes cognitivadas con las cuales trabajan los neurocientificos y los
conexionistas. De hecho, algunos investigadores expresaron explícitamente
este punto de vista en tiempos recientes.[51] En la teoría de la armonía de Paul
Smolensky, por ejemplo, los «átomos» fragmentarios de conocimiento que
rodean los circuitos eléctricos están enlazados por algoritmos estadísticos
distribuidos, y así brindan un modelo del razonamiento intuitivo en este
dominio. La competencia de este sistema se puede describir como la
realización de inferencias basadas en rutas simbólicas, pero el desempeño se
encuentra en otro nivel y se realiza sin referencia a un intérprete simbólico.
Esta idea está retratada gráficamente en la Figura 8.
Página 43
basa en la hipótesis de que esta taxonomía consiste en símbolos. Este nivel
simbólico limita las clases de conducta que son posibles para un sistema
cognitivo, y así se piensa que tiene una categoría explicativa independiente.
En el punto de vista mixto se admite la necesidad de un nivel simbólico, pero
queda abierta la posibilidad de que este nivel sea sólo aproximado, En otras
palabras, los símbolos no se encaran por su valor nominal; se los ve como
descripciones aproximadas, en un macronivel, de operaciones cuyos
principios rectores residen en un nivel subsimbólico.
Entre los posibles cambios que implica esta síntesis, vale la pena señalar
dos en particular. Primero, se puede enfocar con mayor claridad la cuestión
del origen de un símbolo y su significado (ejemplo: ¿por qué el triplete ATT
selecciona la alanina?). Segundo, todo nivel simbólico pasa a depender de las
propiedades y peculiaridades de la red subyacente y queda ligada a su
historia. Por lo tanto, una descripción de la cognición basada puramente en
procedimientos,[52] independiente del modo en que la cognición está ligada a
su historia, queda en tela de juicio.
El cognitivista sin duda responderá que tal modalidad inclusiva o mixta
está bien si uno se interesa sólo en los procesos de nivel «inferior», tales
como los hallados en la «codificación» genética. Pero cuando uno encara
procesos de nivel «superior», como la capacidad para analizar oraciones o
hacer deducciones, se requiere un nivel simbólico independiente. En el caso
de las estructuras muy recursivas, tales como el lenguaje humano, se
argumentará que el nivel simbólico no es aproximado en absoluto; es la única
descripción precisa disponible para formas de representación productivas y
sistemáticas.[53]
Hay mucho que decir a favor de este argumento, pero la objeción es que
limita injustificablemente el dominio de la cognición a procesos de nivel
«superior». Por ejemplo, Jerry Fodor y Zenon Pylyshyn escriben en un
artículo reciente: «No sería desatinado describir la ciencia cognitiva clásica
[cognitivismo] como un intento de aplicar los métodos de teoría de la prueba
a las estructuras del pensamiento (y, análogamente, de cualesquiera otros
procesos mentales que impliquen inferencias, sobre todo el aprendizaje y la
percepción). No se trata de que las pruebas lógicas sean por si mismas tan
importantes en el pensamiento humano, sino que el modo de encararlas da
una pista de cómo encarar los procesos cognitivos en general».[54] A pesar de
esta última aclaración, sin embargo, la argumentación que luego desarrollan
en el artículo parece requerir que la lógica deductiva sea el paradigma del
pensamiento humano y al parecer, por ende, de la cognición en general.
Página 44
No vemos razones para aceptar esta estrecha concepción de la cognición.
Hay muchas clases de sistemas —los sistemas de inmunidad, por ejemplo—
cuya conducta se debería ver como cognitiva, pero sus aptitudes no abarcan
estos rasgos muy sistemáticos y productivos. [55] Cuando ensanchamos
nuestra perspectiva para incluir tales formas de conducta cognitiva, se puede
encarar la computación simbólica como una forma de cognición estrecha y
muy especializada. Aunque se podría considerar que esta forma especializada
tiene un alto grado de autonomía (ignorando el sistema más amplio en el cual
está encastrada), el estudio de la cognición incluiría, no obstante, sistemas
consistentes en muchas redes de procesos cognitivos, quizá cada cual con un
dominio cognitivo distintivo y propio.
El cognitivismo, tal vez en su afán de establecerse como un programa de
investigación maduro, ha resistido tal perspectiva. La perspectiva
emergentista, sin embargo, tanto en su fase temprana de estudio de los
sistemas autoorganizativos como en su actual forma conexionista, está abierta
para abarcar una mayor variedad de dominios cognitivos. Una modalidad
mixta o inclusiva parece ser, pues, la estrategia natural. La asociación
fructífera entre un cognitivismo menos ortodoxo y la visión emergentista,
donde las regularidades simbólicas emergen de procesos distribuidos
paralelos, es una posibilidad concreta, especialmente en IA, donde predomina
el pragmatismo técnico. Esta empresa complementaria sin duda producirá
resultados visibles y quizá llegue a ser, durante muchos años, la tendencia
dominante en las ciencias cognitivas.
Página 45
— 5 —
Cuarta etapa
La enacción: una alternativa ante la representación
Página 46
primeras ideas autoorganizativas, que hubieron de ser redescubiertas 30 años
después.
Página 47
circularidad de la acción interpretación.[58] Más aun, como esta perspectiva
analítica enfatiza la acción más que la representación, es adecuado llamar
enactivo a este enfoque alternativo de las CTC.[59] En el mundo anglosajón,
tradicionalmente más cerca del empirismo lógico, estos temas se han ignorado
a menudo.
Sin embargo, en años recientes, algunos investigadores de las CTC han
presentado propuestas concretas, llevando estas críticas filosóficas al
laboratorio para una reevaluación de la IA. Se trata de una divergencia mucho
más radical de las que hubo antes dentro de las CTC, pues trasciende los
temas discutidos durante los años de formación. Al mismo tiempo, incorpora
muchas de las herramientas desarrolladas dentro del contexto conexionista,
como pronto veremos.
Página 48
ejemplo de todos los ítems que habitan nuestro mundo natural: hay que
conocer todo el idioma para percibir el significado múltiple de una palabra,
que a la vez condiciona el significado de todas las demás. La categorización
de cualquier aspecto del mundo natural en que vivimos no tiene límites
precisos: no se puede expresar como un dominio a partir del cual elaboramos
un mapa.
Figura 9. Para el espacio «ajedrez» parece posible diseñar una red de relaciones cuyos
nudos representan cada elemento pertinente. En el caso del espacio «conductor
automovilistico», una tentativa semejante muestra que, más allá de ciertos elementos
aislados, la red evoluciona rápidamente hacia un trasfondo no circunscrito de sentido común.
(Fuente: P. Bierre, “The Professor's Challenge”, AI Magazine, invierno 1985, págs. 60–70).
Página 49
conexionista exige restringir las clases de atractores posibles a partir de
supuestos acerca de las propiedades conocidas del mundo, las cuales se
incorporan como reglas adicionales.[61] En ambos casos, la esquiva
ambigüedad del sentido común se deja en la periferia de la investigación, con
la esperanza de elucidarla posteriormente.
Estas preocupaciones tienen una desarrollada contrapartida filosófica. Los
fenomenólogos se han explayado explicando por qué el conocimiento se
relaciona con el hecho de estar en un mundo que resulta inseparable de
nuestro cuerpo, nuestro lenguaje y nuestra historia social,[62] Se trata de una
interpretación permanente que no se puede aprehender adecuadamente como
un conjunto de reglas y supuestos porque es una cuestión de acción e historia;
se comprende por imitación, convirtiéndose en parte de una comprensión ya
existente. Más aun, no podemos plantarnos fuera del mundo donde nos
hallamos para analizar cómo su contenido concuerda con las
representaciones: estamos siempre inmersos en él, arrojados en él. Al plantear
reglas para explicar la actividad mental y los símbolos como representaciones,
nos aislamos precisamente del pivote en torno del cual gira la dimensión viva
de la cognición. Ello sólo es posible dentro de un contexto muy limitado
donde casi todo permanece constante (los filósofos hablan de una condición
ceteris paribus). El contexto y el sentido común no son artefactos residuales
que se puedan eliminar progresivamente mediante el descubrimiento de reglas
más elaboradas. Constituyen la esencia misma de la cognición creativa.
Si esta crítica es atinada, no habrá progresos en la comprensión de la
cognición en su funcionamiento normal (y no exclusivamente en ámbitos muy
limitados) a menos que partamos de otra base que no sea una exterioridad
representable.
Página 50
En nuestra exposición acerca del cognitivismo distinguimos entre dos
sentidos de representación, y ahora será preciso recordarlos. Por una parte,
existe la noción relativamente aceptada de la representación como
interpretación: la cognición siempre consiste en interpretar o representar el
mundo como si fuera de cierta manera. Por otra parte, existe la idea, mucho
más extraña, de que este rasgo de la cognición se debe explicar mediante la
hipótesis de que un sistema actúa sobre la base de representaciones internas.
Como pareciera que las dos ideas son similares, es preciso afinar un poco esta
distinción.
Podemos comenzar señalando un concepto «débil» y admitido de
representación. Este concepto es puramente semántico: se refiere a todo lo
que se pueda interpretar como siendo acerca de algo. Este es el concepto de la
representación como «interpretación», pues nada es acerca de otra cosa sí no
la interpreta de cierta manera. Un mapa, por ejemplo, es acerca de una zona
geográfica; representa ciertos rasgos del terreno, y así interpreta que el terreno
es de determinada manera. Análogamente, las palabras impresas en una
página representan oraciones en un idioma, que a la vez pueden representar
—o ser acerca de— otras cosas. Este sentido de representación se puede
precisar un poco más. Si, por ejemplo, nos interesan las lenguas en un
contexto más formal, podemos decir que los enunciados de un lenguaje
representan sus condiciones de satisfacción. Por ejemplo, el enunciado «La
nieve es blanca» —tomado literalmente— queda satisfecho si la nieve es
blanca; el enunciado «Recoge tus zapatos» queda satisfecho si la persona
interpelada recoge sus zapatos.
Este concepto de representación es «débil» porque no comporta
necesariamente ninguna implicación epistemológica u ontológica fuerte. Así
es totalmente aceptable decir que un mapa representa el terreno sin
preguntarse cómo adquieren los mapas su significado. También es totalmente
aceptable pensar que un enunciado representa un conjunto de condiciones sin
preguntarse si el lenguaje en conjunto funciona de este modo, o si de veras
hay hechos en el mundo separados del lenguaje que luego puedan ser
representados por las oraciones del lenguaje. En otras palabras, el concepto
débil de representación es pragmático; lo usamos constantemente sin
preocuparnos.
La obviedad de tal idea, sin embargo, pronto se convierte en un concepto
mucho más fuerte de representación que si tiene fuertes implicaciones
ontológicas y epistemológicas. Este concepto «fuerte» surge cuando
generalizamos sobre la base del concepto más débil para elaborar una teoría
Página 51
cabal acerca del funcionamiento de la percepción, el lenguaje o la cognición.
Las implicaciones ontológicas y epistemológicas son básicamente dobles:
damos por sentado que el mundo está predefinido, es decir, que sus rasgos
están definidos antes de toda actividad cognitiva. Luego, para explicar la
relación entre esta actividad cognitiva y un mundo predefinido, planteamos la
existencia de representaciones mentales dentro del sistema cognitivo
(imágenes, símbolos o patrones subsimbólicos de actividad distribuidos por
una red: eso no importa por el momento). Luego tenemos una teoría cabal que
establece que: 1) el mundo es predefinido; 2) nuestra cognición aprehende
este mundo, aunque sea en forma parcial; y 3) el modo en que conocemos este
mundo predefinido consiste en representar sus rasgos y luego actuar sobre la
base de estas representaciones.
Para las escuelas representacionistas, toda entidad cognitiva ha caído en
paracaídas en un mundo preexistente. Esta entidad sólo sobrevivirá en la
medida en que esté provista con un mapa y aprenda a actuar siguiendo ese
mapa. En la versión científica de esta historia, el mapa constituye un sistema
innato de representaciones (acerca del espacio, el tiempo, las formas, los
olores y demás), mientras que aprender a usarlo (patrones motores y
emotivos) y actualizarlo (aprender un lenguaje o tarea especifica) es tarea de
la ontogenia.
Muchos científicos cognitivos replicarán que hemos presentado una mera
caricatura. ¿No estamos suponiendo una concepción estática de la
representación, una concepción que pasa por alto la riqueza de detalles de la
estructura interior de un sistema cognitivo e injustificablemente interpreta que
la representación es un mero espejo? ¿Acaso no es bien sabido, por ejemplo,
que se considera que la percepción visual es el resultado de un ordenamiento
de los patrones físicos de energía que estimulan la retina para crear
representaciones de la escena visual, que luego se usan para hacer inferencias
y eventualmente para emitir un juicio perceptivo? Se considera que la
percepción es un proceso activo de formación de hipótesis, no el simple
reflejo de un ámbito dado.
Esta objeción es justa en cierta medida, pero no da en la tecla. No nos
proponemos caricaturizar un complejo programa de investigación, sino
explicitar algunos supuestos epistemológicos del modo más claro posible.
Así, aunque todos convienen —con la posible excepción de algunos
conductistas recalcitrantes— en que la representación es un proceso activo, se
la sigue concibiendo como un proceso de «recuperación» o «reconstrucción»
de rasgos ambientales extrínsecos e independientes. En la visión, por ejemplo,
Página 52
uno habla de «recobrar la forma a partir de la sombra» o «el color a partir del
brillo». Se considera que estos rasgos son propiedades extrínsecas del
ambiente, las cuales brindan la información necesaria para recobrar
propiedades «superiores» de la escena visual, tales como la forma y el color.
Persiste la idea básica de un mundo con rasgos predefinidos.[63]
Ejemplos de enacción
Tomemos el caso de la visión: ¿qué vino primero, el mundo o la imagen? La
respuesta de los investigadores de la visión (tanto cognitivistas como
conexionistas) está dada inequívocamente en los nombres de las tareas
investigadas: «recobrar la forma a partir de la sombra», o la «profundidad a
partir del movimiento», o «el color a partir de diversas iluminaciones».
Podemos llamarla la posición de la gallina:
Esto parece ser muy razonable y resulta muy difícil imaginar que pueda ser de
otra manera. Tendemos a pensar que la única otra posibilidad es la posición
del huevo.
Página 53
que marca la diferencia entre el enfoque enactivo y cualquier forma de
constructivismo[65] neokantismo biológico[66] es este énfasis en la
codeterminación (del huevo y la gallina). Es importante tenerlo en cuenta,
pues la filosofía más o menos realista que impregna las ciencias cognitivas
suele dar por sentado que quien cuestione las representaciones debe asumir
ipso facto la posición antitética, acechada por el espectro del solipsismo. Pero
no nos llamemos a engaño creyendo que el conocimiento opera mediante la
representación de una aparente exterioridad.
Expresemos las mismas ideas con un ejemplo. Pensemos en los simples
sistemas autoorganizativos introducidos en la Figura 6, y quitemos la
restricción de que están diseñados para una tarea particular. Dejemos que el
sistema simplemente exista dentro de un ámbito que contiene una selección
de elementos aleatorios. Luego sigamos su historia y veamos cómo un
sistema particular se acopla con este ámbito aleatorio. Como muestra la
Figura 10,[67] entre las infinitas secuencias posibles, el sistema cambia su
estado global (se desplaza de un atractor a otro) sólo cuando se topa con dos
perturbaciones consecutivas. En otras palabras, el sistema ha escogido un
subconjunto de acontecimientos (los que consisten en dos perturbaciones
sucesivas) como algo significativo, pues sólo ante ese encuentro cambia su
configuración de modo regular. En este muy simple ejemplo presenciamos el
origen de un mundo para el sistema, que emerge tangiblemente de
circunstancias aleatorias a través de una historia de acoplamiento. Desde
luego, no hay «representación» de este subconjunto escogido de todas las
secuencias aleatorias posibles dentro del sistema, ni era su tarea reconocerlas,
La existencia del sistema mismo las hizo emerger desde un indefinido
trasfondo de posibilidades.
Página 54
Figura 10. Un anillo —una cadena circular construido según el principio ilustrado en la Figura
5 está ahora envuelto por un mundo de perturbaciones aleatorias, representadas en la parte
superior del diagrama por varios O y 1. El anillo entra en contacto con su mundo con cada
nueva perturbación, lo cual cambia el estado de una neurona nada. Así, en el decurso del
tiempo, una historia del acoplamiento entre anillo y mundo es añadida a la dinámica interna
propia del anillo mismo (tal como se lo describe en la Figura 5). En la parte inferior de esta
figura mostramos un ejemplo de una tal historia de acoplamiento. Nótese que, en este
Página 55
ejemplo, una o tres perturbaciones sucesivas en una neurona dada no suponen un cambio de
una configuración espacial global a otra, mientras que un encuentro con dos perturbaciones
sucesivas sí. A través de tal cambio global, el sistema ha escogido una configuración
especifica de encuentros (es decir, dos perturbaciones sucesivas), cuya relevancia es pues
inseparable de la historia de acoplamiento del sistema con este mundo aleatorio.
Página 56
(requieren cuatro colores primarios), mientras que nosotros somos
tricrómaticos (nos bastan tres colores primarios).[70] En el dominio del color
ni las aves ni nosotros somos más o menos «precisos» en lo que concierne a
un dominio que presuntamente es el «mismo», sino que habitamos dos
mundos perceptivos de diferentes dimensiones, que por lo tanto no se pueden
superponer.
Dicho de otro modo: las muy diferentes historias de acoplamiento
estructural de aves y primates han hecho emerger un mundo de datos
relevantes que para cada cual es inseparable de su modo de vida. Sólo se
requiere que cada senda emprendida sea viable, es decir, que sea una serie
ininterrumpida de cambios estructurales. Los mecanismos neuronales que
subyacen al color no son la solución de un problema (captar las propiedades
cromáticas preexistentes de los objetos), sino el surgimiento simultáneo de la
percepción cromática en el hombre o el ave y lo que uno luego puede
describir como atributos cromáticos del mundo habitado.
Otra dimensión perceptiva donde se pueden ver estas ideas en juego es el
olfato, no a causa de la gama comparativa brindada por la filogenia, sino
gracias a modernas técnicas electrofisiológicas. Durante muchos años de
trabajo, Freeman[71] se las ingenió para insertar electrodos en el bulbo olfativo
de un conejo, para poder mensurar una pequeña parte de la actividad global
mientras el animal se comporta libremente. Descubrió que no existe un claro
patrón de actividad global en el bulbo a menos que el animal, entero y
despierto, sea expuesto a aromas. Más aun, tales patrones emergentes parecen
surgir de un trasfondo de actividad coherente para configurar un atractor
coherente. Al igual que el color, el olor no se revela como un mapa pasivo de
rasgos externos, sino como la articulación creativa de sentido a partir de lo
histórico.[72]
Bajo esta luz, pues, la operación del cerebro se interesa centralmente en la
enactuación de mundos a través de la historia de linajes viables: es un órgano
que construye mundos en vez de reflejarlos.
Síntesis de la doctrina
La noción básica es que las aptitudes cognitivas están inextricablemente
enlazadas con una historia vivida, tal como una senda que no existe pero que
se hace al andar. En consecuencia, la cognición deja de ser un dispositivo que
resuelve problemas mediante representaciones para hacer emerger un mundo
Página 57
donde el único requisito es que la acción sea efectiva: ¿permite la continuidad
del sistema involucrado?[73]
Pregunta 1: ¿Qué es la cognición?
Respuesta: Acción efectiva: historia del acoplamiento estructural que
enactúa (hace emerger) un mundo.
Pregunta 2: ¿Cómo funciona?
Respuesta: A través de una red de elementos interconectados capaces de
cambios estructurales durante una historia ininterrumpida.
Pregunta 3: ¿Cómo saber si un sistema cognitivo funciona
adecuadamente?
Respuesta: Cuando se transforma en parte de un mundo de significación
preexistente (como lo hacen los vástagos de toda especie), o configura uno
nuevo (como ocurre en la historia de la evolución).
Señalemos que en estas respuestas aparecen dos conceptos nuevos, hasta
ahora ausentes en las CTC. El primero es que, como las representaciones ya
no desempeñan un papel central, la inteligencia ha dejado de ser la capacidad
de resolver un problema para ser la capacidad de ingresar en un mundo
compartido. El segundo es que el proceso evolutivo pasa a reemplazar al
diseño orientado hacia tareas especificas. Dicho sin rodeos, así como el
conexionismo nació del cognitivismo inspirado por un contacto más estrecho
con el cerebro, la orientación enactiva va un paso más allá en la misma
dirección para abarcar también la temporalidad del vivir, trátese de una
especie (evolución), del individuo (ontogenia) o de la estructura social
(cultura).
Página 58
que las líneas divisorias son tan claras como las que había entre la orientación
simbólica y la conexionista.
Es obvio que la estrategia enactiva sólo es posible para la IA si estamos
dispuestos a desechar las restricciones operativas de la resolución de
problemas específicos predefinidos por el ingeniero. Tal es la intención, por
ejemplo, de los llamados «sistemas de clasificación», cuya idea básica
consiste en que el sistema enfrenta un ámbito no definido que debe articular
en significados.[74] Más generalmente, la simulación de historias prolongadas
de acoplamiento y de estrategias evolutivas para descubrir las tendencias
básicas donde surge el desempeño inteligente todavía pertenece al futuro.
Pero como esta línea de investigación no arroja réditos inmediatos, no suele
atraer al competitivo sector de la 1A, y por lo tanto se ha trabajado muy poco
en esta dirección.
Otra importante zona de influencia del enfoque enactivo está en el área de
la informática y del lenguaje. En esta perspectiva, la actividad de la
comunicación no consiste en la transferencia de información del emisor al
receptor. La comunicación se convierte en la modelación mutua de un mundo
común a través de una acción conjunta: el acto social del lenguaje da
existencia a nuestro mundo. Hay algunas dimensiones del lenguaje a través de
las cuales se hace emerger lo social. Se trata de los actos lingüísticos que
realizamos constantemente: declaraciones, promesas, requerimientos y
formulaciones. De hecho, dicha red de actos de habla, con sus condiciones de
satisfacción, no constituye una mera herramienta para la comunicación sino la
trama de nuestra identidad. Da cuenta de mucho de lo que ocurre en una
oficina, y por tanto se relaciona mucho más con la comprensión de su
dinámica que los clásicos organigramas administrativos.[75] Este enfoque ha
originado una nueva rama de herramientas IA conocidas como
coordinadores.[76] La idea básica es que un coordinador reemplaza el correo
electrónico estándar con software destinado al análisis de flujo de las
conversaciones que se desarrollan en una empresa. Los coordinadores
constituyen un ejemplo de reorientación de la IA: en vez de exigir al
ordenador lo que quizá sea imposible, es decir, la tarea abierta del análisis
lingüístico, se lo usa como un vehículo estructurado para el reconocimiento
explícito de nuestra continua enacción lingüística.
Página 59
Todo eslabón entre la emergencia y la enacción depende de las funciones que
atribuyamos a un sistema distribuido. Si enfatizamos un proceso histórico que
conduce a regularidades emergentes sin una restricción final fija, recobramos
la condición biológica, de final más abierto. Si en cambio enfatizamos una red
que adquiere una capacidad muy específica en un dominio muy definido,
vuelven las representaciones, y tenemos el más habitual enfoque de los
modelos conexionistas. Sin embargo, la primera interpretación también
implica una nueva perspectiva sobre la cognición, como explicamos en el
capitulo anterior.
En consecuencia, el camino que tomemos dependerá en gran medida de
nuestro interés en permanecer más cerca de la realidad biológica, y más lejos
de consideraciones pragmáticas. Desde luego, es posible definir un dominio
fijo dentro del cual puede funcionar un sistema conexionista, pero ello oculta
los más profundos problemas del origen, tan cruciales para el enfoque
enactivo.
Pensemos, por ejemplo, en la teoría de la armonía de Smolensky. Su
enfoque de la computación subsimbólica como modelo de la intuición parece
muy emparentado con la perspectiva enactiva, por lo cual puede ser el mejor
ejemplo para utilizarlo como contraste. Sin embargo, aun la teoría de la
armonía se evalúa en referencia a un nivel inviolado de realidad ambiental:
los rasgos exógenos concuerdan con ciertos datos del mundo, y una actividad
endógena que adquiere, a través de la experiencia, un estado de significación
abstracta, una «codificación óptima de la regularidad ambiental». La meta
consiste en hallar una actividad endógena que se corresponda con una
«caracterización óptima» del medio ambiente.[77] La perspectiva enactiva
requeriría que se lleve esta clase de sistema cognitivo a una situación donde lo
endógeno y lo exógeno se definan mutuamente a través de una prolongada
historia que requeriría sólo un acoplamiento viable, y que ignorara toda forma
de adecuación óptima.[78]
Desde luego, esta orientación parece infructuosa desde el punto de vista
de la IA, cuya orientación pragmática tiene como objetivo la producción de
un sistema que trabaje en algún dominio con poca demora. Mi argumento es
que las propiedades cognitivas emergieron de los sistemas vivientes sin tal
preocupación por la caracterización óptima. Resultan de historias de
compensaciones viables que crean regularidades, pero de ninguna manera es
obvio que ellas correspondan a un referente único.
Hay pues una tensión entre dos mundos paralelos de la investigación,
donde la decisión de estar en contra o a favor de la critica enactiva está
Página 60
influida tanto por las complejidades de un viraje conceptual como por el
mundo tecnológico, cuyas exploraciones están encorsetadas por la camisa de
fuerza de la aplicación inmediata. Sospecho que esta tensión se resolverá
mediante una creciente brecha entre los componentes científicos y los
tecnológicos de las CTC.[79]
Página 61
— 6 —
Conclusiones
De: Hacia:
tareas
creativo
específicas
resolución de definición de
problemas problemas
abstracto, ligado a la historia, al
simbólico cuerpo
universal contextual
centralizado distribuido
secuencial,
paralelo
jerárquico
mundo
mundo enactuado
predefinido
representación acción productiva
desarrollo por desarrollo por
diseño estrategias evolutivas
Página 62
Como resumen visual de esta presentación, he bosquejado las tres principales
orientaciones comentadas aquí en el mapa polar de la Figura 11. Opino que
estas tres sucesivas olas para comprender la cognición y su origen se
relacionan entre sí por imbricación sucesiva, como cajas chinas. En la
dirección centrípeta, vamos de lo emergente a lo simbólico excluyendo la
base de donde emergen los símbolos, y trabajando con los símbolos según su
valor nominal. También podemos ir de la enacción al conexionismo estándar
suponiendo regularidades dadas en el dominio en el que opera el sistema (es
decir, una función de adecuación en un dominio). En la dirección centrifuga
excluimos gradualmente lo que parece estable y regular para enfatizar el
análisis del origen de tales regularidades, incluidas las dimensiones
perceptivas de nuestro mundo humano. Por ello mismo, los conceptos
enumerados en la tabla anterior no se deben ver como opuestos lógicos (o
dialécticos). Representan más bien lo particular y lo general, la categoría local
y la más abarcadora.
Figura 11. Un mapa polar de las CTC, con el paradigma cognitivista en el centro, los nuevos
enfoques en la periferia, y el campo intermedio de las ideas conexionistas entre ambos. El
nombre de los investigadores representativos citados en el texto aparece en cada región a lo
largo del rayo correspondiente a su disciplina. La flecha indica la posición del autor de este
libro.
Página 63
explicación es el anillo exterior del mapa, el más abarcador. Más aun, para
una IA en donde la inteligencia de las máquinas les permita desarrollar un
sentido común con los seres humanos, tal como los animales, no veo otro
camino que elevarlas a través de un proceso de transformaciones evolutivas
tal como el sugerido por la perspectiva enactiva. La fertilidad, la dificultad o
la imposibilidad de ello es imposible de prever.
En el texto he explicado claramente mis preferencias personales. Ante
todo quería demostrar que si el pivote de la cognición es su capacidad para
hacer emerger significados, la información no está preestablecida como orden
dado, sino que implica regularidades que emergen de las actividades
cognitivas mismas. Este reacomodamiento tiene múltiples consecuencias
científicas, técnicas, filosóficas y éticas, que ya deberían ser evidentes. En
particular, implica una perspectiva para desarrollar las ciencias cognitivas en
Europa de una manera singular y vigorosa que sacará el máximo partido de
sus singulares tradiciones.
Página 64
Notas
Página 65
[1]
Véase, sin embargo: SCHWARTZMANN, Félix, 1968. Teoría de la
expresión. Santiago: Editorial Universitaria. <<
Página 66
[2] La presente traducción se realizó a partir del original inglés y se cotejó con
Página 67
[3] La elección de este término se justifica en el capítulo 5. [N. del T. francés]
<<
Página 68
[4] Un paradigma, según Thomas Kuhn (The Structure of Scientific
Revolutions. 2ª Edición. Chicago University Press. 1970) es el modo habitual
de referirse al conjunto coherente de ideas científicas que se aceptan como
explicación de un corpus fenomenológico. La idea es discutible, pero eso no
nos interesa aquí. <<
Página 69
[5] Este capitulo debe mucho a nuestro reciente trabajo colectivo sobre la
Página 70
[6] Usamos la palabra en su connotación anglosajona, relacionada con la teoría
Página 71
[7] La mejor fuente para esto son las muy citadas Conferencias de Macy,
Página 72
[8]
“A logical calculus immanent in nervous activity”, Bulletin of
Mathematical Blophysics, vol. 5, 1943. <<
Página 73
[9] Para una interesante perspectiva acerca de este momento
histórico/conceptual, véase también A. Hodges, Alan Turing: The Enigma of
Intelligence (Nueva York: Touchstone, 1984). <<
Página 74
[10] Para este período véase H. Gardner, op. cit., capítulo 5. <<
Página 75
[11] Esta denominación está justificada en J. Haugland (comp.), Mind Design
Página 76
[12]
Acerca de este tema, véase SEARLE, John, 1983. Intentionality.
Cambridge University Press. <<
Página 77
[13] Véase Alan Newell, “Physical Symbol Systems”, Cognitive Science 4:2
Página 78
[14] La irreductibilidad del nivel semántico es objeto de varias controversias
Página 79
[15] Véase Jerry Fodor, “Special Sciences; or the Disunity of Science
Considered as a Working Hypothesis,” and “Computation and Reduction,”
reeditados en sus Representations: hical Essays on the Foundations of
Cognitive Science (Cambridge, Massachusetts: Bradford Books/MMIT Press,
1981). <<
Página 80
[16]
Para una argumentación desde dentro de la filosofia analítica, veáse
Hilary Putnam, “Computational Psychology and Interpretation Theory”,
reeditado en su Realism and Reason: Philosophical Papers, Volume 3
(Cambridge University Press, 1983). Para una crítica enactivista de esta idea,
véase Terry Winograd y Fernando Flores, Understanding Computers and
Cognition: A New Sor Design (Nueva Jersey: Ablex Press, 1986). Este
problema también constituye el fundamento del ingenioso y hoy celebre
experimento mental del «Cuarto chino», de John Searle, en su "Minds,
Brains, and Programs”, reeditado en John Haugeland (comp.). Mind Design
(Montgomery, Vt.: Bradford Books, 1981). <<
Página 81
[17] Véase por ejemplo el número especial de La Recherche dedicado a
L'Intelligence artíficielle (París, Editions du Seuil, 1985). <<
Página 82
[18] R. Shepard y J. Metzler, Science 171:701–3, 1971. <<
Página 83
[19] S. Kosstyn, Psychol. Rev. 88:46–66, 1981. <<
Página 84
[20] Véase Beh. Brati Sct. 2:535–81, 1979, y H. Gardner, The Mind's New
Página 85
[21]
S, Kufiler y J. Nichols, From Neuron to Brain (Boston: Sinauer
Associates, 1975), pág. 3. <<
Página 86
[22] El libro de P. Buser y M. Imbert, Vision (Paris: Hermann, 1986), ilustra
Página 87
[23]
H. Barlow, “Single Units and Sensation: A Neuron Doctrine for
Perceptual Psychology”, Perception I (1972): 371–394. <<
Página 88
[24] Véase por ejemplo, la crítica a Barlow emprendida por David Marr en su
Página 89
[25] Para fuentes sobre esos años formativos, véase nota 2. <<
Página 90
[26]
Frank Rosenblatt, Principles of Neurodynamics: Perceptrons and the
Theory of Brain Dynamics (Spartan Books, 1962). <<
Página 91
[27] Para más datos sobre los complejos orígenes de las Ideas acerca de la
Página 92
[28] Daniel C. Dennett, “Computer Models and the Mind — A View from the
Página 93
[29] El líbro de I. opne y I. Stengers, La Nouvelle alliance (París: Gallimard,
Página 94
[30] El nombre fue propuesto por J. Feldman y D. Ballard, “Connectionist
models and their properties”, Cognitive Science 6: 1982, págs. 205–254. Para
un extenso comentario acerca de los modales actuales de esta tendencia, véase
J. McCielland y D. Rummelhart (comps.), Parallel Distributed Processing:
Studies on the Microstructure of (Cambridge, Massachusetts: MIT Press,
1986). <<
Página 95
[31] La principal idea se debe aquí a John J. Hopfield, “Neural Networks and
Página 96
[32] Hay muchas variantes sobre estas ideas. Véase G. Hinton, T. Sejnowsky,
Página 97
[33]
Véase, por ejemplo, Heinz von Foerster (comp.). Principles of Self–
Organization (Nueva York: Pergamon Press, 1962). <<
Página 98
[34] Para una extensa discusión sobre este punto, véase P. Dumouchel y J. P.
Página 99
[35] En los Estados Unidos el Santa Fe Institute for the Study of Complex
Página 100
[36] Una introducción accesible a la moderna teoría de los sistemas dinámicos
Página 101
[37] Figura y simulaciones tomadas de F. Varela, Autonomie et connaissance
Página 102
[38] Véase S. Wolfram, "Statiscal mechanics of cellular automata”, Reviews of
Página 103
[39] Para una reseña reciente y representativa, véase IEEE First International
Página 104
[40] La idea en su forma moderna es debida a D. Rummelhart, G. Hinton y R.
Página 105
[41] Véase T. Sejnowski y C. Rosenbaum, “NetTalk: A parallel network that
Página 106
[42] Para una interesante compilación de recientes ejemplos y comentarios,
Página 107
[43] Para los efectos de la inclinación corporal, véase G. Horn y R.
Hill,
Nature 221 (1974), págs. 185–187. Para los efectos de la estimulación
auditiva, véase M. Fishman y C. Michael, Vision Research 13 (1973), pág.
1415; y F. Morell, Nature 238 (1972), págs. 44–46. <<
Página 108
[44]
Véase J. Allman, F. Meizen y E. McGuiness, Annual Review of
Neuroscience 8 (1985), págs. 407–430. <<
Página 109
[45] Abeles, Local Circuits (Nueva York: Springer, 1984). <<
Página 110
[46] Para un examen detallado de esto en el caso de la rivalidad binocular,
Página 111
[47] W. Singer, “Extraretinal influences in the geniculate”, Phystology Review,
Página 112
[48] Stephen Grosberg, Studies in Mind and Brain (Boston: D. Reidel, 1984).
Página 113
[49] Paul Smolensky, “On the Proper Treatment of Connectionism”, Behavior
Página 114
[50] Para el distingo entre descripción simbólica y emergente y su explicación
Página 115
[51] Véase W. Daniel Hillis, “Intelligence as an Emergent Behavior; or, The
Página 116
[52]
En las CTC, el criterio por procedimientos se opone al declarativo,
aludiendo a la descripción del conocimiento por su puesta en obra antes que
por sus reglas de producción, lo cual refleja la dicotomía
desempeño/competencia a que se alude más arriba. (N. del T.) <<
Página 117
[53] Esta posición está explicada en detalle por Jerry Fodor y Zenon Pylyshyn
Página 118
[54] Ibid. <<
Página 119
[55] Véase Francisco Varela, Antonio Coutinho y Bruno Dupire, “Cognitive
Página 120
[56] El neologismo «enacción» traduce el neologismo inglés enaction,
derivado de enact, «representar», en el sentido de «desempeñar un papel»,
«actuar». De allí la forma «enactuada»: traducir «actuada», «representada» o
«puesta en acto» habría llevado a confusión. «Hacer emerger» traduce la
forma bring forth. En este y otros problemas he seguido el criterio de Pierre
Lavole, el traductor francés, quien aclara que su fatreémerger es la traducción
del alemán hervorbringen, término de origen fenomenológico. (N. del. T.) <<
Página 121
[57] Para un lúcido comentario sobre esto desde una perspectiva anglosajona,
Página 122
[58] En este aspecto ha sido muy influyente el trabajo de H. G. Gadamer,
Truth and Method (Seabury Press, 1975). Para una clara introducción a la
hermenéutica véase Palmer, Hermeneutics (Northwestern University Press,
1979). La redacción de este capítulo debe mucho a la influencia de F. Flores;
véase T. Winnograd y F. Flores, Undestanding Computer and cognition: A
New Foundation for Design (Nueva Jersey: Ablex, 1986). <<
Página 123
[59]
El nombre dista de estar establecido. Aquí lo sugiero por razones
expositivas, hasta que se proponga uno mejor. <<
Página 124
[60] Véase P. Biere, “The professor's challenge”, AI Magazine, invierno 1985,
Página 125
[61] Para una descripción concisa y formal, véase T. Poggio, V. Torre y C.
Página 126
[62] Las principales referencias que tenemos en mente son: M. Heidegger,
Página 127
[63] Para esta concepción de la visión, véase David Marr, Vision: A
Computational Investigation into the Human Representation and Processing
of Visual Information (Nueva York: W. H. Freeman, 1982), especialmente la
introducción. Para una explicación filosófica de estas ideas, véase Fred I.
Dretske, Knowledge and the Flow of Information (Cambridge, Massachusetts:
Bradford Books/MIT Press, 1981). <<
Página 128
[64] Esto está explicado en mi “Living ways of sense making: A middle way
Página 129
[65] Véase por ejemplo P. Watzlawick (comp.), The Invented Reality: Essays
Página 130
[66] Visto con mayor claridad en la escuela vienesa de Konrad Lorenz, tal
Página 131
[67] Figura tomada de F. Varela, Autonomie et Connatssance, op. ctt., capitulo
Página 132
[68] Véase, por ejemplo, E. Land, Proc. Natl. Acad. Sct. (USA), 80:5163–
Página 133
[69] P. Gouras y E. Zenner, Progr. Sensory Physiol, 1:139–179, 1981. <<
Página 134
[70] Para una reseña de la visión cromática comparativa, véase G. Jacobs,
Página 135
[71] W. Freeman, Mass Action in the Nervous System (Academic Press, 1975).
<<
Página 136
[72] W. Freman y C. Skarda, Brain Res. Reviews, 10:145–175, 1985.
Significativamente, una sección del artículo se titula: «Una retractación de la
“representación”» (pág. 169). <<
Página 137
[73] Para una exposición introductoria completa a este punto de vista, véase H.
Página 138
[74] Véase J. H. Holland, Informe técnico, Universidad de Michigan, 1984.
Página 139
[75]
Para un comentario sobre este punto de vista, véase L. Smirch y C.
Stubbart, Acad. Manag. Rev., 10:724–736, 1985. <<
Página 140
[76] T. Winograd y F. Flores, Understanding Computers and Cognition, op.
cit. <<
Página 141
[77] P. Smolensky, op. cit., pág. 260. <<
Página 142
[78]
Vale la pena señalar que se pueden aplicar argumentos similares al
pensamiento evolutivo de hoy. Para los paralelismos entre representacionismo
cognitivo y adaptacionismo evolutivo, véase F. Varela, en P. Livingstone
(comp.), op. cit. Para una excelente exposición de los mismos problemas
adaptados a la evolución y el desarrollo, véase S. Oyama, The Ontogeny of
Information (Cambridge University Press, 1985). <<
Página 143
[79] Véanse
también las observaciones de Roger Schank en AI Magazine,
otoño 1985, págs. 122–135. <<
Página 144