Mentes, Cerebros y Programas. John R. Searle
Mentes, Cerebros y Programas. John R. Searle
Mentes, Cerebros y Programas. John R. Searle
Consideraré el trabajo de Roger Schank y sus colegas en Yale (ver, por ejemplo, Schank
y Abelson 1977), debido a que estoy más familiarizado con éste que con otros
postulados similares, y debido a que provee un ejemplo claro del tipo de trabajo que
deseo examinar. Pero nada de lo que sigue depende de los detalles de los programas de
Schank. Los mismos argumentos se aplicarían al SHRDLU de Winograd (1972), al
ELIZA de Weizenbaum (1965), y de hecho a cualquier simulación de los fenómenos
mentales humanos en una máquina de Turing.
1
En Haugeland, J. (1997) Mind Design II. Cambridge, MA: MIT Press. Segunda edición 1997.
2
Traducción de Lucía Castillo I., estudiante de Magíster en Estudios Cognitivos, Universidad de Chile.
hamburguesa o dejar propina”. Ahora, si se le entrega la siguiente pregunta: “¿Se comió
el hombre la hamburguesa?”, usted probablemente responderá “No, no se la comió”. De
manera similar, si le entregan la siguiente historia: “Un hombre fue a un restaurante y
pidió una hamburguesa; cuando la hamburguesa llegó, el hombre se sintió muy
satisfecho con ella; y cuando se fue del restaurante le dejó al mozo una gran propina,
antes de pagar la cuenta”, y le preguntan “¿Se comió el hombre la hamburguesa?”,
probablemente responderá “Sí, se comió la hamburguesa”.
(a) Puede decirse que la máquina literalmente comprende la historia y responde las
preguntas; y
Me parece que los postulados (a) y (b) no se sostienen en ninguna medida a partir del
trabajo de Schank, e intentaré demostrarlo en los párrafos siguientesi.
Una manera de poner a prueba cualquier teoría de la mente es preguntarse cómo sería si
nuestra propia mente realmente funcionara bajo los principios que la teoría sostiene para
todas las mentes. Apliquemos esta prueba al programa de Schank mediante el siguiente
Gedankenexperiment. Supongamos que estoy encerrado en una pieza y se me entrega un
gran lote de escritos en chino. Supongamos, además, como es realmente el caso, que no
conozco nada de chino, ni escrito ni hablado, y que ni siquiera confío en que pudiera
distinguir escritura china de escritura japonesa, o de dibujos sin sentido. Supongamos,
en seguida, que luego de este primer lote de escritura china se me entrega un segundo
lote de escritos en chino junto a un conjunto de reglas para correlacionar el segundo lote
con el primer lote. Las reglas están en inglés, y comprendo estas reglas tan bien como
cualquier hablante nativo de inglés. Me permiten correlacionar un conjunto de símbolos
formales con otro conjunto de símbolos formales, y lo único que significa “formal” aquí
es que puedo identificar estos símbolos enteramente por sus formas. Ahora supongamos
que se me entrega también un tercer lote de símbolos chinos junto a algunas
instrucciones, nuevamente en inglés, que me permiten correlacionar elementos de este
tercer lote con los otros dos lotes, y estas reglas me indican cómo debo entregar de
vuelta ciertos símbolos chinos de ciertas formas en respuesta a ciertas formas que se me
entregaron en el tercer lote.
Sin ser de mi conocimiento, las personas que me entregan estos símbolos llaman al
primer lote un “guión”, al segundo una “historia”, y al tercero “preguntas”. Aún más,
llaman a los símbolos que yo entrego de vuelta en respuesta al tercer lote “respuestas a
las preguntas”, y al conjunto de reglas en inglés que me entregaron, “programa”. Para
complicar un poquito este asunto, imagine que estas personas también me entregan
historias en inglés, las que entiendo, y luego me hacen preguntas en inglés acerca de
estas historias, y yo les respondo en inglés. Supongamos también que luego de un rato
me vuelvo tan bueno siguiendo las instrucciones para manipular estos símbolos chinos,
y los programadores se vuelven tan buenos escribiendo los programas, que, desde un
punto de vista externo –esto es, desde el punto de vista de alguien fuera de la pieza en la
que estoy encerrado-, mis respuestas a las preguntas son indistinguibles de las que
darían hablantes nativos de chino. Nadie que viese mis respuestas podría decir que no
hablo una palabra de chino. Supongamos, además, que mis respuestas a las preguntas en
inglés son, como lo serían sin duda, indistinguibles de las de otros hablantes nativos de
inglés, por la simple razón de que soy un hablante nativo de inglés. Desde un punto de
vista externo, desde el punto de vista de alguien leyendo mis “respuestas”, las
respuestas a las preguntas en chino y a las preguntas en inglés son igualmente buenas.
Pero en el caso chino, a diferencia del caso inglés, produzco las respuestas manipulando
símbolos formales sin interpretar. En lo que concierne al chino, simplemente me
comporto como un computador; realizo operaciones computacionales sobre elementos
formalmente especificados. Para los propósitos del chino, soy simplemente la
realización de un programa computacional.
¿Qué es, entonces, lo que tengo en el caso de las oraciones en inglés, que no tengo en el
caso de las oraciones en chino? La respuesta obvia es que sé lo que las primeras
significan, pero no tengo idea alguna del significado de las segundas. ¿En qué consiste
esto, y por qué no podríamos dárselo a una máquina, sea lo que sea? ¿Por qué no podría
dársele a una máquina lo que sea que tengo que me hace comprender las oraciones en
inglés? Volveré a estas preguntas luego de desarrollar mi ejemplo un poco más.
Ante todos estos puntos quiero decir: “Por supuesto, por supuesto”. Pero no tienen nada
que ver con lo que está en discusión. Hay casos claros en los que “comprende” se aplica
y casos claros en los que no se aplica; y estos casos son todo lo que necesito para este
argumentoii. Yo comprendo historias en inglés; en un grado menor puedo comprender
historias en francés; en un grado aún menor, historias en alemán; y en chino, no
comprendo nada. Mi auto y mi calculadora, por el contrario, no comprenden nada; no
están en esta línea de trabajo.
De hecho, me siento un poco avergonzado del sólo hecho de dar esta respuesta a la
teoría del sistema, debido a que la teoría me parece tan inverosímil desde un principio.
La idea es que mientras una persona no entiende chino, de algún modo la conjunción de
esa persona y algunos pedazos de papel podrían entender chino. No me resulta fácil
imaginar cómo alguien fuera de la ideología podría encontrar la idea verosímil en lo
absoluto. Sin embargo, creo que mucha gente comprometida con la ideología de la IA
fuerte podría, al fin y al cabo, sentirse inclinada a decir algo muy parecido a esto; por lo
que analicémoslo un poco más. De acuerdo a una de las versiones de esta visión,
mientras el hombre en el ejemplo de los sistemas internalizados no entiende chino en el
sentido que lo comprende un hablante nativo de chino (porque no sabe, por ejemplo,
que la historia se refiere a restaurantes y hamburguesas y ese tipo de cosas), “el hombre
como sistema de manipulación formal de símbolos” sí comprende chino. El subsistema
del hombre constituido por el sistema formal de manipulación de símbolos chinos no
debiese ser confundido con el subsistema para inglés.
Así que realmente hay dos subsistemas en el hombre; uno que comprende inglés, y el
otro chino, y “es sólo que los dos sistemas tienen muy poco que ver el uno con el otro”.
Pero, quisiera responder, no sólo tienen poco que ver el uno con el otro, sino que no son
ni remotamente similares. El subsistema que comprende inglés (asumiendo que nos
permitimos hablar en esta jerga de “subsistemas” por un momento) sabe que las
historias son acerca de restaurantes y comer hamburguesas y cosas así. Pero el sistema
chino no sabe nada de esto; mientras el sistema inglés sabe que “hamburguesas” se
refiere a hamburguesas, el sistema chino sólo sabe que luego de “garabato#$” viene
“garabato@%”. Lo único que sabe es que varios símbolos formales se introducen en un
lado y se manipulan de acuerdo a reglas escritas en inglés, y que luego otros símbolos se
expresan en el otro lado.
El punto importante del ejemplo original era discutir que esa manipulación de símbolos
en sí misma no puede ser suficiente para comprender chino en ningún sentido literal,
porque el hombre podría escribir “garabato@%” luego de “garabato#$” sin entender
nada de chino. Y no debilita el argumento el postular subsistemas dentro del hombre, ya
que los subsistemas no mejoran en nada la condición original del hombre; todavía no
tienen nada ni remotamente parecido a lo que tiene el hablante (o subsistema) de inglés.
De hecho, de acuerdo a la descripción del caso, el subsistema chino es simplemente una
parte del subsistema inglés, una parte que se hace cargo de la manipulación de símbolos
sin sentido de acuerdo a las reglas del inglés.
Preguntémonos qué se supone que motivó la respuesta del sistema en primer lugar –esto
es, ¿qué bases independientes podrían asumirse para decir que el agente debe tener un
subsistema dentro de sí que literalmente comprende historias en chino? Hasta donde
puedo ver, la única base está en que en el ejemplo tengo el mismo input y output que un
hablante nativo de chino, y un programa que va de uno a otro. Pero el punto del ejemplo
está en demostrar que eso no podría ser suficiente para la comprensión, en el sentido en
que yo comprendo historias en inglés, porque una persona, o el conjunto de sistemas
que constituyen una persona, podría tener la combinación adecuada de input, output y
programa, y aún así no entender nada en el sentido literal relevante en el que yo
entiendo inglés.
La única motivación para decir que debe haber un subsistema dentro de mí que
comprende chino es que tengo un programa y puedo pasar el test de Turing: puedo
engañar a hablantes nativos de chino (ver Turing 1950). Pero precisamente uno de los
puntos en discusión es la adecuación del test de Turing. El ejemplo muestra que podrían
haber dos “sistemas”, y que ambos podrían pasar el test de Turing, pero que de los dos
hay uno sólo que comprende; y no constituye un argumento contra este punto decir que,
ya que ambos pueden pasar el test de Turing, ambos deben comprender, dado que este
supuesto no apunta al argumento de que el sistema en mí que entiende inglés tiene
mucho más que el sistema que sólo procesa chino. En buenas cuentas, la respuesta del
sistema da por sentado que el sistema debe comprender chino, al insistir en esto sin
argumento alguno.
Uno se queda con la impresión de que la gente en IA que escribe este tipo de cosas
piensa que puede salirse con la suya simplemente porque no las toman en serio, y creen
que nadie más lo hará. Propongo, por un momento al menos, tomarlas en serio.
Concentrémonos por un minuto en qué sería necesario para establecer que ese pedazo
de metal ahí en la pared tiene creencias reales, creencias con dirección de ajuste,
contenido proposicional, y condiciones de satisfacción; creencias que tienen la
posibilidad de ser fuertes o débiles; creencias nerviosas, ansiosas o seguras; creencias
dogmáticas, racionales o supersticiosas; fe ciegas o elucubraciones vacilantes; todo tipo
de creencias. El termostato no es un candidato. Tampoco el estómago, hígado,
calculadora o teléfono. Sin embargo, dado que estamos tomando la idea en serio,
consideremos que su veracidad sería fatal para la propuesta de la IA fuerte como ciencia
de la mente, ya que ahora la mente estaría en todas partes. Lo que queríamos saber era
qué distingue a la mente de termostatos, hígados y demases. Y si McCarthy estuviese en
lo cierto, la IA fuerte no tendría ninguna esperanza de decírnoslo.
Lo primero que hay que considerar acerca de la respuesta del robot es que concede
tácitamente que la cognición no es solamente manipulación formal de símbolos, dado
que esta respuesta agrega un conjunto de relaciones causales con el mundo exterior.
Ahora suponga que, sin que yo lo sepa, algunos de los símbolos chinos que se me
entregan vienen de una cámara de televisión asociada al robot, y otros símbolos chinos
que entrego sirven para que los motores dentro del robot muevan los brazos o las
piernas. Es importante enfatizar que todo lo que estoy haciendo es manipular símbolos
formales; no sé nada de estos otros hechos. Estoy recibiendo “información” de los
aparatos “perceptuales” del robot, y estoy entregando “instrucciones” a sus aparatos
motores, sin tener conocimiento de nada de esto. Soy el homúnculo del robot, pero a
diferencia del homúnculo tradicional, no tengo idea de lo que está pasando. No entiendo
nada salvo las reglas para la manipulación de símbolos. Ahora, en este caso, quiero
afirmar que el robot no tiene estados intencionales en lo absoluto; simplemente se
mueve como resultado de su cableado eléctrico y su programa. Y además, al
implementar el programa, yo tampoco tengo estados intencionales del tipo relevante.
Todo lo que hago es seguir instrucciones formales para manipular símbolos formales.
Antes de enfrentar esta respuesta, quisiera apartarme del tema un momento para
considerar que esta es una respuesta muy extraña para un partisano de la inteligencia
artificial (funcionalismo, entre otros). Yo creía que la idea central de la IA fuerte era
que no necesitamos saber cómo funciona el cerebro para saber cómo funciona la mente.
La hipótesis básica, o al menos eso creía yo, era que hay un nivel de operaciones
mentales que consiste en procesos computacionales sobre elementos formales que
constituye la esencia de lo mental, y que puede ser ejecutado en diferentes soportes
computacionales. Sobre los supuestos de la IA fuerte, la mente es al cerebro como el
programa es al hardware, y por tanto podemos entender la mente sin necesidad de hacer
neurofisiología. Si tuviéramos que saber cómo funciona el cerebro para hacer IA, no nos
preocuparíamos de la IA.
Sin embargo, aún acercarnos tanto a las operaciones del cerebro no es suficiente para
producir comprensión. Para sostener esto, imagine que en vez de tener a un hombre
monolingüe en una pieza manipulando símbolos tenemos a un hombre operando un
complejo sistema de cañerías de agua con válvulas que las conectan entre sí. Cuando el
hombre recibe los símbolos chinos mira en su programa, escrito en inglés, cuáles
válvulas debe abrir y cuáles debe cerrar. Cada conexión de las cañerías de agua
corresponde a una sinapsis en el cerebro chino, y el sistema en su conjunto está
organizado para que, luego de las necesarias activaciones –esto es, luego de abrir y
cerrar las válvulas necesarias- la respuesta en chino emerja como output al final de la
serie de cañerías.
Ahora, ¿dónde está la comprensión en este sistema? Recibe chino como input, simula la
estructura formal de las sinapsis del cerebro chino, y entrega chino como output. Pero
ciertamente el hombre no entiende chino, y tampoco las cañerías. Y si nos sentimos
tentados a adoptar la absurda teoría de que, de algún modo, la conjunción del hombre y
las cañerías sí comprende, recordemos que, en principio, el hombre puede internalizar la
estructura formal de las cañerías de agua y hacer todas las “activaciones” necesarias en
su imaginación. El problema del simulador de cerebros es que lo que simula sobre el
cerebro no es lo que habría que simular. Mientras simule sólo la estructura formal de la
secuencia de activaciones neuronales en las sinapsis, no habrá simulado lo relevante
acerca del cerebro: su habilidad para producir estados intencionales. Y el hecho que las
propiedades formales no son suficientes para las propiedades causales queda
demostrado en el ejemplo de las cañerías de agua. Podemos remover todas las
propiedades formales de las propiedades causales neurobiológicas relevantes.
Pero, realmente, no veo cómo esta propuesta pueda ser de alguna ayuda a los supuestos
de la IA fuerte, y aquí está el porqué. De acuerdo a la IA fuerte, implementar un
programa formal con los inputs y outputs correctos es condición suficiente, y de hecho
constitutiva, de intencionalidad. Según Newell (1980), la esencia de lo mental es la
operación de un sistema de símbolos físicos. Pero nuestra atribución de intencionalidad
al robot en este ejemplo no tiene nada que ver con programas formales. Simplemente se
basa en la suposición de que si el robot se ve y se comporta suficientemente como
nosotros, supondremos, hasta que se nos pruebe lo contrario, que debe tener estados
mentales como los nuestros, que causen y sean expresados por su comportamiento, y
que debe tener un mecanismo interno capaz de producir dichos estados mentales. Si
supiéramos, independientemente, cómo dar cuenta de su comportamiento sin necesidad
de esas suposiciones, no le atribuiríamos intencionalidad, especialmente si supiéramos
que tiene un programa formal. Y este es precisamente el punto de mi argumento anterior
para la respuesta del robot.
Para comprender este punto, contrastemos este caso con otros casos en los que
encontramos completamente natural adscribir intencionalidad a miembros de ciertas
especies de primates, tales como simios y monos, y a ciertos animales domésticos,
como los perros. Las razones por las que lo encontramos natural son, a grandes rasgos,
dos: no podemos encontrarle sentido al comportamiento de los animales sin adscribirles
intencionalidad, y podemos ver que las bestias están hechas de materia similar a la
nuestra –un ojo, una nariz, piel, etc. Dada la coherencia del comportamiento del animal
y la suposición de la misma materia causal detrás de éste, asumimos tanto que el animal
debe tener estados mentales tras su comportamiento, y que estos estados mentales deben
ser producidos por mecanismos hechos de la materia que se parece a nuestra materia.
Seguramente haríamos suposiciones similares acerca del robot a menos que tuviéramos
alguna razón para no hacerlo; pero apenas supiésemos que su comportamiento era el
resultado de un programa formal, y que las propiedades causales reales de la sustancia
física eran irrelevantes, abandonaríamos la suposición de intencionalidad.
Hay otras dos respuestas a mi ejemplo que aparecen frecuentemente (y que por lo tanto
son dignas de discutirse), pero que se alejan totalmente de la idea en cuestión.
La objeción merece sólo una breve respuesta. El problema en esta discusión no es cómo
sé que otras personas tienen estados cognitivos, sino qué es lo que les estoy atribuyendo
cuando les atribuyo estados cognitivos. El quid del argumento es que éstos no pueden
ser simplemente procesos computacionales y sus outputs, porque pueden haber procesos
computacionales y outputs sin estados cognitivos. No es una respuesta válida ante este
argumento el fingir anestesia. En “ciencias cognitivas” uno presupone la realidad y
cognoscibilidad de lo mental de la misma manera que en las ciencias físicas uno debe
presuponer la realidad y cognoscibilidad de los objetos físicos.
VOLVAMOS a las preguntas que prometí que trataría de responder. Habiendo sido
establecido en mi experimento original que entiendo el inglés y no entiendo el chino, y
habiéndose establecido de acuerdo a esto que la máquina no entiende ni inglés ni chino,
aún así debe haber algo en mí que causa que entienda inglés, y algo correspondiente que
falta, causando que no entienda chino. Ahora bien, ¿por qué no podríamos dotar a la
máquina de ese algo, sea lo que sea? No veo ninguna razón, en principio, de porqué no
podríamos dotar a una máquina de la capacidad de comprender inglés o chino, dado
que, en un sentido importante, nuestros cuerpos con nuestros cerebros son precisamente
esas máquinas. Pero si veo argumentos sólidos para decir que no podemos darle esa
capacidad a una máquina donde la operación de la máquina esté definida solamente en
términos de procesos computacionales sobre elementos definidos formalmente –esto es,
donde la operación de la máquina esté definida como la realización de un programa
computacional. No es porque soy la realización de un programa computacional que
comprendo inglés y tengo otras formas de intencionalidad. (Soy, supongo, la realización
de un número indeterminado de programas computacionales). Más bien, hasta donde
sabemos, es porque soy cierto tipo de organismo con cierta estructura biológica (esto es,
física y química), y esta estructura bajo ciertas condiciones es capaz causalmente de
producir percepción, acción, comprensión, aprendizaje, y otros fenómenos
intencionales. Y parte del presente argumento es que sólo algo que tenga esos poderes
causales podrá tener tal intencionalidad. Quizás otros procesos físicos y químicos
podrían producir exactamente los mismos efectos; quizás, por ejemplo, los marcianos
también tengan intencionalidad, pero sus cerebros estén hechos de algo completamente
distinto. Esa es una pregunta empírica, más parecida a la pregunta de si la fotosíntesis
puede ser producida por algo con una constitución química diferente a la de la clorofila.
Pero el punto central del presente argumento es que ningún modelo puramente formal
va a ser nunca, por sí mismo, suficiente para dar cuenta de la intencionalidad, porque las
propiedades formales no son en sí mismas constitutivas de intencionalidad, y no tienen
en sí mismas ningún poder, excepto el poder, cuando son realizadas, de producir el
siguiente estado del formalismo cuando la máquina está andando. Y cualquier otra
propiedad causal que posea una realización particular del modelo formal es irrelevante
para el modelo formal, debido a que podemos ubicar el mismo modelo formal en una
realización diferente, donde esas propiedades causales estén obviamente ausentes. Aún
si por algún milagro los hablantes de chino realizaran exactamente el programa de
Schank, podemos poner el mismo programa en hablantes de inglés, cañerías de agua, o
computadores, ninguno de los cuales entiende chino, a pesar del programa.
Lo que interesa de las operaciones del cerebro no es la sombra formal que brinda la
secuencia de sinapsis, sino las propiedades reales de esas secuencias. Todos los
argumentos de la versión fuerte de la IA que he visto insisten en trazar una línea
alrededor de las sombras que brinda la cognición, y luego afirmar que esas sombras son
la realidad.
• Sí, pero, ¿puede un artefacto, una máquina construida por el hombre, pensar?
Asumiendo que es posible producir artificialmente una máquina con sistema nervioso,
neuronas con axones y dendritas, y todo lo demás, suficientemente parecida a nosotros,
nuevamente la respuesta parece ser obviamente: Sí. Si se pueden duplicar exactamente
las causas, se pueden duplicar los efectos. Y de hecho podría ser posible producir
consciencia, intencionalidad, y todo lo demás, usando principios químicos diferentes de
los usados por los seres humanos. Es, como dije, una pregunta empírica.
Si por “computador digital” nos referimos a cualquier cosa que tiene un nivel de
descripción en el que puede ser correctamente descrito como la implementación de un
programa computacional, entonces, ya que nosotros somos implementaciones de un
número desconocido de programas computacionales y podemos pensar, nuevamente la
respuesta es, por supuesto: Sí.
Creo que ésta es la pregunta correcta, aunque se la confunde comúnmente con alguna de
las anteriores, y la respuesta a esta pregunta es: No.
El objetivo del ejemplo de la pieza china era tratar de demostrar esto, al mostrar que, en
cuanto ponemos algo que realmente tiene intencionalidad, un hombre, dentro del
sistema, y programamos al hombre con el programa formal, se hace evidente que el
programa formal no brinda intencionalidad adicional de ninguna clase. No agrega nada,
por ejemplo, a la habilidad de un hombre de comprender chino.
Precisamente el rasgo de IA que parecía más atractivo –la distinción entre el programa y
su realización- resulta ser fatal para la afirmación de que la simulación podría constituir
duplicación. La distinción entre el programa y su realización en el hardware parece ser
paralela a la distinción entre el nivel de operaciones mentales y el nivel de operaciones
cerebrales. Y si pudiésemos describir el nivel de las operaciones mentales como un
programa formal, parecería que podríamos describir lo esencial de la mente sin
necesidad de recurrir a la psicología introspectiva o a la neurofisiología del cerebro.
Pero la ecuación “Mente es a cerebro como programa es a hardware” se quiebra en
numerosos puntos, entre ellos los tres siguientes.
En tercer lugar, como mencioné anteriormente, los eventos y estados mentales son
productos de la operación del cerebro, pero el programa no es, en este sentido, producto
de la operación del computador.
• Entonces, si los programas no son, de forma alguna, constitutivos de los
procesos mentales, ¿por qué tanta gente cree lo contrario? Esto requiere al
menos alguna explicación.
Aún así, hay numerosas razones por las que la IA debe haber parecido, y quizás aún
parece a los ojos de numerosas personas, capaz de reproducir y por tanto explicar los
fenómenos mentales. Y creo que no tendremos éxito en remover estas ilusiones
mientras no hayamos expuesto completamente las razones que las originan.
Pero el problema con este argumento radica en que descansa sobre una ambigüedad en
la noción de “información”. En el sentido en que la gente “procesa información” cuando
reflexiona acerca de un problema aritmético o cuando lee y responde preguntas acerca
de historias, el computador programado no hace “procesamiento de información”. Lo
que hace es manipular símbolos formales. El hecho de que el programador y quien
interpreta el output del computador usan esos símbolos para referirse a objetos en el
mundo está totalmente fuera del alcance del computador. El computador, repito, tiene
sintaxis pero no semántica. Entonces si usted tipea en el computador “2 más 2 igual ?”,
el computador responderá “4”. Pero no tiene idea de que “4” significa 4, o de que
significa algo en lo absoluto. Y el punto no es que carezca de algún tipo de información
de segundo orden acerca de la interpretación de los símbolos de primer orden, sino que
sus símbolos de primer orden no tienen ningún tipo de interpretación en lo que
concierne al computador. Todo lo que el computador posee son más símbolos.
En tercer lugar, este operacionalismo residual se une a una forma residual de dualismo;
de hecho, la IA fuerte sólo tiene sentido dada la presunción dualista de que, en lo que
respecta a la mente, el cerebro no tiene importancia. En la IA fuerte (y en el
funcionalismo también) lo que importa son los programas, y los programas son
independientes de su realización en máquinas; de hecho, hasta donde concierne a la IA,
el mismo programa podría ser realizado en una máquina electrónica, una sustancia
mental Cartesiana, o un espíritu del mundo Hegeliano. El descubrimiento individual
más sorprendente que he hecho en la discusión de estos problemas es que muchos de los
investigadores de la IA se sienten consternados ante mi idea de que los fenómenos
mentales humanos reales podrían depender de las propiedades físico-químicas reales de
los cerebros humanos reales. Sin embargo, no debería haberme sorprendido; ya que, a
menos que se acepte alguna forma de dualismo, el proyecto de la IA fuerte no tiene
ninguna oportunidad.
Mi punto de vista es que sólo una máquina puede pensar, y de hecho una clase muy
especial de máquinas, llamadas cerebros, y las máquinas que tengan los mismos poderes
causales que los cerebros. Y ésa es la razón principal de por qué la IA fuerte tiene tan
poco que decirnos acerca del pensamiento: no tiene nada que decirnos acerca de las
máquinas. Por su propia definición se refiere a programas, y los programas no son
máquinas. Lo que sea que constituya además la intencionalidad, ha de ser un fenómeno
biológico, y es muy probable que sea tan causalmente dependiente de la bioquímica
específica de sus orígenes como la lactancia, la fotosíntesis, o cualquier fenómeno
biológico. Nadie supondría que podemos producir leche y azúcar al ejecutar una
simulación computacional de las secuencias formales de la lactancia y la fotosíntesisiv;
pero cuando se trata de la mente, mucha gente está dispuesta a creer en tal milagro,
debido a un profundo y determinante dualismo: la mente, suponen, depende de procesos
formales, y es independiente de las causas materiales específicas, a diferencia de la
leche y el azúcar.
Notas
i
No estoy diciendo, por supuesto, que el propio Schank esté comprometido con estos supuestos.
ii
Además, la “comprensión” implica tanto la posesión de estados mentales (intencionales) como la
veracidad (validez, éxito) de estos estados. Para los propósitos de esta discusión, nos interesa sólo la
posesión de los estados.
iii
La intencionalidad es, por definición, la característica de ciertos estados mentales por la que están
dirigidos a o son acerca de objetos y estados de las cosas en el mundo. Por lo tanto, creencias, deseos e
intenciones son estados intencionales; formas indirectas de ansiedad y depresión no lo son. (Para mayor
discusión, ver Searle 1979)