Cazau, Pablo - Azar, Causalidad, Incertidumbre y Caos (Borrador)

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 31

Azar, causalidad, incertidumbre y caos

El presente artículo expone cuatro categorías fundamentales mediante


las cuales la ciencia ha procurado una comprensión de ese enigma
llamado realidad.
Entendido como un supuesto atributo del devenir de lo real, el azar fue
concebido a veces como inexistente y otras como omnipresente. Entre
ambas posturas extremas se instala un amplio espectro de posiciones
intermedias que han servido de base para elaborar sistemas teóricos en
campos diversos del saber como la física, la biología, la psicología, la
economía o la teoría de la investigación científica.
La ciencia clásica propuso la relación determinista de causalidad para la
comprensión de la realidad. Sin embargo, esta causalidad ha sido
reexaminada en el siglo XX, cuando, en cierto nivel microscópico de la
realidad, debería hablarse de incertidumbre, y cuando en ciertos otros
niveles de fenómenos caóticos macroscópicos debería hablarse de caos.

Sumario

1. Azar
2. Causalidad
3. Incertidumbre
4. Caos 1
Bibliografía consultada

1. AZAR

1. Concepciones sobre el azar

En principio, el azar puede ser entendido de dos maneras:

1) Como una propiedad de la realidad misma.- El azar es una propiedad intrínseca de la


realidad según la cual los sucesos ocurren de cualquier manera y sin razón alguna, lo que
hace que sea imposible predecirlos o comprenderlos. Quienes sostienen esta postura,
darán como ejemplos la imposibilidad de predecir el fin del mundo y la imposibilidad de
comprender un delirio esquizofrénico.
Morgenstein (1972:32) parece sostener esta postura cuando dice que la economía es una
ciencia que estudia realidades muy complejas donde nada está totalmente determinado y
controlado. Taubes (1998:63) fue todavía más lejos al afirmar que los mercados financieros
se guiaban por el azar.
Por su lado, el biólogo y paleontólogo Stephen Gould calificó a la naturaleza como una
"jungla aleatoria y sin sentido de sucesos sin significado, sin norte, nada más que una
maldita cosa tras otra, un barullo de objetos naturales" (Gould, 1998). Su idea parece
vincular íntimamente la complejidad con el azar, sin quedar del todo claro, por lo demás, si
el azar engendra la complejidad o a la inversa.
Finalmente, a veces los científicos se ven obligados a aceptar el azar en casos muy
especiales. Por ejemplo, "podría ocurrir que durante un año la velocidad diaria del viento
en Chicago variara junto con la tasa de nacimientos de la India. Esta correlación en general
sería considerada como una mera coincidencia, y no como una prueba de la existencia de
una relación causal entre los dos fenómenos" (Copi, 1974:458).

2) Como una propiedad aparente de la realidad.- Existen, sin embargo, incontables


ejemplos de situaciones predecibles o comprensibles, como los movimientos de los astros,

1
que inducen al científico a generalizar la idea de que en la realidad el azar no existe. Otros
eventos son impredecibles, como los terremotos, pero el azar en tales casos es sólo
aparente, manifestándose en algunos sucesos complejos de la realidad que dan la
impresión de ocurrir de cualquier manera y sin razón alguna pero que en rigor no son
azarosos, radicando la imposibilidad de predecirlos o comprenderlos en una limitación de
la mente humana para conocer una enorme cantidad de variables. Lo que haría
impredecibles o incomprensibles algunos procesos es su complejidad y no el azar, y si
conociéramos adecuadamente la estructura y la dinámica del interior de la tierra, los
terremotos se volverían predecibles.
Los fenómenos de algunas ciencias “no se dan siempre iguales entre sí exactamente, sino
que presentan variaciones. Estas pequeñas diferencias son debidas a una serie de causas
tan numerosas y complejas que no podemos determinarlas por separado y que las
incluimos dentro del nombre común de azar" (Kohan, 1994:23).
Normalmente pensamos que cuando entre dos variables hay correlación, es porque no
varían al azar. Sin embargo, entre dos variables puede haber ausencia de correlación y al
mismo tiempo sostenerse que no hay azar. Por ejemplo, cuando la ausencia de correlación
es aparente al estar perturbada por variables fuera de control o aún desconocidas (Blalock,
1982:26).
Dada la índole de su actividad, la tarea del científico es construir un universo inteligible
que puede predecirse y/o comprenderse. Así, los delirios esquizofrénicos o cualquier otra
manifestación errática del comportamiento que alguna vez Jaspers llamó 'no
comprensible' han de tener un orden subyacente. Freud, por ejemplo, intentó tenazmente
encontrar ese orden subyacente en los delirios de Schreber proponiendo la hipótesis de la
defensa contra la homosexualidad.
Algunas veces científicos se han referido al azar, presumiblemente entendiéndolo como
una multitud de causas desconocidas, pero sin mostrar ninguna preocupación por
averiguarlas como cuando Piaget dijo que el bebé por azar puede tocar algún objeto y tiene
entonces la oportunidad de ejercitar sus esquemas de acción, como cuando Skinner dijo
que por azar un animal encerrado en una caja tocaba una palanca que lo llevará al
alimento, o como cuando Darwin adjudicó al azar las mutaciones genéticas. Obviamente
esto no significa que Piaget, Skinner o Darwin hayan considerado que todo ocurre por azar
y que no hay causas ni efectos: de otro modo no podrían construir ninguna teoría
científica.
En otros casos los científicos han mencionado el azar como vía para hacer descubrimientos
porque muchos hallazgos científicos se han producido por azar. Así, el azar quiso que
Schliemann encontrara siete ciudades antiguas superpuestas en una excavación, que en
1709 un campesino encontrara una ciudad enterrada cuando sólo buscaba agua, y que en
1974 un grupo de campesinos chinos encontraran reliquias de terracota, también buscando
agua. Pasteur, Roengten, Mendel y muchos otros científicos han adjudicado también el
azar algunos de sus descubrimientos.
La postura según la cual el azar es una propiedad aparente de la realidad puede incluso
llevarse al extremo. Así, es posible sostener radicalmente que el azar no existe, a punto tal
de inventar un orden allí donde no lo hay. Por ejemplo, la secuencia de eventos 1-2-4-8
puede ser aleatoria o no aleatoria. Si se considera que la secuencia de eventos es aleatoria
(por ejemplo por haber sido extraída de un bolillero) alguien puede decir que se “inventó”
una regla o ley que la rige (en este caso, la regla según la cual “cada número es la mitad del
siguiente”). Ese alguien sostendrá también que si no puede descubrirse una regla, ello no
significa que no exista: simplemente aún no se la encontró. En el mismo ejemplo, si se
considera que la secuencia de eventos no es aleatoria (por ejemplo por haberse encontrado
en la naturaleza) se dice que se “descubrió” una regla o ley que la rige.

2. El azar como artificio creado por el hombre

2
El azar, incluso considerándolo como el resultado de la acción conjunta de una multitud de
variables desconocidas, es un fenómeno que puede ser creado artificialmente con fines
diversos. Veamos algunos ejemplos.
1) El azar puede ser utilizado como árbitro cuando una de varias personas debe ser elegida
para algo. Así, quien saca el palito más largo deberá pagar la pizza, o el que saca el palito
más corto comerá gratis.
2) El azar puede ser utilizado como una táctica militar. Una historia de ciencia-ficción de
Raymond Jones, "Esta isla, la tierra", relata la historia del enfrentamiento de dos razas
galácticas que luchan a muerte. Ambas están tecnológicamente muy avanzadas, y pueden
por igual predecir con una exactitud de 17 decimales qué hará la otra... y ambas lo saben.
Es así que, finalmente, uno de los bandos decide empezar a comportarse al azar, lo que, al
generar desconcierto en el otro bando, empieza perder batalla tras batalla.
3) El azar puede ser utilizado para ocultar información. A veces ocurre que, frente a un test
que no puede evitarse, el sujeto responde al azar para evitar que lo conozcan. Sin embargo,
muchos tests incluyen una forma de probar si el sujeto respondió o no al azar. Por ejemplo,
la evaluación del Test de Matrices Progresivas de Raven incluye un cálculo de las
discrepancias, una técnica que permite controlar las posibles respuestas al azar que podría
dar un sujeto -sobre todo si la administración es colectiva- cuando elige las diversas
alternativas que cada prueba propone. Con este tipo de cálculo se puede verificar la
consistencia de las respuestas al comprobar si la composición del puntaje se ajusta a la
esperada. Por ejemplo, para la serie C es esperable un puntaje de 10 (puntaje esperado). Si
el puntaje obtenido difiere en más de dos unidades, entonces el sujeto contestó al azar, por
lo que se sugiere hacer un re-test en forma individual a los efectos de controlar mejor el
modo en que el sujeto responde.
4) El azar puede se utilizado para obtener información. La típica consigna del tratamiento
psicoanalítico del 'dígame todo lo que se le ocurra' equivale a pedirle al paciente que elija
un tema al azar. Desde Jung y Freud sabemos que la asociación libre es una importante
puerta de ingreso a la intimidad anímica: detrás de la respuesta 'al azar' se esconde, sin
embargo, una determinación inconciente, es decir, la elección del tema no fue en realidad
tan aleatoria, aunque al paciente así le haya parecido.
5) El azar puede ser utilizado en mayor o menor medida como un componente de muchos
juegos. Por ejemplo, en la ruleta o la lotería garantiza que todos los jugadores tengan las
mismas probabilidades de ganar, además de generar la ilusión que “tal vez hoy la suerte
me favorezca y no tenga que trabajar duro para ganar mucho dinero”. En otros juegos el
azar tiene menos incidencia como en el póquer: la distribución aleatoria de naipes es el
componente de azar, siendo lo único que está bajo el control relativo del jugador la forma
de administrar su propio juego.
6) El azar puede ser empleado para hacer bromas. Cuando se descubrió el llamado códice
Voynich del siglo XV, la NASA e infinidad de lingüistas lo consideraron como un texto de
240 hojas totalmente indescifrable. Cabe entonces preguntarse: ¿no habrá sido obra de
algún bromista medieval que utilizó algún procedimiento para generar elementos al azar?
7) El azar puede ser utilizado como técnica de muestreo. Hay bastante acuerdo en
considerar que la mejor manera de obtener una muestra representativa de una población
consiste en seleccionar a los sujetos al azar. Esta técnica, llamada muestreo probabilístico,
asegura que cualquier sujeto de la población tendrá la misma probabilidad de integrar la
muestra.
Si queremos obtener una muestra representativa de todos los argentinos respecto del sexo
y la religión, procederemos mal si la tomamos en un convento de monjas, ya que una
muestra compuesta por un 100% de mujeres religiosas no representa a toda la población,
donde se presume que el porcentaje de mujeres no es ese. La selección es, en cambio, al

3
azar, si elegimos 30 números de documento de identidad mediante un programa de
software generador de eventos al azar.
8) El azar puede ser utilizado como técnica de nivelación de grupos. Una vez seleccionada
aleatoriamente la muestra, podría surgir un segundo problema: formar un grupo
experimental y otro grupo de control. Es esencial que ambos grupos sean equivalentes, es
decir, lo más parecido posible entre sí para que, de aplicar la variable experimental al
primero y no al segundo, pueda verse con claridad la diferencia final entre ambos grupos y
así poder concluir, con una seguridad aceptable, si la variable experimental ha influido o
no. Fischer (1937) propuso nivelar los grupos mediante la aleatorización, es decir,
mediante la selección de los sujetos al azar. Su propuesta tuvo éxito inmediato y hoy en día
es considerada la mejor técnica de nivelación en diseños experimentales.

3. Psicología del azar

Los filósofos, los científicos y todo el resto de las personas por más poca instrucción que
tengan, suelen tener una posición definida respecto de la realidad. Para algunos los
eventos reales tienen una causa o una razón de ser, para otros obedecen al azar, es decir,
ocurren por casualidad, y para otros hay una mezcla de las dos cosas. La creencia en el azar
o en el determinismo es muy fuerte y estable: pocos se atreven a cuestionar sus propias
ideas sobre estas cuestiones.
¿Qué ocurre cuando una persona se encuentra con eventos que parecen contradecir su
creencia? Sería el caso del determinista que se topa con realidades “caóticas”, y el caso del
defensor del azar que se topa con relaciones de causa-efecto “muy evidentes”. En tales
casos la reacción es casi siempre la misma: intentarán defender su punto de vista diciendo
que las “realidades caóticas” o las causas “muy evidentes” son meros espejismos. Tales
situaciones nos llevan a pensar que tanto el determinismo como el azar no son propiedades
intrínsecas de la realidad sino construcciones mentales mediante las cuales
intentamos fabricar una visión de la realidad acorde con nuestros deseos y temores.
En la vida cotidiana algunas personas creen en el azar y otras creen en la necesidad, que es
la contrafigura del azar. Cairos, el dios griego de la ocasión, se complace en ofrecernos y
quitarnos oportunidades a cada rato: “si me demoraba un minuto más en el semáforo no
hubiese conocido al amor de mi vida”. Algunos adjudican esta circunstancia al azar (“de
casualidad no me demoré en el semáforo”) y otros a la necesidad (“era algo que fatalmente
debía ocurrirme”), con lo cual el azar o la necesidad dependen de cómo se interprete el
mismo fenómeno. De la misma forma, cuando una mujer se casa tres veces y las tres veces
se encuentra con un marido golpeador, tal vez atribuya la circunstancia al azar, pero otras
creerán que están predestinadas. Freud atribuye esta última creencia a una neurosis de
destino, donde la mujer busca una y otra vez satisfacer una necesidad de castigo, necesidad
que funciona, en términos físicos, como un atractor.
Todas las personas suelen tener ideas muy curiosas
acerca del azar, tanto cuando deben generar
secuencias aleatorias como cuando deben
interpretarlas.
1) Generación de secuencias al azar.- Si pedimos a
alguien que escriba cuatro números al azar, es mucho
más probable que anote 3-9-2-4 que 7-7-7-7. Sin
embargo, esta última serie es también aleatoria
porque tiene la misma probabilidad de salir que la
primera, pero algunas personas no la consideran
porque la adjudican a la necesidad o a la fatalidad, no
al azar.

4
Utilizando el mismo razonamiento, muchas personas jugarán al 4 en la quiniela porque
“hace mucho que no sale” cuando, en realidad, el azar no tiene memoria: un evento
aleatorio no depende del anterior evento aleatorio.
El hombre ha pensado que la generación de secuencias al azar debe confiarse a una
computadora porque no tiene prejuicios sobre el azar. Es cierto, pero incluso tarde o
temprano tal vez comiencen a aparecer regularidades no debidas al azar producidas por
algún desgaste en los circuitos electrónicos.
Sin embargo las personas, mucho más que las computadoras, tienden a generar eventos
regulares o repetitivos. No es infrecuente escuchar declaraciones como la siguiente: “Hoy
es día 9, tomé un taxi cuya patente terminaba en 9, me acordé de mi abuela que murió a los
99 años y de la primera cifra de mi domicilio que comienza con 9. Por lo tanto, hoy le
jugaré al 9 en la quiniela”. Obviamente ese día 9 la persona también podría haber reparado
en el número 3 con que comenzaba la patente, en su otra abuela que murió a los 75 años y
en la última cifra de su domicilio que era 6… pero no lo hizo. Al parecer, las personas
necesitan recibir ‘mensajes’ para acertar en la quiniela porque ello les garantizará el éxito,
idea que carece de fundamento racional.
2) Interpretación de secuencias al azar.- Así como a la gente le llama la atención lo que se
repite una y otra vez, también le llama la atención lo que tiene sentido. Si se arrojaran al
azar millones de letras sobre un libro en blanco, seguramente se formarán combinaciones
sin sentido como IYZQSFJVXMYL, que seguramente las personas adjudicarían al azar,
pero con la misma probabilidad también podrían aparecer expresiones con sentido como
RADIOTELECOMUNICADOS, MAÑANA MORIRAS u ODIO A MI SUEGRA. En estos
casos no faltaría quien viera en el primer caso un mensaje de los extraterrestres, en el
segundo una funesta premonición y en el tercero sus más íntimos pensamientos Y con más
razón todavía si estas expresiones figurasen por azar al comienzo del libro: las personas
creerían haber descubierto un increíble método para contactarse con extraterrestres, hacer
profecías o leer la mente.
¿Alcanzan estas formas de pensar también a los científicos? Podría ser que sí, si
consideramos la conjetura según la cual el universo es espacialmente infinito,
temporalmente eterno, y que es una especie de máquina que genera eventos al azar. Tarde
o temprano en algún lugar o en algún momento (por ejemplo en el universo conocido y
durante millones de años, lo cual es apenas una fracción infinitesimal de las dimensiones y
tiempos del universo), se produce por azar una combinación con sentido (por ejemplo la
creación de vida). Es entonces cuando el científico pasa a creer que el universo está regido
por leyes que otorgan sentido asumiendo la postura determinista.
En una escala mucho menor, la naturaleza ha arrojado también millones de partículas al
azar, que a veces han adoptado formas con ‘sentido’, que corren el riesgo de ser entendidas
como producto de la necesidad:

2. CAUSALIDAD

1. Determinismo

El azar se opone a la determinación, entendiendo por tal cierta propiedad de la realidad


según la cual nada en ella está librado al azar porque hay leyes que la rigen y, por
consiguiente, siempre es posible hacer predicciones o comprender hechos aparentemente
incomprensibles o azarosos.
Tal propiedad es defendida por el determinismo. En su versión clásica, desarrollada
durante la Edad Moderna, sostenía cierta concepción mecánica del mundo según la cual,
conociendo las condiciones iniciales de cualquier proceso y las leyes que los rigen,
resultaba posible predecir con total exactitud el estado final del mismo.

5
Sin embargo, hay procesos sobre los cuales no podemos hacer predicciones: ¿qué camino
seguirá una voluta de humo?, o ¿en qué se convertirá cuando adulto este niño que acaba de
nacer? ¿No interviene aquí acaso el azar? ¿O tal vez son tantas las variables que pueden
intervenir que es imposible en estos casos hacer predicciones?
No son estas objeciones graves para el determinismo estricto, quien habrá de considerar al
azar como una ficción que describe un conjunto de causas que 'por ahora' nos son
desconocidas y que, precisamente, por ello, engendran procesos que no pueden ser
explicados desde las leyes conocidas. De hecho, si alguna vez llegásemos a conocer 'todas'
estas leyes, ya nada quedaría sin explicación, es decir, ya nada ocurriría por 'azar'.
La negación determinista del azar generó la ilusión del control omnipotente de la
naturaleza: si el azar no existe todo está determinado, y si todo está determinado podemos
influir sobre las causas para provocar o dejar de provocar ciertos efectos o, al menos,
preverlos y estar preparados si estos no pueden evitarse.
Según Bunge (1965) una de las formas que asume la determinación es la causalidad.

El determinismo en el pensamiento de Freud.- La primera vez que Sigmund Freud utiliza


la idea de determinismo es en “Estudios sobre la histeria”, donde señala que “…el carácter
principal de la etiología de las neurosis es la sobredeterminación de su génesis; o sea, que
para dar nacimiento a una de estas afecciones es necesario que concurran varios factores,
y, por tanto, puede abrigar la esperanza de que tal coincidencia tarde mucho en producirse,
aunque algunos de los factores etiológicos hayan conservado toda su eficacia” (1895).
Sin embargo, será en el capítulo XII de “Psicopatología de la vida cotidiana”, cinco años
más tarde, cuando Freud encare más sistemáticamente este concepto enunciando el
siguiente principio, que aplicará en este momento a los actos fallidos: “Ciertas
insuficiencias de nuestros funcionamientos psíquicos y ciertos actos aparentemente
inintencionados se demuestran motivados y determinados por motivos desconocidos de la
conciencia cuando se los somete a la investigación psicoanalítica” (1900).
A continuación, Freud indica que para poder aplicar este principio a los funcionamientos
psíquicos fallidos, estos deben reunir tres condiciones:
“a) No exceder de cierta medida fijamente establecida por nuestra estimación y que
designamos con los términos «dentro de los límites de lo normal».
b) Poseer el carácter de perturbación momentánea y temporal. Debemos haber ejecutado
antes el mismo acto correctamente o sabernos capaces de ejecutarlo así en toda ocasión. Si
otras personas nos rectifican al presenciar nuestro acto fallido, debemos admitir la
rectificación y reconocer en seguida la incorrección de nuestro propio acto psíquico.
c) Si nos damos cuenta del funcionamiento fallido, no debemos percibir la menor huella de
una motivación del mismo, sino que debemos inclinarnos a explicarlo por «inatención» o
como «casualidades». Quedan, pues, incluidos en este grupo los casos de olvido, los
errores cometidos en la exposición de materias que nos son perfectamente conocidas, las
equivocaciones en la lectura y las orales y gráficas, los actos de término erróneo y los
llamados actos casuales, fenómenos todos de una gran analogía interior”.
En el mismo texto, Freud indica que “desde hace mucho tiempo sé que no es posible
pensar un número ni un nombre con absoluta y total libertad voluntaria. Si se examina una
cantidad cualquiera y de cualquier número de cifras, pronunciada con una aparente
arbitrariedad y sin relacionarla con nada, se demostrará su estricta determinación, cuya
existencia no se creía posible” (1900). Freud suministra dos ejemplos para ilustrar esta
tesis: un nombre propio «arbitrariamente escogido» y luego otro análogo de una cifra
«lanzada al azar». Sostiene que un nombre propio no se elige al azar sino que está
determinado por dinamismos psíquicos, como le ocurrió al mismo Freud cuando eligió el
nombre “Dora” para uno de sus historiales.
También sostiene que un número no se elige al azar y tiene el mismo determinismo,
cuando Freud eligió “al azar” el número 2.467 para mencionar un poco jocosamente la

6
cantidad de erratas que podían aparecer en la edición de “La interpretación de los sueños”.
Ambos ejemplos los ofrece Freud parece mostrar que “en lo psíquico no existe nada
arbitrario ni indeterminado”, y que esta determinación proviene del inconciente.
En otros ejemplos Freud muestra que no solamente están determinados los nombres o
números que se nos ocurren “al azar”, sino también los nombres o números que no
podemos recordar: esta imposibilidad de recordar está también determinada desde
motivaciones inconcientes.
Se refiere también a los llamados “números favoritos” que las personas eligen, indicando
que esta elección está condicionada y determinada. Entendemos que Freud utiliza todos
estos diversos tipos de ocurrencias que parecen azarosas y todas estas clases de actos
fallidos donde resulta más tentador, para una mente no crítica, adjudicarlos a
casualidades: el determinismo se opone radicalmente a la causalidad el azar. Sugiere
también que si las personas tienden a adjudicar al azar sus ocurrencias es porque no
pueden acceder a una explicación adecuada por referirse ésta última a procesos
inconcientes, vedados a la conciencia.
En la Tercera Conferencia de 1909, Freud extiende el determinismo no sólo a los actos
fallidos sino también a los síntomas y actos sintomáticos que parecen casuales o a lo sumo
producto de sucesos contingentes, distracciones, etcétera, insistiendo sobre la importancia
del “determinismo {Determinierung} de los procesos anímicos” (1909).
Así “las operaciones fallidas así como las acciones sintomáticas y casuales, no son tan
insignificantes como en una suerte de tácito acuerdo se está dispuesto a creer. Poseen
pleno sentido desde la situación en que acontecen; en la mayoría de los casos se las puede
interpretar con facilidad y certeza, y se advierte que también ellas expresan impulsos y
propósitos que deben ser relegados, escondidos a la conciencia propia, o que directamente
provienen de las mismas mociones de deseo y complejos reprimidos de que ya tenemos
noticia como los creadores de los síntomas y de las imágenes oníricas” (1909).
En la Conferencia 2 sobre actos fallidos (1915-1917) Freud explica que no basta hablar
simplemente de determinismo, sino concretamente de determinismo psíquico, ya que
admite ciertas creencias y prejuicios donde las personas recurren a un determinismo
religioso de origen divino, o a un determinismo de carácter simplemente fisiológico, como
cuando una equivocación queda explicada simplemente por un estado de fatiga, de
sobreexcitación o desatención. En la Conferencia 6 sobre condiciones y técnicas de la
interpretación, Freud es contundente al respecto: “semejante creencia es por completo
anticientífica y debe desaparecer ante la reivindicación de un determinismo psíquico”
(1915-1917).
Finalmente, en la Conferencia 25 dedicada al estudio de la angustia, rechaza las
explicaciones deterministas de la angustia que la relacionan con una condición anatómica
del sistema nervioso. Dice al respecto que la medicina académica “concentra todo su
interés en la investigación del determinismo anatómico de la angustia, y declarando que se
trata de una irritación de la médula oblongata, diagnostica una neurosis del nervus vagus.
El bulbo o médula alargada es, desde luego, algo muy serio. Por mi parte, he dedicado a su
estudio mucho tiempo de intensa labor. Pero hoy en día debo confesar que desde el punto
de vista de la comprensión psicológica de la angustia nada me es más indiferente que el
conocimiento del trayecto nervioso seguido por las excitaciones que de él emanan” (1915-
1917).
En conclusión, el determinismo resulta ser para Freud una postura según la cual los
fenómenos psíquicos, tanto normales como patológicos, son el resultado de procesos
inconcientes, y que además no obedecen a una única causa sino a la concurrencia de varios
factores (sobredeterminación).
Esta postura determinista se opone a la idea de que los fenómenos psíquicos ocurren al
azar, o simplemente están determinados por condiciones religiosas o anatómicas,
sugiriendo de esta manera que hay un determinismo específicamente psíquico y que es el

7
que fundamenta las explicaciones psicoanalíticas en términos de psicodinamismos
inconcientes.
Nada de lo que haga o deje de pensar, sentir o hacer cualquier persona, siempre es posible
hallar una determinación que va más allá de la conciencia.

2. Causalidad

Consideraremos causa a todo factor suficiente para que ocurra un fenómeno llamado
efecto. Debemos distinguir el factor suficiente del factor necesario. Un factor necesario es
aquel que si no está el efecto no se produce, y un factor suficiente es aquel que si está
presente el efecto ocurre.
Por ejemplo, un factor necesario para aprobar un examen (efecto) es haber estudiado; otro
factor necesario es estar tranquilo para recordar lo estudiado; otro factor necesario es una
mínima voluntad de profesor por aprobar al alumno. Si se dan todas estas condiciones
necesarias, entonces se aprueba el examen. En otras palabras, todas las condiciones
necesarias constituyen la condición suficiente.
Solemos entender causa como condición necesaria cuando queremos eliminar un
fenómeno indeseable, y la entendemos como condición suficiente cuando queremos
producir un fenómeno deseable.
En principio, las relaciones entre causas y efectos pueden examinarse desde dos puntos de
vista: cualitativo y cuantitativo.
Desde la perspectiva cualitativa, las relaciones causa-efecto pueden ser concebidas como
lineales (A causa B) o circulares (A causa B y B causa A). En este último caso se habla de
circuitos de retroalimentación.
Desde la perspectiva cuantitativa, las relaciones entre causa y efecto pueden ser
categorizadas de diferente manera. Si examinamos las posibles relaciones cuantitativas que
pueden existir entre causas y efectos, las alternativas podrían ser las siguientes:
1) Causas y efectos son razonablemente proporcionales: pequeñas causas producen
pequeños efectos, y grandes causas grandes efectos (como cuando decimos que, dentro de
cierto espectro de variabilidad, cuanto mayor es la frustración mayor será la respuesta
agresiva, siendo ambas variaciones razonablemente proporcionales);
2) Una causa grande produce un pequeño efecto (como cuando la muerte de un familiar
genera una respuesta indiferente).
3) Una causa pequeña produce un gran efecto (como cuando un comentario intrascendente
desata la furia del oyente);
Examinemos algunos ejemplos donde causas pequeñas producen grandes efectos.
El sentido común prescribe una cierta proporción entre la causa y el efecto: una fuerza
pequeña produce un movimiento pequeño, y una fuerza grande, un gran desplazamiento.
Sin embargo, ciertas experiencias cotidianas y determinados planteos científicos nos
obligan a considerar la posibilidad de algunas excepciones de aquellas impresiones
subjetivas que habitan nuestra mente, tan acostumbrada a transitar la siempre útil, pero
también la siempre peligrosa navaja de Occam, que todo lo simplifica. Examinemos
entonces algunos ejemplos de desproporción cuantitativa -aparente o no- entre causas y
efectos:
a) Efecto palanca.- "Dadme una palanca y moveré el mundo", había dicho el griego. Un
simple movimiento de palanca es una causa pequeña, pero puede producir grandes efectos.
Las palancas, así como las poleas o las prensas hidráulicas, son dispositivos capaces de
multiplicar varias veces un efecto, con el consiguiente ahorro de esfuerzo muscular.
b) Efecto gota de agua.- Una gota más que agreguemos en la tortura china de la gota de
agua que horada la piedra, volverá loco a quien la recibe.
c) Efecto interacción.- La acción conjunta de dos variables, lejos de producir un simple
efecto sumativo, pueden generar un efecto inesperadamente mayor. Pequeñas cantidades

8
de alcohol y de droga, combinadas entre sí, pueden producir un efecto desmesurado: el
coma o la muerte (Cazau, 1991:72).
d) Series complementarias.- Hemos ya citado un ejemplo donde un factor desencadenante
pequeño puede desatar clínicamente una sintomatología esquizofrénica o sumir a una
persona en una profunda crisis. La razón, según el psicoanálisis, debemos buscarla en el
peso relativo que tiene cada elemento de la constelación de los factores que constituye la
serie: si el factor constitucional y el factor disposicional (experiencias infantiles) son
altamente propicios para configurar un cuadro neurótico, basta un muy pequeño factor
desencadenante para que la sintomatología aparezca.
e) La conversión masa-energía.- Según lo prescribe el principio de equivalencia masa-
energía de Einstein, una pequeñísima porción de masa, bajo ciertas condiciones puede
liberar enormes cantidades de energía. Cuestiones parecidas ocurren a propósito de la
conversión de energía potencial en cinética: la caída de un meteorito de apenas dos metros
de diámetro producirá un efecto desproporcionadamente grande sobre el suelo.
f) Efecto escalada.- Los fenómenos de cismogénesis descriptos por Gregory Bateson, y las
escaladas simétricas o las "escapadas" mencionadas por Paul Watzlawick (Watzlawick P,
Beavin J y Jackson D, 1981:59-149-151-250), son todos fenómenos interpretables en
términos de mecanismos de retroalimentación positiva. Un ejemplo es la escalada bélica,
donde el país A se arma en previsión de un ataque del país B. El país B advierte esto y a su
vez aumenta su armamento, con lo que el país A vuelve a aumentar su arsenal y así
sucesivamente, creciendo cada vez más la situación hasta descontrolarse. Esto revela que
una pequeña causa (el país A que comenzó comprando tres tanques más) genera una
situación internacional que bordea la catástrofe.
g) Efecto mariposa.- Tal como fuera descrito originalmente en la meteorología, suele
expresarse en frases del siguiente tipo: "El aleteo de una mariposa que vuela en la China
puede producir un mes después un huracán en Texas". Otros ejemplos podrían ser el efecto
que produce en el mercado bursátil mundial el simple resfrío de un presidente. También
Einstein dijo lo suyo, aunque fue más romántico: "Hasta la más pequeña gota de rocío
caída del pétalo de una rosa al suelo, repercute en la estrella más lejana".
Von Bertalanffy, el mentor de la Teoría General de los Sistemas, describe la existencia de
mecanismos amplificadores donde pequeñas causas generan grandes efectos (von
Bertalanffy, 1976:73,223) distinguiendo una causalidad de "conservación", donde hay una
proporcionalidad razonable entre las intensidades de la causa y el efecto, y una causalidad
de "instigación", donde la causa actúa como instigadora o disparadora, es decir, un cambio
energéticamente insignificante provoca un cambio considerable en el sistema total.
Tales categorías de fenómenos –o al menos el efecto mariposa- tiene tres aspectos para
analizar: a) aluden a una situación donde pequeñas causas generan grandes efectos; b) se
refieren a una situación que no puede predecirse: sabemos que el efecto puede ser muy
grande, pero no podemos saber en que consistirá, ni muchas veces cuándo, dónde o cómo
ocurrirá; y c) aluden a una situación de descontrol: no sólo no podemos evitar que una
mariposa aletee en la China, sino, y lo que es peor, no podemos evitar que el aleteo
produzca un huracán en Texas.

3. Concepciones sobre la causalidad

Sobre la causalidad encontraremos concepciones filosóficas, concepciones cotidianas y


concepciones científicas.
En filosofía se han sostenido diversas concepciones sobre las relaciones causales. 1) Hay
un acausalismo radical que niega la causalidad, y por tanto todo ocurre por azar. 2) Otra
postura es la de Hume (1748), que acepta la causalidad pero le niega objetividad. El
empirista inglés hablaba de cierta arrogancia del científico que proclamaba la existencia
objetiva de los vínculos causales. Para Hume se trata de una afirmación imprudente: la

9
idea de causalidad es el producto de un hábito mental, una “necesidad del espíritu” y no
necesariamente una forma de funcionamiento de lo real. Por ejemplo, tendemos a pensar
que el relámpago es la 'causa' del trueno porque nos hemos 'habituado' a ver que después
del primero viene el segundo. 3) Otra posición sostiene que hay causas objetivas, pero que
es imposible conocerlas (al menos hasta que avancen más los conocimientos). De este
agnosticismo parece participar Eysenck cuando sostuvo que un tanto por ciento de
neuróticos tratados con psicoanálisis se curaba, que aproximadamente el mismo
porcentaje tratado con terapia conductista también lo hacía, y que el mismo porcentaje de
personas que no hizo ningún tratamiento...también se curaba, afirmación que sugiere que
la gente se cura pero no sabemos porqué. 4) Otra posición sostiene que hay causas
objetivas perfectamente identificables. Fue Aristóteles uno de los pioneros en desarrollar
sistemáticamente este enfoque cuando afirmó que los entes tenían cuatro causas: material,
formal, eficiente y final. Así por ejemplo una estatua tenía como causa material el mármol,
como causa formal la peculiar forma que adoptaba dicho material, como causa eficiente al
escultor, y como causa final el propósito para el cual había sido creada (por ejemplo para
inmortalizar a los dioses).
Por su lado el saber cotidiano tiene una tendencia a la monocausalidad, es decir a creer
que los fenómenos ocurren por una sola causa, o bien que pueden obedecer a varias causas
pero siempre actúa una sola causa por vez. No son infrecuentes afirmaciones del tipo
“comiendo solamente manzanas adelgazarás”, “me resfrié porque me desabrigué”, o “el
vidrio se rompió porque arrojaron una piedra”. Un breve examen crítico basta para darnos
cuenta que para resfriarse hace falta, entre otras cosas, también un virus, o que para que el
vidrio se rompa se requiere también, entre otras cosas, que el vidrio sea frágil.
El conocimiento científico ha incorporado la policausalidad, es decir, el supuesto que
los fenómenos obedecen a muchas causas que actúan conjuntamente, conocidas y
desconocidas. También ha establecido que para que un vínculo sea causal, deben cumplirse
tres requisitos: a) entre los dos fenómenos debe haber una correlación significativa; b) el
fenómeno considerado causa debe ocurrir antes que el fenómeno llamado efecto; y c) debe
existir una razonable certidumbre que sobre el efecto no actúa ninguna otra causa (lo que
puede conseguirse en un entorno altamente aislado y controlado) o por lo menos se conoce
la incidencia de otras causas y entonces se torna posible descontar esta incidencia.
En los experimentos se investigan una o algunas causas, pero no todas (mientras que al
resto se procura mantenerlas bajo control), a saber, las que le interesan especialmente al
investigador (por ejemplo el ruido como causa del estrés), y las que entran dentro de los
límites de su disciplina (a un psicólogo no le interesarán las reacciones bioquímicas que
ocasionan el estrés, pero sí a un biólogo).
Para la ciencia estaríamos equivocados si pensáramos que solamente la correlación ya
prueba el vínculo causal, o si pensáramos que solamente la antecedencia temporal lo
prueba, falacia esta última denominada "propter hoc, ergo post hoc".

En la ciencia existen por lo menos dos criterios para clasificar los vínculos causales.
1) Los vínculos causales pueden ser eficientes o finales, si utilizamos el lenguaje
aristotélico. De los cuatro sentidos aristotélicos de causa mencionados anteriormente, sólo
dos pasaron a la ciencia: la causa eficiente (o simplemente causa) y la causa final. Por
ejemplo, si indagáramos en las causas de un síntoma como el dolor de cabeza, la causa
eficiente podría ser la irritación del nervio trigémino, mientras que la causa final podría ser
tener un motivo para no ir a trabajar. La causa final es invocada por un enfoque llamado
teleológico, que propone centrar la atención en las finalidades. El enfoque teleológico es
frecuente en psicología y ciencias sociales, y en algunos ámbitos de la biología: la causa
eficiente de la agresividad es una reacción bioquímica, y la causa final es la supervivencia;
o también, la causa eficiente de un pulmón inactivo en el feto puede ser la diferenciación
de una hoja embrionaria, y la causa final la función de la respiración que se actualizará al

10
nacer. En otros ámbitos de la biología, sin embargo, se niega la existencia de una finalidad.
Según esta concepción, una mutación genética tiene sus causas (como la radiación), pero
por otro lado no persigue ninguna finalidad, no forma parte de un plan previo sobre cómo
ha de evolucionar el hombre.
2) Los vínculos causales pueden ser lineales o circulares. Las relaciones lineales son
unidireccionales, es decir, siguen una sola dirección: A causa B pero no a la inversa. Las
relaciones lineales pueden a su vez disponerse en serie (A causa B, B causa C, C causa D y
así sucesivamente) o en paralelo (A, B y C actúan como causas independientes sobre el
efecto D).
Un pionero de la causalidad unidireccional vuelve a ser Aristóteles, cuando habla de una
cadena de acontecimientos donde uno causa al siguiente y a su vez el causado por otro
anterior. Si esto es así, cabría pensar que esta cadena puede ser infinita, pero Aristóteles
dijo que esto no podía ocurrir, y que en algún punto debía detenerse, es decir, en algo que
tuviese ninguna causa. A este factor lo llamó el primer motor inmóvil.
Las relaciones circulares en cambio son bidireccionales: A causa B y B a su vez causa A. En
otras palabras, A y B son causa y efecto al mismo tiempo. Por ejemplo la alimentación
influye sobre la inteligencia pero ésta a su vez influye sobre la alimentación (suponiendo
que una persona inteligente selecciona lo que come). La causalidad circular es conocida
también como causalidad retroactiva, retroacción, retroalimentación o feed-back.
La causalidad bidireccional comenzó a ser estudiada más sistemáticamente en el siglo XX
gracias al desarrollo de la cibernética. El caso más simple de causalidad circular es aquel
donde intervienen sólo dos factores, ambos causas y efectos al mismo tiempo, pero
también admite complejizaciones donde todo depende de todo, o sea que todos los
fenómenos son al mismo tiempo causa y efecto de los demás. A veces se ha querido
expresar esta situación con términos tales como estructura o sistema, que supone la idea
de influencias mutuas.
Examinemos entonces con algún detalle las relaciones causales circulares. Para ello
debemos tener en cuenta que entre las variables se establece una correlación, y entre las
correlaciones se establece un circuito o bucle de realimentación.
A su vez, los circuitos de realimentación pueden ser de dos tipos:
1) Circuitos que neutralizan la desviación, que se llaman circuitos de realimentación
negativa, o neutralizadores de la desviación, también llamados morfoestáticos.
2) Circuitos que amplifican la desviación, que se llaman circuitos de realimentación
positiva, o amplificadores de la desviación, también llamados morfogenéticos.
Por ejemplo, si consideramos la situación más simple de dos factores causales pueden
formarse cualquiera de los dos circuitos mencionados:

11
Circuito de realimentación negativa Circuito de realimentación positiva

AZÚCAR ESTRÉS

_ + + +

INSULINA CAFÉ

+ Correlación positiva: Ambos aumentan o ambos disminuyen.


- Correlación negativa: Uno aumenta y el otro disminuye, o viceversa.

En el primer caso tenemos dos variables o factores causales: azúcar e insulina. Si


aumenta el azúcar aumenta la insulina porque hay entre ellos correlación positiva. Si
aumenta la insulina disminuye el azúcar porque hay entre ellos correlación negativa. Si
disminuye al azúcar disminuirá la insulina (correlación positiva), y si disminuye la insulina
aumentará el azúcar (correlación negativa), con lo cual se vuelve al estado inicial. Todo el
proceso es un circuito de realimentación negativa, puesto que, por definición, es un
circuito que hace retornar el sistema al estado inicial, es decir, compensa o neutraliza las
desviaciones.
Claro está que este circuito de realimentación puede alterarse: en la diabetes hay un déficit
de insulina, de manera que la insulina no puede aumentar para bajar el azúcar. Resultado:
hay cada vez más azúcar en sangre, y como la sangre no puede aumentar indefinidamente
llega un momento en que el sistema colapsa produciéndose un shock hiperglucémico
seguido de coma y muerte.
En el segundo caso tenemos también dos variables o factores causales: estrés y café. Si
aumenta el estrés aumenta el consumo de café (correlación positiva). Si aumenta el café
aumenta el estrés por ser una bebida excitante (nuevamente correlación positiva). Si
aumenta el estrés esto hace aumentar aún más el consumo de café, y así sucesivamente,
con lo cual no se vuelve al estado inicial sino que van incrementándose cada vez más los
valores de las variables. Todo el proceso es un circuito de realimentación positiva que, por
definición, amplifica o aumenta las desviaciones.
Como el sistema no puede amplificarse indefinidamente (por ejemplo no se pueden tomar
100 cafés diarios, ni el estrés aumentar indefinidamente), llega un momento en que el
sistema colapsa.
Ambos casos son situaciones artificiales, porque en la realidad las dos variables están
conectadas con otras muchas variables.
En una primera situación multivariable, podemos representar un circuito de
realimentación negativa con cuatro variables: el aumento de la cantidad de habitantes de
una ciudad (variable 1) produce aumento del hacinamiento (variable 2), lo que a su vez
aumenta la cantidad de enfermedades infecciosas (variable 3). Este aumento de la
morbilidad hace aumentar la cantidad de muertes (variable 4) lo que finalmente hace
disminuir la cantidad de habitantes (variable 1 que retorna a su estado inicial).
En una segunda situación multivariable, podemos representar algunos circuitos de
realimentación negativa combinados con otros circuitos de realimentación positiva. En

12
estos casos el efecto final global puede consistir en neutralizar todas las desviaciones
(realimentación negativa) o en amplificarlas (realimentación positiva). Maruyama (1963)
da un ejemplo donde se consideran simultáneamente siete variables demográficas, y que
representamos en el esquema que sigue con las letras P-M- C-S-D-B-G, y donde puede
apreciarse que se combinan entre sí circuitos neutralizadores (por ejemplo P-M-S-D-P) y
amplificadores (por ejemplo P-M-C-P).

Procesos combinados de realimentación neutralizadora y amplificadora con siete


variables

P
+ Número de personas en +
una ciudad

M
G Modernización de la
Cantidad de basura por + ciudad
día

+ +
-
C
+ Migración hacia la ciudad

B S
Bacterias por área - Facilidades sanitarias

-
D
+ Número de enfermedades

Los circuitos precedentes son medibles en las escalas de medición ordinales y cuantitativas
por cuanto describen las interacciones en términos de más y menos, pero también existen
circuitos medibles en escalas nominales, como por ejemplo el siguiente: “Cuando se
levanta la barrera el semáforo se pone en rojo. Cuando el semáforo se pone en verde el
colectivo se detiene para subir pasajeros. Cuando subieron todos los pasajeros se baja la
barrera. Cuando se levanta la barrera el semáforo se pone en rojo y así sucesivamente”.

Las concepciones causalistas se extienden hasta nuestro mismo siglo XXI, aunque en el
siglo XX la cibernética ha profundizado el estudio de la causalidad bidireccional, el
indeterminismo de Heisenberg comenzó a poner en tela de juicio aquel causalismo clásico,
y la teoría del caos les dio una nueva vuelta de tuerca a todas estas cuestiones.

13
3. INCERTIDUMBRE

1. Un poco de historia

La idea de incertidumbre surge en el siglo XX en el territorio de la física cuántica, que es la


física que investiga lo infinitamente pequeño. Podemos comenzar trazando un panorama
muy esquemático de la historia de la física desde Newton hasta nuestros días, para poder
ubicar luego, en este contexto, el Principio de Incertidumbre. Para ello, nos ayudaremos
con el esquema siguiente.

Contexto histórico del principio de incertidumbre

MECÁNICA NEWTONIANA – Siglo XVII


Newton
La naturaleza es en sí misma determinada. Si a veces aparece indeterminada es por nuestra
incapacidad para descubrir determinaciones complejas.

TEORÍA DE LA MECÁNICA CUÁNTICA - Siglo XX


RELATIVIDAD Planck, Einstein, Bohr, Schroedinger, De Broglie, Dirac, Heisenberg
Siglo XX
Einstein

PRINCIPIO DE INCERTIDUMBRE
1925
Heisenberg

INTERPRETACION SUBJETIVISTA INTERPRETACION PROBABILISTA


Planck – Einstein – Schroedinger – De Broglie Bohr – Heisenberg
La naturaleza es en sí misma determinada, a pesar de La naturaleza es en sí misma indeterminada, y
las apariencias. Por tanto, es posible hacer por tanto sólo pueden hacerse mediciones y
mediciones y predicciones muy precisas. predicciones probabilísticas.

Bohr N 1885-1962 Dirac P 1902-1984 Heisenberg W 1901- Planck M, 1858-1947


De Broglie L 1892- Einstein A, 1879-1955 1976 Schroedinger E 1887-1961
1986 Newton I, 1642-1727

Un planeta se compone por ejemplo de piedras. Las piedras a su vez pueden


descomponerse en guijarros, y estos a su vez en partículas tan pequeñas que apenas si
pueden ser vistas. Estas partículas a su vez pueden seguir subdividiéndose hasta llegar a
ciertos elementos últimos llamados átomos. Se creyó que los átomos no podían seguir
subdividiéndose más, hasta que a partir del siglo XIX se descubrieron partículas dentro de
los átomos, es decir, partículas ‘subatómicas’ tales como el electrón y el protón. El hombre
ingresó así en el ámbito de la microfísica, o estudio de esas partículas subatómicas.
Estos descubrimientos fueron muy importantes porque, terminando ya el siglo XIX,
algunos físicos comprendieron que lo microfísico ya no podía estudiarse con las leyes
deterministas que venían rigiendo para lo macrofísico, y debía aceptarse, contra la
tradición establecida, que había ciertas realidades (lo sub-atómico) donde regía la
indeterminación y la probabilidad. ¡La naturaleza misma era indeterminada!
14
La mecánica newtoniana, representante del determinismo clásico, tuvo plena vigencia
desde el siglo XVII hasta el siglo XIX, y aún hoy se la sigue empleando por razones más
que nada prácticas. Es la mecánica que buscaba explicar el universo macrofísico, es decir el
universo observable de los planetas que giran alrededor del sol, de las piedras que son
arrojadas al aire y de las manzanas que caen sobre la cabeza de Newton.
Sin embargo, en el siglo XIX empezaron a descubrirse las primeras partículas sub-
atómicas ya mencionadas: la investigación física abría el campo de lo infinitamente
pequeño. Del estudio de los planetas que giraban en torno al sol se pasó al estudio de los
electrones que giraban en torno al núcleo del átomo. Del polígono de tiro donde las balas
seguían una cierta trayectoria se pasó a los tubos de rayos catódicos y a los laboratorios de
aceleración de partículas, donde quienes eran arrojados a enormes velocidades ya no eran
las balas sino las partículas sub-atómicas.
Nació así una nueva herramienta teórica para dar cuenta de estas nuevas e insospechadas
realidades: la mecánica cuántica surgía como la nueva vedette del siglo XX que convivió
pacíficamente, si cabe la expresión, con la mecánica newtoniana hasta la irrupción del
principio de incertidumbre que explícitamente comenzaba a plantear la indeterminación.
La mecánica cuántica es entonces una teoría desarrollada especialmente para el estudio y
la descripción del micromundo. Sus pioneros fueron Planck y Einstein, y hacia 1930
quedaba casi completada con los aportes de Heisenberg, Shroedinger y Bohr, entre otros.
Resultó tan eficaz como lo había sido la mecánica newtoniana en el ámbito del
macromundo, pero presentaba algunos aspectos molestos que disgustaron entre otros al
mismo Einstein, que paradójicamente había contribuido a fundarla. Y en ello mucho tuvo
que ver la enunciación del principio de incertidumbre.

2. El principio de incertidumbre

Werner Heinseberg desarrolló un sistema de mecánica cuántica llamado mecánica de


matrices y formuló también, hacia 1925, su conocido y polémico principio de
incertidumbre.
Este principio, también llamado principio de indeterminación o principio de las relaciones
de incertidumbre, sostiene básicamente que no se puede determinar simultáneamente y
con la misma precisión la velocidad y la posición de una partícula subatómica. O sea,
cuanto más exactamente se determina su velocidad, tanto menos exactamente puede
determinarse su posición, o sea en qué parte del universo se encuentra. Conociendo su
velocidad con mucha precisión, sólo se puede establecer una cierta probabilidad de que un
electrón esté en tal o cual lugar.
Vemos entonces que el PI (Principio de Incertidumbre) hace referencia a incertidumbres,
entendidas estas como probabilidades, pero este pasaje de un determinismo a un
indeterminismo no significa renunciar a la razón, sino simplemente reemplazar leyes
causalistas estrictas por leyes estadísticas.
El principio también alude, además de a la relación velocidad-posición, a las relaciones
energía-tiempo, momento angular-posición angular y momento de la inercia-velocidad
angular, pero tomaremos como referencia la más conocida de estas propuestas: velocidad-
posición.
De la Torre (1992:42-43) nos da un ejemplo muy ilustrativo del principio de Heisenberg,
donde se reemplaza un electrón por una bicicleta.
Supongamos que queremos determinar con exactitud la posición y la velocidad de una
bicicleta en un instante de tiempo. Para determinar su posición le tomamos una fotografía
con un tiempo de exposición muy breve (como una milésima de segundo), con lo cual
obtenemos una foto muy nítida que nos indica su posición (por ejemplo, se encuentra a 5
metros del punto de partida). Sin embargo, esa foto nada nos dice acerca de su velocidad.

15
Para determinar su velocidad le tomamos otra fotografía con un tiempo de exposición más
largo (un segundo). Obtendremos una foto más borrosa, con la posición mal definida, pero
al menos nos permite determinar su velocidad dividiendo el corrimiento de la imagen por
el tiempo de exposición.
Nuestra primera conclusión es esta: si contáramos solamente con un aparato fotográfico
no podríamos medir simultáneamente y con la misma precisión la velocidad y la posición
de la bicicleta, ya que con la primera foto sabríamos muy bien su posición pero no su
velocidad, y con la segunda sabríamos muy bien su velocidad pero no su posición.
Podríamos solucionar este problema usando dos aparatos fotográficos: uno que mida bien
la posición y otro bien la velocidad en el mismo instante de tiempo, con lo cual habríamos
logrado nuestro objetivo.
Ahora bien: esto puede hacerse perfectamente tratándose de una bicicleta, pero no
podemos hacer lo mismo con un electrón. En el ámbito de lo microfísico o subatómico, la
foto que tomamos al electrón para determinar su posición ‘modifica’ su velocidad, y la foto
que tomamos para medir su velocidad ‘modifica’ su posición. El mismo hecho de
fotografiarlo influye en los resultados, ya que los fotones utilizados para la fotografía
interactúan con el mismo electrón. Conclusión: resulta imposible medir simultáneamente
la posición y la velocidad del electrón, tal como lo afirma el principio de incertidumbre.

3. Dos interpretaciones del principio de incertidumbre

Las diversas interpretaciones sobre este principio pueden agruparse en dos grandes tipos:
la interpretación probabilista y la interpretación subjetivista, aunque algunos de los
autores que mencionaremos estuvieron oscilando entre una y otra posición a lo largo de su
pensamiento, como por ejemplo De Broglie.

a) Interpretación probabilista del principio de incertidumbre.- Tal la denominación de De


Broglie, aunque también fue llamada interpretación real por Ferrater Mora (1979:1646) o
interpretación de Copenhague, estando representada sobre todo por Niels Bohr.
Según esta interpretación, la indeterminación o incertidumbre no puede atribuirse a la
interferencia del observador en la realidad física (que de igual modo también existe): lo
real está constitutivamente indeterminado. La imposibilidad de medir simultáneamente
dos coordenadas se concibe como una consecuencia de las leyes fundamentales estadísticas
de la mecánica cuántica, y no como una simple limitación técnica de la observación.
En la interpretación probabilista, entonces, este principio es una prueba del
indeterminismo del universo físico. Y no sólo en lo microfísico sino también en lo
macrofísico, sólo que aquí se considera por razones prácticas un determinismo en razón
del gran número de partículas que intervienen (del mismo modo que se considera por
razones prácticas una geometría euclidiana en la tierra aún cuando no considere que el
universo sea no euclidiano).
Para Bohr y los físicos de Copenhague, entonces, las incertidumbres y probabilidades de la
mecánica cuántica no son una limitación de la física o una señal de la incompletud de la
teoría: para ellos la naturaleza es así: un electrón es una superposición de probabilidades
de estar aquí o allá, tal como lo describe la mecánica cuántica. Pensar que un electrón está
en un determinado lugar no tiene sentido, a menos que lo observemos. Si lo observamos, el
sistema queda como cristalizado en una posición fija y en ese momento podemos precisar
su posición. Los teóricos de Copenhague sostienen que el observador y lo observado
interactúan entre sí: de alguna manera el electrón se ‘sabe’ observado y por ello su función
de onda colapsa (o sea, queda fijado en una única posición en ese instante). Estos planteos
han destacado la inevitable influencia del observador sobre lo observado. En como tener
un amigo que habla apenas lo miran, de manera que nunca lo hemos podido observar
callado.

16
Louis De Broglie (Blanché, 1972:459-460) cuenta que “la interpretación de Bohr y de
Heisenberg no sólo reduce toda la física a la probabilidad, sino que da a esta noción un
sentido completamente nuevo. Mientras que los grandes maestros de la época clásica,
desde Laplace hasta Poincaré, siempre proclamaron que los fenómenos naturales eran
determinados y que la probabilidad, cuando se introducía en las teorías, resultaba de
nuestra ignorancia o incapacidad para seguir un determinismo muy complicado, en la
interpretación actualmente admitida de la física cuántica nos enfrentamos a la
‘probabilidad pura’ que no resultaría de un determinismo oculto” (De Broglie, 1953:15).

b) Interpretación subjetivista del principio de incertidumbre.- Si la interpretación anterior


era la oficial, la subjetivista surge como una crítica a ella. Sostiene que la realidad está en sí
misma determinada, y el indeterminismo deriva de la intervención del observador en el
mundo subatómico. En toda medición física hay una interacción entre el observador y el
sistema físico observado. El mero hecho de observar las partículas puede alterar su
posición. Por ejemplo si quisiéramos observar con un microscopio imaginario un electrón
en movimiento, su órbita se vería perturbada por la luz utilizada para observarlo. Lo que sí
puede determinarse –y en esto hay una coincidencia con la interpretación probabilista- es
una probabilidad matemática de que el electrón esté en un cierto lugar en un determinado
instante, y por ello ya no se habla de órbitas sino de ‘nubes’, o zonas donde hay mayor
probabilidad de encontrarlo.
Según la interpretación subjetivista, y he aquí el aspecto que queremos destacar, la
indeterminación en la velocidad y posición de las partículas subatómicas existiría
únicamente en nuestro propio conocimiento y no en la naturaleza de las cosas; la realidad
microfísica en sí estaría estrictamente determinada, y la indeterminación sería el resultado
de la intervención de un físico que mediante su acto de observación modifica las
condiciones del fenómeno observado (Brunschwicg, 1934:334).
Los físicos contemporáneos rechazan generalmente esta hipótesis de procesos ocultos
estrictamente determinados que subyacían en la aparente contingencia de los fenómenos
observados (Capek, 1973:302), tendiendo a admitir la original interpretación probabilista.
En suma, la diferencia entre ambas interpretaciones es que la interpretación probabilista
dice que la realidad (microfísica) misma está indeterminada, y la interpretación
subjetivista que está determinada aunque se nos aparezca como indeterminada. Ambas
interpretaciones aceptan una interacción entre lo observado y el observador, sólo que en la
interpretación subjetivista esta interacción adquiere especial importancia por ser
precisamente la razón de nuestra visión indeterminista de la realidad microfísica.
Incidentalmente, podemos decir que fuera del ámbito de la física también se ha planteado
la influencia del observador sobre lo observado, de manera tal que si por ejemplo
observamos el comportamiento de alguien y este alguien sabe que es observado, puede
cambiar su comportamiento, como el caso del alumno que, al sentirse observado por el
profesor, enseguida adopta una postura de ‘estar atendiendo’. Para evitar que la
observación influya sobre el sujeto observado, los psicólogos han diseñado dispositivos
como la cámara Gesell, donde el sujeto observado está en una habitación y el observador
en otra habitación contigua. Ambas están separadas por un vidrio especial que permite ver
al sujeto observado pero éste no puede ver al observador, y ni siquiera sospecha que existe.
También es conocido aquel experimento realizado hace ya décadas en psicología industrial,
donde un grupo de obreros había incrementado su rendimiento porque se sabían
observados por un investigador creyendo que habían sido elegidos por éste por sus
virtudes como trabajadores. Se sintieron halagados y aumentaron más su productividad.

Críticas a la interpretación probabilista.- Los partidarios de la interpretación subjetivista


no se limitaron a reformular el principio de incertidumbre desde una postura determinista,

17
sino que también intentaron refutar los argumentos de la interpretación oficial
(probabilista). Algunos de los argumentos esgrimidos fueron los siguientes:
a) Si esta ‘intervención’ del observador pudiera eliminarse, desaparecería el
indeterminismo. Los partidarios de la interpretación probabilista, aún cuando también
hablaban de una interacción entre el instrumento de observación y el sistema observado,
no adjudicaban la indeterminación a dicha interacción sino a la realidad misma, más allá
de si ésta fuese o no observada.
b) El principio confunde determinismo con predictibilidad. El hecho de no poder
predecirse –la posición o la velocidad de una partícula en un instante dado- no significa
que la realidad sea indeterminada. En un sistema determinista puede haber imposibilidad
para hacer predicciones. Por ejemplo, cuando se desconocen las condiciones iniciales y las
leyes que rigen la evolución de los sistemas.
c) El indeterminismo se podría eliminar si se introducen parámetros escondidos a un nivel
subcuántico que restablezcan el determinismo en el sistema físico. De Broglie y Bohr, por
ejemplo, introdujeron estos parámetros. Desde esta perspectiva, la interpretación
probabilista sería solo una etapa provisional de la ciencia, la cual exige una explicación
mediante las estructuras subyacentes a las leyes de la mecánica cuántica, siguiendo en esto
el ejemplo que habían dado, en un nivel anterior del descenso hacia lo ínfimo, las
explicaciones atomistas de las leyes de la termodinámica (es decir, explicar la evolución de
los gases a partir del comportamiento de sus moléculas).
d) Einstein está más de acuerdo con que los sistemas físicos son deterministas. Para él, el
electrón debía tener una velocidad y una posición determinadas: si la teoría se las negaba,
la teoría era débil. A esto se opuso Bohr defendiendo el PI y diciendo que la teoría era
fuerte, y que en todo caso la realidad era ‘débil’, o al menos nuestra idea de ella.
Einstein, Podolsky y Rosen, para demostrar la falsedad del PI, en 1935 sugirieron un
experimento que se llamó la paradoja EPR. Muy simplificadamente debía ser así:
supongamos que dos partículas A y B parten en direcciones contrarias, de forma tal que a
partir de la velocidad de B se puede deducir la posición de A. Así, uno podría
perfectamente saber la posición de A y la velocidad de B. Pero a partir de la posición de A
se puede deducir la de A, con lo cual sabríamos exactamente ambas magnitudes de A, en
contra de lo sostenido por el PI.
Bohr se opuso a esto y aseguró que al medirse la posición de A, la velocidad de B se
alteraría como si ‘supiera’ que a su compañera la estaban midiendo. La cosa terminó aquí
porque el experimento no podía llevarse a cabo, y sólo en 1982, un experimento de Aspect
terminó dándole la razón a Bohr y refutando a Einstein. Pienso que Bohr le hubiese dicho a
Einstein, a propósito de su experimento imaginario: “la fe es llegar a una certidumbre
subjetiva en un mundo de incertidumbre objetiva” (una respuesta del filósofo S. Rosenberg
durante el Encuentro Argentino-Israelí de filosofía celebrado en Buenos Aires, en 1993).
e) Otro ataque a la interpretación probabilista provino de Schroedinger, quien ilustró su
crítica proponiendo la paradoja del gato, que hasta el mismo Einstein celebró con
entusiasmo. No la describiremos detalladamente, pero su moraleja es la siguiente: es tan
ridículo pensar que un electrón puede estar en dos lugares distintos al mismo tiempo
(como se desprende del PI), como pensar que un gato está vivo y muerto a la vez.
Schroedinger intentaba así caricaturizar la postura del PI mediante el ejemplo cotidiano
del gato, con el cual quiso incluso impresionar a los mismos defensores del PI, sin
conseguirlo.
En fin, las cuestiones planteadas por el PI acerca de la estructura determinista o no
determinista de lo real continuaron, y en las últimas décadas han recobrado vigencia a
partir de los planteos de Prigogine, Hawkins y otros pensadores.

4. CAOS

18
1. Ejemplos y características de los procesos caóticos

Originalmente el término ‘caos’ fue utilizado por los griegos, habitualmente para designar
un estado de confusión y desorden de la materia hasta el momento de la creación del
‘cosmos’, otra expresión griega, donde comenzó a reinar el orden. De hecho, con el tiempo
el caos fue adquiriendo el significado de desorden, asimilándoselo también a la idea de
‘’entropía’, entendida como una medida del desorden de la materia. Para referirse al caos,
Ovidio utilizó incluso la expresión 'rudis indigestaque moles' (mole confusa e indigesta).
La idea griega según la cual de un caos inicial surgió el cosmos ordenado encuentra
actualmente su expresión en la teoría del Big-Bang, que plantea la existencia de una
explosión inicial generadora de un caos que luego, poco a poco, fue organizándose como el
cosmos más o menos ordenado que vemos hoy en día.

Ejemplos de procesos caóticos.- Si la idea de incertidumbre había surgido a propósito


de la observación de ciertos fenómenos sub-atómicos, la idea actual de caos surgió a partir
de la observación de otra clase de fenómenos llamados precisamente caóticos, a partir de la
década del ’70. Mencionemos algunos de ellos.

1) Fenómenos meteorológicos a mediano y largo plazo.- Solamente a corto plazo se


pueden hacer pronósticos meteorológicos. En 1963 el meteorólogo y matemático Lorenz
presentó un modelo matemático para hacer predicciones más extendidas en el tiempo,
pero fracasó en su intento al advertir que pequeñas variaciones en las condiciones iniciales
producían más adelante enormes e inesperadas variaciones que impedían cualquier
predicción. Esta situación quedó retratada en expresiones tales como “el aleteo de una
mariposa en China puede producir un huracán en Texas”.

2) Turbulencias.- El ejemplo clásico es el de la progresión del humo del cigarrillo.


Comienza subiendo y siguiendo un flujo laminar suave (un 'hilito' regular de humo) pero
de repente se quiebra generándose un flujo turbulento (las 'volutas'), pasándose así del
orden al caos. Existe un recurso matemático (Enciclopedia Temática Guinness, 1994:23)
que permite predecir cuándo ocurrirá esta turbulencia (la fórmula de Reynolds), pero sin
embargo no sirve para aclarar por qué ocurre. Estamos, al respecto, como los antiguos, que
podían predecir cuando aparecería el sol pero no sabían por qué. Para colmo de males,
cada cigarrillo engendrará un régimen turbulento diferente: si todos ellos fueran iguales, la
turbulencia no sería tan caótica y podría predecirse con facilidad.
Hay aún otros ejemplos de regímenes turbulentos como el cauce de un río o el movimiento
de las nubes y, en general, ciertos otros fenómenos estudiados por la parte de la física que
estudia el movimiento de fluidos (aerodinámica e hidrodinámica).

3) Series orbitales.- La iteración es un proceso por el cual hacemos una operación,


obtenemos un resultado, a este resultado volvemos a aplicarle la misma operación, y así
sucesivamente. Por ejemplo a 1 le sumo 1 y obtengo 2. Al resultado 2 vuelvo a sumarle 1 y
obtengo 3, y así en forma iterativa (es decir, repetitiva). Otro ejemplo puede ser el
siguiente: partimos del número 16 y vamos dividiéndolo por 2 en forma iterativa, con lo
cual obtendremos sucesivos resultados que son: 8, 4, 2, 1, 1/2, 1/4, 1/8, etcétera, La serie
de todos estos resultados se llama 'órbita' del número 16, que había sido nuestro número
de partida. Esta serie orbital es ostensiblemente predecible, o si se quiere hay un orden
evidente: los sucesivos números van adquiriendo valores decrecientes, ya que cada nuevo
orbital resulta ser la mitad del orbital anterior:

Número de partida Operación a realizar Orbital de X


(Elemento iniciador) (Elemento generador)
X = 16 X/2= 8 4 2 1 ½ ¼ 1/8 … Predecible
19
X = 0.5 { X . (1-X) } . 4 = 1 0 0 0 0 0 0 … Predecible
X = 0.3 { X . (1-X) } . 4 = 0.84 0.53 0.99 0.02 0.08 0.32 0.87 … Impredecible

También la serie orbital será predecible si tomamos como número de partida el 0.5 y le
aplicamos la operación indicada en el esquema. Sin embargo, las sorpresas aparecen
cuando intentamos tomar como número de partida por ejemplo 0.3, aplicando la misma
operación. La órbita así obtenida se manifiesta como impredecible: no se trata de una serie
ni creciente, ni decreciente, ni presenta ningún tipo de uniformidad: es una serie caótica, al
menos en apariencia, como el lector puede constatar en el esquema o bien recurriendo a
una calculadora electrónica. Es la misma situación que podemos constatar en los sucesivos
decimales de números como 'pi', que van apareciendo sin ningún orden detectable, pero
que se 'explican' a partir del cociente entre la longitud de la circunferencia y su diámetro.
El tercer ejemplo de serie orbital es especialmente importante porque ilustra que una
secuencia de eventos puede ser caótica y sin embargo estar regida por una ley que es, en
este caso, el elemento generador. De hecho, aplicando esta regla pueden predecirse nuevos
eventos igualmente caóticos.

4) Fractales.- Los fractales son


estructuras geométricas donde sus
partes son una réplica del todo que se
repiten hasta el infinito en una superficie
finita, como por ejemplo subdividiendo
indefinidamente un segmento de recta
(elemento iniciador) en partes cada vez
más pequeñas, idénticas al todo inicial
como si fueran infinitas copias a una
escala cada vez menor. Los fractales
pueden generarse artificialmente y
pueden crearse en la naturaleza como
por ejemplo en el crecimiento de la
superficie de la hoja de un árbol. El físico
Feigenbaum los descubrió en 1976 describiéndolos como sistemas ordenados que
comienzan a evolucionar caóticamente hasta que alcanzan cierta estabilidad. Feigenbaum
propuso un modelo para descubrir una regularidad oculta detrás del caos aparente del
fractal.

5) La vida.- La evolución de los seres vivos en general se presenta también como un


fenómeno caótico porque resulta virtualmente imposible saber hacia dónde se dirigirá esta
evolución. A partir de un estado inicial como puede serlo un bebé, no hay leyes que
permitan predecir cómo será la vida de esa persona, y, del mismo modo, a partir de los
primeros seres vivientes que aparecieron en el planeta tampoco pudo haberse predicho qué
nuevas formas de vida pudieron haber surgido después, lo que sugiere una evolución
caótica. Tampoco sabemos cómo será la especie humana dentro de cientos o miles de años,
ni sabemos cómo a partir de la materia inorgánica surgió la vida hace miles e millones de
años.

6) Otros fenómenos caóticos.- También se han incluido dentro de estos fenómenos los
siguientes: el ritmo cardíaco que dejaba de ser normal y comenzaba a comportarse
caóticamente produciendo un paro cardíaco repentino; los ecólogos examinaron la forma
aparentemente aleatoria en que cambiaban las poblaciones en la naturaleza; los ingenieros
concentraron su atención en averiguar la razón del comportamiento a veces errático de los
osciladores; los químicos, la razón de las inesperadas fluctuaciones en las reacciones; los
economistas intentaron detectar algún tipo de orden en las variaciones imprevistas de los
20
precios. Poco a poco fue pasando a un primer plano el examen de ciertos otros fenómenos
tan inherentemente caóticos y desordenados que, al menos en apariencia, venían a
trastocar la imagen ordenada que el hombre tenía del mundo: el movimiento de una hoja
por el viento, las epidemias, los atascamientos en el tránsito de vehículos, las formas de
propagación de una fractura en los metales, las averías en las máquinas, o los a veces
erráticos dibujos de las ondas cerebrales.

El estudio de esta clase de fenómenos dio origen a la popularmente llamada Teoría del
Caos a partir del pensamiento de varios investigadores como Lorenz, Prigogine y otros
muchos, aunque se los reconoce como pioneros a otros tantos como Poincaré (1908). Esta
teoría fue asociada típicamente con el primer ejemplo de fenómeno caótico que dimos que
relaciona mariposas con huracanes. Fue así que la teoría del caos asumió la
responsabilidad de responder cuestiones como ¿qué características en común tienen los
fenómenos caóticos?, ¿por qué ocurren?, o ¿existe alguna forma de descubrir algún tipo de
determinismo o regularidad detrás de la apariencia compleja, caótica y desordenada que
presentan estos fenómenos?
La teoría del caos admite que hay fenómenos caóticos y fenómenos no caóticos o, si se
quiere, hay desorden y hay orden en el universo. Hay algunos fenómenos a los que a
grandes rasgos puede aplicarse el esquema determinista, como el movimiento de la tierra
en torno al sol, pero en otros hay una mezcla de determinismo y probabilidad o azar, como
en la evolución de un ser humano, de una sociedad o del clima terrestre. La teoría del caos
no se opone radicalmente al determinismo. Si esto fuera así sería imposible cualquier
intento de hacer ciencia, salvo que esta consistiera en inventar algún orden artificial en los
fenómenos. La teoría del caos propone para ciertos sectores de la realidad un ciclo de
orden y desorden que se alternan, de forma tal que uno lleva al otro y así sucesivamente tal
vez en forma indefinida, y busca no solamente realizar descripciones detalladas del estado
caótico y del estado de orden, sino también establecer bajo qué condiciones se pasa de uno
a otro.

Algunas características de los fenómenos caóticos.- En general, los fenómenos


caóticos presentan alguna o algunas de las siguientes características, que han sido
propuestas por diversos autores:

a) Son sistemas abiertos.- Esto significa que son capaces de intercambiar materia, energía
y/o información con el medio. Esta característica aparece claramente en los sistemas
climáticos y en los sistemas vivos. Si un organismo viviente no intercambiara materia o
energía con su entorno no podría sobrevivir como tal.

b) Son muy sensibles a las variaciones de las condiciones iniciales.- Pequeñas variaciones
en las condiciones iniciales pueden implicar grandes diferencias en el comportamiento
futuro, complicando la predicción a largo plazo. Según Richman, “el comportamiento de
un sistema se puede predecir en el corto plazo con una alta probabilidad, pero en el
mediano y largo plazo su predictibilidad es errática. Es decir, podemos conocer las
condiciones iniciales de un sistema, pero nunca las finales, ya que al existir múltiples
variables en constantes cambios aleatorios, nos es muy difícil analizar y controlar todas y
cada una de ellas” (Richman, 2007). Por ejemplo se puede predecir que al principio el
humo del cigarrillo subirá linealmente con un hilo (corto plazo), pero más adelante se
torna difícil predecir la evolución de las volutas de humo.
En el ejemplo de la mariposa, si ella se mueve de una forma diferente (pequeña variación
en la condición inicial), ello podrá influir en la ulterior evolución del sistema llegando a
condiciones finales muy diferentes.

21
c) Son fenómenos irreversibles.- El tiempo ha sido representado con un círculo o con una
flecha. Representarlo como un círculo supone entender que con el tiempo los procesos
vuelven a repetirse una y otra vez, es decir, son reversibles. Ello se aplica tanto a los
procesos simples de realimentación (como la relación entre los niveles de insulina y
glucemia o cualquier otro mecanismo homeostático que hace retornar al sistema a su
estado anterior de equilibrio), hasta los ciclos cosmológicos imaginados por los antiguos en
los mitos del eterno retorno.
En cambio, representar al tiempo como una flecha (la conocida “flecha del tiempo”)
supone pensar que los procesos avanzan, evolucionan y no pueden volver a su estado
anterior, que es lo que pasa con los fenómenos caóticos. Estos fenómenos se alejan cada
vez más del equilibrio original, aunque el caos no persiste indefinidamente ya que en algún
momento alcanzan un nuevo nivel de equilibrio: son procesos ‘creativos’, como los califica
Prigogine y, por ello, no están predeterminados de antemano. El mismo autor sostenía que
las doce mil especies de hormigas que tenemos ahora no estuvieron programadas desde el
Big Bang, así como tampoco estuvo programada la historia del universo ni la historia de la
humanidad (Prigogine, 1993).
Prigogine “ha investigado la termodinámica de los procesos irreversibles, especialmente en
situaciones muy alejadas del equilibrio, donde ha introducido el concepto de estructura
disipativa, sistema abierto en que pueden surgir estructuras progresivamente complejas
cuando el intercambio de energía con el exterior supera cierto valor crítico. Sus trabajos
tienen un amplio campo de aplicación en química, biología y sociología” (Diccionario
Enciclopédico Salvat, 1995:3075).

d) Son fenómenos impredecibles.- La predicción sólo es posible en sistemas muy simples y


cercanos al equilibrio, es decir en sistemas estables y típicamente muy restringidos. Por
ejemplo, se puede predecir que aumentará la secreción de insulina si aumenta la glucemia.
En cambio, los sistemas caóticos son altamente impredecibles, lo que se puede ver por
ejemplo en sistemas que se equivocan como el cerebro humano, el sistema inmunológico o
el sistema operativo de una computadora: en muchas ocasiones no sabemos por qué se
equivocan ni en qué momento lo harán.
Que un proceso sea impredecible no significa necesariamente que ocurra por azar. Por
ejemplo, existe un juego clásico de computadora, el JazzBall, donde una pelotita rebota
permanentemente dentro de un rectángulo a partir de una posición inicial aleatoria. La
evolución de la trayectoria de la pelotita puede seguir dos caminos: un camino
perfectamente predecible, que es cuando se forma lo que técnicamente se llama un 'bucle':
la pelotita rebota una y otra vez de la misma forma. El otro camino es, en cambio, implica
que no puede predecirse su próxima evolución, la que será siempre distinta a la anterior.
Esto no significa que sea azarosa porque las evoluciones están determinadas por las reglas
del programa del juego.
La dificultad para predecir se presenta en fenómenos irreversibles como por ejemplo la
evolución de la vida. Así, es mucho más predecible saber qué le ocurrirá a una persona que
muere, que saber qué le ocurrirá si sigue viviendo. En todo caso son predicciones menos
exactas o más probabilísticas.
Si un fenómeno no puede predecirse, ello puede deberse en principio y como mínimo a una
de tres razones: a) la realidad es puro azar, y no hay leyes que permitan ordenar los
acontecimientos; b) la realidad está totalmente gobernada por leyes causales, y si no
podemos predecir acontecimientos es simplemente porque aún no conocemos esas leyes;
c) en la realidad hay desórdenes e inestabilidades momentáneas, pero todo retorna luego a
su cauce determinista. Los sistemas son predecibles, pero de repente comienzan a
desordenarse y caotizarse (periodo donde se tornarían imposibles las predicciones),
pudiendo luego retornar a una nueva estabilidad. La tercera solución fue la elegida por

22
quienes desde entonces profundizaron en la teoría del caos en las más diversas disciplinas
científicas.
La teoría del caos plantea que el mundo no sigue el modelo del reloj, previsible y
determinado, sino que tiene aspectos caóticos: el observador no es quien crea la
inestabilidad o la imprevisibilidad con su ignorancia: ellas existen de por sí. Los sistemas
estables, como la órbita de la tierra alrededor del sol, son la excepción: la mayoría son
inestables, siendo un ejemplo típico el clima.

e) Son sistemas flexibles: Esto significa que pueden modificarse, no son rígidos. Si bien los
sistemas son estables, pueden tener pequeños cambios que no llegan a alterar su
estabilidad. En el caso del cuerpo humano, si este no tuviera la libertad de ponerse
enfermo, con cualquier cambio producido el sistema se desmoronaría. El ritmo cardíaco
tiene siempre algunas irregularidades. Estas pequeñas alteraciones “son una señal de salud
del corazón, una muestra del vigor del sistema caótico, que es flexible a los cambios. El
caos permite al corazón un abanico de comportamientos (grados de libertad) que le
permiten retornar a su ritmo normal después de un cambio”
(http://usuarios.lycos.es/lateoriadelcaos/).

f) Son sistemas autoorganizables.- Las modificaciones que puede sufrir el sistema debido
a su flexibilidad se refieren al hecho que en un momento se vuelven caóticos y luego se
autoorganizan alcanzando un nuevo ordenamiento, para lo cual requieren aporte externo
de energía. En los sistemas abiertos tienen precisamente esta propiedad de
autoorganizarse, y en ellos se da la posibilidad de que a partir de un mismo punto de
partida inicial, el sistema evolucione hacia diferentes estados finales, con mayor o menor
grado de probabilidad (una tormenta tropical puede o no evolucionar hacia un huracán).
Un huracán, por ejemplo, es una gran forma autoorganizada de la naturaleza. Si no fuera
por su autoorganización toda la fuerza que lleva cada partícula se perdería al chocar unas
con otras [evolucionando hacia el desorden]” (http://usuarios.lycos.es/lateoriadelcaos/).
El fenómeno de la autoorganización, como se puede apreciar, no condice con la
termodinámica clásica que sostiene que los sistemas tienden hacia el desorden o entropía
positiva.

La teoría del caos, para explicar por los menos algunas de las características de los
fenómenos caóticos y de cómo estos evolucionan ha propuesto la idea de atractor. Como
su nombre lo indica, es un elemento que atrae a los demás, como si fuese una especie de
sumidero hacia el cual tiende a ir toda el agua. Algunos de estos atractores son
especialmente importantes para dar cuenta de los fenómenos caóticos, y se ha dado en
llamarlos atractores extraños.
Tomemos un ejemplo simple para explicarlos. En nuestro sistema solar los planetas,
asteroides y cometas giran alrededor de un centro gravitacional que es el sol. En este caso
el sol funciona como un atractor de todo lo que lo rodea, y permite predecir con mucha
exactitud cómo evolucionarán las órbitas de aquellos astros. Los llamados sistemas
estables tienen esta característica.
Supongamos ahora que en algún punto del sistema solar existe otro atractor desconocido,
y que incluso hasta puede cambiar de posición dentro del sistema. Por ejemplo, una gran
masa concentrada de materia oscura (invisible). Si ello fuera cierto, los movimientos de los
planetas, asteroides y cometas se verían perturbados por el atractor solar pero también por
el nuevo atractor extraño cuya existencia desconocemos. Si ello ocurre veríamos cómo el
sistema solar comenzaría a comportarse erráticamente, convirtiéndose en un sistema
caótico donde no podrían hacerse predicciones.
Tal es lo que ocurre en la evolución de los seres vivos: la imposibilidad de prever qué
nuevos estados finales alcanzará sugiere la hipótesis de la presencia de uno o varios

23
atractores extraños. Los organismos vivientes considerados individualmente tienden a
mantener su forma y sus funciones a pesar de las influencias externas que los hacen
cambiar, debido a que están ‘dirigidos’ por un atractor.
El movimiento caótico entonces está ligado a los atractores extraños, que pueden llegar a
tener una enorme complejidad como, por ejemplo, el modelo tridimensional del sistema
climático de Lorenz, que incluye al denominado atractor de Lorenz.

2. Las estructuras disipativas de Prigogine

Un importante avance teórico en la comprensión de los fenómenos caóticos fue la teoría


de las estructuras disipativas de Ilya Prigogine, que planteó hacia 1970 y por la cual le
dieron el Premio Nobel 1977. Basada en estudios matemáticos, su teoría fue aplicada a
diferentes disciplinas como la astronomía, la química, la física, la biología, las ciencias
sociales y, más específicamente, a campos como la neurofisiología, la hidrodinámica o la
climatología.
Para Prigogine, un problema de la ciencia actual es establecer cuánto hay de determinismo
y cuánto de azar en ciertos fenómenos. Puesto que ambos elementos están siempre
presentes en mayor o menor medida, las predicciones ya no pueden ser absolutas sino
probabilísticas, y ello no por nuestra incompetencia o ignorancia sino porque la misma
realidad tiene de por sí esa ‘mezcla’. Prigogine plantea que el orden y el caos, lo
determinado y lo probabilístico se suceden uno tras otro.
De esta manera, Prigogine expandió la termodinámica clásica del equilibrio agregando el
estudio de los procesos irreversibles y los sistemas alejados del equilibrio, demostrando
que el no-equilibrio es un fenómeno también ordenado, aunque de otra forma. Esta
irreversibilidad está estrechamente vinculada a la probabilidad. Para el determinismo, si se
conocieran todas las condiciones iniciales con exactitud podría determinarse la condición
final también con exactitud. Tal es la diferencia entre resultado determinista y resultado
probabilístico.
Aunque también se expandieron otras teorías termodinámicas para sistemas muy
próximos al equilibrio, Prigogine mostró que los sistemas más alejados del equilibrio
adquirían nuevas propiedades típicas de las situaciones de no-equilibrio, donde a los
sistemas ingresan importantes cantidades de energía.
La expresión «estructura disipativa» se refiere precisamente a sistemas de no-equilibrio
que adquieren nuevas propiedades, tales como por ejemplo evolucionar hacia muchos
caminos diferentes. Destaca Bassetti (1991) que es evidente que respecto a la vida esto
tiene un gran significado. La vida no es solamente química. La vida tiene que haber
incorporado todas las otras propiedades físicas, es decir la gravitación, los campos
electromagnéticos, la luz, el clima. De alguna manera se requiere una química abierta al
mundo externo, y sólo la materia alejada de las condiciones de equilibrio tiene esta
flexibilidad. ¿Y por qué esta flexibilidad? Cuando estamos lejos de las condiciones de
equilibrio, las ecuaciones no son lineales; hay muchas propiedades posibles, muchos
estados posibles, que son las distintas estructuras disipativas accesibles. En cambio, si nos
acercamos al equilibrio, la situación es la contraria: todo resulta lineal y no hay más que
una sola solución.
Las estructuras disipativas son entonces estructuras coherentes, autoorganizadas en
sistemas alejados del equilibrio. Respecto del adjetivo ‘disipativa’ la disipación de energía,
que suele asociarse con el desorden, se convierte, lejos del equilibrio, en fuente de orden.
En un lenguaje simple, una estructura disipativa permitiría alcanzar un cierto orden
gracias a un aporte continuo de energía externa al sistema. De ahí, que se le asocia al no
equilibrio, pues origina condiciones que no son alcanzables espontáneamente, pero a las
que sí se llegan, manteniéndose en equilibrio, si cíclicamente se le incorpora energía.

24
El ejemplo clásico de Prigogine para las estructuras disipativas es la «inestabilidad de
Bénard». Si un líquido es calentado desde abajo el calor circulará hacia arriba, o sea hacia
las capas más frías. La inestabilidad se produce cuando el gradiente o diferencia de
temperaturas sobrepasa cierto límite. En este caso el calor deja de circular por conducción
–colisión entre partículas— y se ve aumentado por un transporte por convección, donde las
moléculas participan de un movimiento colectivo. Se forman vórtices (atractores) que
distribuyen la capa líquida en «celdas» de agua. Este fenómeno es prácticamente
imposible si esperamos a que se produzca espontáneamente: para hacerlo posible debe
ingresar al sistema mucha energía y disipar mucha energía, en este caso térmica.

Para empezar a comprender el punto de vista según el cual del caos nacen nuevas
estructuras, designadas como estructuras disipativas, podemos guiarnos a través del
esquema adjunto. En él figuran circuitos de realimentación, es decir, circuitos que
empiezan y terminan en sí mismos, y que por ello a veces reciben también el nombre de
'bucles'. Puesto que se trata de procesos circulares, podemos empezar a describirlos a
partir de cualquier punto elegido arbitrariamente, por ejemplo, a partir de A (estado de
equilibrio), un viejo conocido de la termodinámica clásica.

Agente desequilibrante B ESTADO DE Caos progresivo


DESEQUILIBRIO

A ESTADO DE Agente desequilibrante C PUNTO DE


EQUILIBRIO BIFURCACION

D ESTRUCTURA
DISIPATIVA Caos progresivo

Caos progresivo

BUCLE ABCA Circuito de retroalimentación negativa (sistemas “cerrados”)


BUCLE BCDB Circuito de retroalimentación positiva (sistemas abiertos)

A) Estado de equilibrio.- La física se ha manejado tradicionalmente con un principio


filosófico bastante simple: "lo que es, sigue siendo, mientras no haya motivos para que deje
de ser lo que es". De aquí la importancia de los principios físicos de conservación (de
conservación de la cantidad de movimiento, de conservación de la masa o de conservación
de la energía). Más concretamente y en nuestro caso, se considera que un sistema tiende a
permanecer en equilibrio si no hay ningún agente desequilibrante que lo modifique.
Ejemplos:
a) En dinámica: un cuerpo tiende a permanecer en estado de reposo o de movimiento
rectilíneo uniforme si no hay un agente que lo saque de esa situación, como podría ser una
fuerza externa al sistema. Aún cuando esta fuerza momentánea altere la trayectoria
(desequilibrio), el móvil continuará en la nueva dirección siguiendo el mismo movimiento
rectilíneo uniforme (retorno al equilibrio). Todo esto es lo que se llama el principio de
inercia.
b) En termodinámica: un sistema, como por ejemplo un gas en un recipiente, tiende a
permanecer en equilibrio mientras no recibe energía externa, por ejemplo bajo la forma de
25
calor. En cuanto recibe calor intentará volver al estado de equilibrio devolviendo el
excedente de energía térmica para que las temperaturas queden equilibradas dentro y
fuera del sistema. Si el gas pudiese ser mantenido absolutamente aislado del entorno
(teóricamente posible, pero prácticamente imposible), o sea si fuese un sistema cerrado, su
calor interno tendería a repartirse homogéneamente en todo el gas, es decir, no habría
sectores más calientes y sectores más fríos: todos los puntos tendrían la misma
temperatura. Esto es compatible con nuestra idea habitual de equilibrio (equilibrio de
temperaturas), pero para que esta distribución equilibrada se logre, las moléculas del gas
deben moverse al azar en forma caótica y desordenada. Si se moviesen en cierta dirección
predeterminada, terminaría habiendo zonas más calientes y más frías. Es aquí donde
nuestro sentido común queda desbordado, toda vez que en física se asocia equilibrio con
caos molecular. En este momento, estas consideraciones sirven para una sola cosa: para
que el lector vaya pensando en términos físicos, y pueda admitir que el estado de equilibrio
implica, desde cierto punto de vista, un estado caótico.

B) Estado de desequilibrio.- Tarde o temprano, el estado A de equilibrio habrá de sufrir la


influencia de un factor desequilibrante, desde que dijimos que no existen en la práctica
sistemas totalmente cerrados. Al pasarse así a un estado B de desequilibrio, el sistema
tenderá espontáneamente a evolucionar nuevamente hacia el equilibrio, es decir, por lo
dicho anteriormente, comienza un proceso de caos progresivo.

C) Punto de bifurcación.- Este momento es muy importante en el plan de la teoría del caos,
porque mientras el sistema va caotizándose cada vez más, llega un momento en que
alcanza lo que Prigogine denomina el 'punto de bifurcación'. Como su nombre lo indica, es
un punto donde el sistema puede evolucionar hacia una de dos posibilidades: o bien
retorna al estado de equilibrio original, tal cual lo prevé la termodinámica clásica, o bien
dejar de caotizarse, empieza a auto-ordenarse o auto-organizarse hasta constituir una
nueva estructura, denominada estructura 'disipativa' o 'dispersiva', debido a que consume
mayor cantidad de energía que la organización anterior a la cual reemplazó.

D) Estructura disipativa.- En el ámbito físico-químico, Prigogine postuló que los


desequilibrios químicos no desembocan siempre en la anarquía, sino que algunas veces
permiten la aparición espontánea de organizaciones o estructuras perfectamente
ordenadas, las estructuras disipativas, y así, mostró que los estados de no equilibrio
pueden desembocar tanto en el desorden como en el orden (Sorman). El universo funciona
de tal modo que del caos pueden nacer nuevas estructuras y es paradójicamente un estado
de no equilibrio el punto de partida que permite pasar del caos a la estructura (Prigogine,
1989).
La afirmación que del caos nace el orden puede generalizarse mediante los siguientes
ejemplos: a) el universo nació de un caos inicial y generó un mundo organizado de
galaxias; b) de la actividad desordenada de las moléculas nació la vida; c) la llegada caótica
de muchos estímulos, cuando observamos una figura poco estructurada, son organizados
por nuestra percepción es una estructura; d) de la actividad desordenada de muchos
individuos nace el orden social y el progreso económico. Uno de los libros más importantes
de Prigogine, escrito en colaboración y publicado en Francia en 1979, tiene precisamente
como título "El orden nacido del caos"
Prigogine (Toffler, 1986) da el ejemplo de los relojes químicos, que muestra las
sorprendentes auto-reorganizaciones que pueden ocurrir dentro de los sistemas complejos,
en situaciones distantes del equilibrio. Imaginemos un millón de pelotas blancas
mezcladas al azar con otras tantas negras, que rebotan caóticamente dentro de un tanque
por donde podemos mirar a través de una ventana de vidrio. La masa que veamos parecerá

26
casi siempre gris. Sin embargo, a intervalos irregulares se nos aparece blanco o negro,
según como se distribuyan las pelotas en las proximidades del vidrio en un momento dado.
Supongamos ahora que la ventana se vuelve toda blanca y luego toda negra, y así
alternadamente a intervalos fijos y regulares, como el tic-tac de un reloj. Prigogine se
pregunta porqué se organizan y sincronizan de esa forma. ¿Acaso se comunican entre sí y
se ponen de acuerdo? Según todas las reglas tradicionales, esta sincronicidad no debería
ocurrir, pero sí ocurre, y es lo que pasa cuando en algunas reacciones químicas se
producen esos fenómenos de autoorganización o autoordenamiento, pese a la física clásica
y al cálculo de probabilidades. Efectivamente, lo más probable es que el sistema evolucione
hacia una mezcla al azar de pelotas negras y blancas, pero en el punto de bifurcación algo
ocurre que hace que el sistema evolucione hacia estados impredecibles.

A partir del punto de bifurcación, entonces, puede iniciarse un proceso de ordenamiento


progresivo que desembocará en una estructura disipativa, la cual, a su vez, ingresará en un
estado de desequilibrio que generará un nuevo caos, y así sucesivamente, como el lector
puede apreciar en el bucle BCDB del esquema. En términos de Prigogine, el universo es un
ciclo de caos, orden, caos, orden, etcétera, donde se requiere un gran consumo de energía
para pasar de una etapa a la otra. El universo es, en fin, como una gran ciudad, para usar
una comparación de Prigogine: como en esta reina el orden y el desorden, hay bellas
estructuras arquitectónicas, pero también embotellamientos de tráfico.
Desde ya, el bucle BCDB no es el único posible. El sistema puede evolucionar hacia su
estado de equilibrio original, de acuerdo al bucle ABCA. Los ejemplos típicos son aquí los
mecanismos homeostáticos, que pueden ser tanto naturales (la termorregulación en los
seres vivos) como artificiales (el termostato de una estufa). Este bucle es característico de
los sistemas "cerrados". Las comillas aluden al hecho de que estos sistemas son en rigor
abiertos, puesto que se parte del supuesto de que el desequilibrio que sufren es debido a
una influencia externa al sistema, sea que se trate de un aporte de materia, energía o
información. En general, no se admite que un sistema absolutamente cerrado pueda
desequilibrarse espontáneamente y, por lo demás, un tal sistema, aunque concebible
teóricamente, no existe en la práctica. Cuando Prigogine dice que en el mejor de los casos
los sistemas cerrados sólo constituyen una pequeña porción del universo físico,
probablemente haga alusión a los sistemas "cerrados", con comillas, es decir, los que
compensan los desequilibrios con la vuelta al equilibrio original. La mayor parte de la
realidad no es ordenada, sigue Prigogine, ni estable ni equilibrada, sino que bulle con el
cambio, el desorden, el azar, aunque es capaz de generar estructuras y ordenamientos no
aleatorios. Un sistema absolutamente cerrado (cerrado sin comillas) estaría representado
en el esquema con un tercer bucle del tipo AA, es decir, nace en A y muere en A, es decir,
persistiría siempre en forma indefinida en un eterno estado de equilibrio.
La diferencia entre un sistema cerrado y uno abierto debe centrarse mas bien en que los
sistemas cerrados del tipo ABCA tienen retroalimentación negativa, mientras que los
sistemas abiertos que evolucionan de acuerdo al bucle BCDA lo hacen por
retroalimentación positiva.
La retroalimentación negativa tiende a corregir una desviación, llevando al sistema a su
estado original: esta clase de procesos se oponen al cambio. Por oposición, la
retroalimentación positiva promueve el cambio, la formación de nuevas estructuras más
perfeccionadas, más adaptativas, más sutiles. En la medida en que implican la instauración
de una nueva estructura, son procesos irreversibles, a diferencia de la retroalimentación
negativa, que al tender hacia el estado original, es reversible.
La retroalimentación negativa neutraliza las desviaciones, y la retroalimentación positiva
las amplifica. Para dar un ejemplo aproximativo, si nosotros estamos caminando por el
desierto hacia una meta lejana pero conocida, buscaremos cada tanto corregir nuestro
rumbo, neutralizar nuestra desviación respecto de la meta mediante cambios periódicos en

27
nuestra trayectoria. Pero, si cometemos un error infinitesimal y nos desviamos un
milímetro de la meta, con el tiempo y la distancia ese error se amplificará cada vez más y
terminaremos por llegar a un lugar muy alejado de la meta. En la retroalimentación
negativa buscamos corregir las desviaciones para volver a la trayectoria original, y en la
retroalimentación positiva, pequeños cambios inducirán grandes modificaciones que
podrán desembocar en nuevas metas desconocidas, tal vez mejores, aunque no podamos
predecir con exactitud a donde es que llegaremos.
Una vez que el proceso desemboca en la creación de una estructura compleja, la estructura
disipativa, se produce un nuevo desequilibrio (pasaje de D a B) y recomienza un ciclo de
caos donde se producen nuevas inestabilidades o fluctuaciones. Para Prigogine, todos los
sistemas contienen subsistemas en constante fluctuación. A veces una sola fluctuación en
uno solo de ellos puede ser tan potente, como resultado de una retroalimentación positiva,
que hace añicos toda la organización preexistente. En tal momento, llamado momento
singular o 'punto de bifurcación', es intrínsecamente imposible saber hacia donde
evolucionará el sistema (estado de improbabilidad): ¿se desintegrará en un caos o saltará a
un nuevo nivel de organización, más elevado y diferenciado es decir, a una nueva
estructura disipativa?
Así, cuando se quita a los sistemas del equilibrio se comportan de forma extraña, dejan de
actuar como máquinas newtonianas, tornándose no lineales: pequeños inputs pueden
provocar grandes cambios o al revés, grandes fuerzas, escasas o ningún cambio. En esas
condiciones el sistema 'enloquece'. Se multiplican los circuitos de retroalimentación
positiva que generan procesos de autoorganización y autoalimentación. Entra a jugar el
azar. Las estructuras, antes afianzadas, pueden desintegrarse, o modificarse a sí mismas
totalmente.
En suma, podemos decir que, para que surja una nueva estructura más compleja, una
condición necesaria es que haya un estado inicial en el punto de bifurcación, por ejemplo
un pequeño acontecimiento que luego, por retroalimentación positiva, genere grandes
consecuencias. Este proceso de retroalimentación es la condición suficiente, porque por sí
sola, la condición inicial no puede hacer nada. Además, Prigogine destaca el hecho de este
acontecimiento inicial, muchas veces insignificante, ¡se produce por azar! Toffler da el
ejemplo de una gran conmoción internacional que se produjo como consecuencia de un
hecho fortuito donde un camarero de un barco vio cómo unas personas limpiaban armas
(se trataba de guerrilleros que iban a cometer un atentado importante).

Hipersensibilidad a la influencia externa.- Retornemos brevemente a nuestro esquema.


Cuando un proceso evoluciona caóticamente como en el tramo BC, se torna cada vez más
hipersensible a las influencias del entorno (materia, energía, información), y como
consecuencia de ello evolucionará hacia D. En cambio, para que el sistema evolucione
hacia A no se precisa esa influencia externa: un gas con sectores más calientes y otros
menos calientes, es decir un gas en estado de desequilibrio, evolucionará espontáneamente
hacia una distribución homogénea del calor hasta llegar al estado de equilibrio A, sin que
para ello haya debido sufrir la influencia de algún agente externo.
No ocurre lo mismo con los sistemas abiertos. Mientras estos evolucionan caóticamente,
las influencias externas acentúan ese caos hasta un punto culminante, llamado punto de
bifurcación, donde el sistema deberá optar por retornar al equilibrio, o reorganizarse en
una estructura y un equilibrio superiores. Si Prigogine tiene razón al respecto, señalaba
Toffler, entonces debería ocurrir que la propaganda extranjera o una alteración en las tasas
cambiarias mundiales (influencias externas) deberían producir un impacto interno mucho
mayor en una sociedad inestable o desequilibrada que en otra en equilibrio.

3. Caos en psicología y ciencias sociales

28
Watson es un representante del determinismo extremo en psicología cuando sostenía,
palabras más, palabras menos, aquello de “dadme un bebé y haré de él el hombre que yo
quiera: un ingeniero, un abogado o un artista”: sólo se trataba de aplicar estrictamente las
leyes de estímulo-respuesta.
Sin embargo, está claro que nadie puede predecir cómo será la vida, la personalidad o el
comportamiento d una persona en el momento de nacer, y en tal sentido los fenómenos
psíquicos están indeterminados. De lo único que podemos estar seguros es de que morirá.
Al mismo tiempo, algunas evoluciones pueden predecirse con cierto grado de probabilidad,
como por ejemplo que tendrá una pareja o que se dedicará a trabajar: la evolución
probabilística es una de las formas de la indeterminación.
Prigogine hablaba también de un punto de bifurcación a partir del cual el sistema podía
retornar hacia un estado anterior o evolucionar hacia una nueva forma autoorganizada. El
sistema psíquico tiene también ambas posibilidades. Por ejemplo, el principio de
constancia de Freud sostiene que el psiquismo tiende a volver a su estado anterior para
recuperar el equilibrio, mientras que la tendencia a la autorrealización mencionada por
Rogers sugiere que el psiquismo evolucionará hacia estructuras más complejas e
impredecibles.
Según Horstein (1994), el inconciente debe ser considerado mas bien como un sistema
abierto y como tal, capaz de autorooganización, desestructuración y reestructuración, lo
que es posible si se lo concibe en el contexto de un circuito de retroalimentación donde el
pasado influye sobre el presente pero también el presente incluye sobre el pasado como
cuando en la cura psicoanalítica éste último es resignificado desde el presente.
En suma: mientras el sujeto se encuentra desestructurado, está en el punto de bifurcación,
donde tiene dos opciones: o intenta volver a la estructura anterior por retroalimentación
negativa neutralizando la 'desviación' introducida por el analista (resistencias), o intenta
reestructurarse mediante retroalimentación positiva. En esa encrucijada es altamente
sensible a la influencia del entorno (a la palabra del analista) y cualquier acontecimiento
que se produzca por azar entre analista y analizado, por pequeño que sea, podrá producir
efectos importantes: una breve intervención interpretativa en este momento tan sensible
provocará en el mejor de los casos la formación de una nueva estructura, la instauración de
un nuevo orden que podrá eventualmente justificar el alta.
A partir de 1980, Fred Abraham y Larry Vandervert han venido trabajando en la aplicación
de los conceptos de la teoría del caos al funcionamiento del psiquismo (Moure, 1994:17-
19). En la misma orientación se sitúa William McDown, quien sostiene que en el psiquismo
hay sistemas que parecen comportarse aleatoriamente, pero que encierran un orden oculto
que, aunque podamos conocerlo, es igualmente imposible hacer predicciones exactas. Las
personas se parecen mucho al clima: tienen comportamientos predecibles pero también
impredecibles, y nunca se pueden descubrir todos los factores que sobre ellas actúan
(Moure, 1994:17-19).

También los cognitivistas y los neurofisiólogos están interesados en el modelo del caos.
Investigadores como Paul Rapp (Moure, 1994:17-19), concluyó que, a juzgar por los
registros electroencefalográficos y en comparación con el estado de reposo, el cerebro se
vuelve más caótico cuando comienza a resolver problemas. La observación de Rapp sugiere
que un estado de desequilibrio induce a las personas a buscar información en el entorno
para resolver un problema construyendo una nueva estructura. En ese momento, la
persona se encuentra altamente sensibilizada a cualquier influencia externa que, aún
siendo pequeña, provocará grandes cambios, y el psiquismo funcionará caóticamente hasta
el logro del nuevo estado de equilibrio. Linda Chamberlain, por su parte (Moure, 1994:17-
19) piensa que la teoría del caos ofrece una forma de entender cómo ocurren los cambios
durante la terapia familiar.

29
En psicolingüística, el lenguaje verbal humano puede se un buen ejemplo de un aspecto de
la realidad con aspectos predecibles e impredecibles al mismo tiempo.
A nivel de palabras, se puede predecir con un alto grado de probabilidad qué letra vendrá
después de otra. Por ejemplo después de una letra ‘q’ hay certeza absoluta que vendrá una
‘u’ porque así lo prescriben las reglas sintácticas; después de una ‘p’ hay una certeza
absoluta que no vendrá una ‘z’ u otra ‘p’; o antes de una p’ nunca puede venir una ‘n’.
En cambio a nivel de oraciones, comienza a aumentar la impredecibilidad. Después de la
palabra ‘el’ no se puede predecir qué otra palabra vendrá. Cuando un escritor comienza
una historia ni él mismo puede predecir de antemano la combinación de palabras que
utilizará.
A medida que pasa el tiempo y se deteriora la red neuronal, el lenguaje se vuelve aún más
impredecible, evolucionando cada vez más hacia un estado de desorden. Ello ocurre
porque el sistema se va 'cerrando' cada vez más, a medida que las neuronas dejan de
recibir adecuadamente la energía proveniente de la glucosa, o a medida de dejan de recibir
información a través de órganos sensoriales. Los textos escritos también se desorganizan
cada vez más a medida que el papel sufre deterioros. En un poema, Borges se preguntaba
acerca de qué relación podían tener una biblioteca con el polvo estelar, y aquí la
termodinámica viene a dar su propia respuesta.
En síntesis, podríamos decir que desde que el sujeto incorpora las primeras letras del
alfabeto hasta que termina escribiendo una tesis, va aprendiendo a administrar los
recursos entrópicos del lenguaje. Si quiere un texto más creativo, aprenderá que debe
consumir más energía, y si quiere ahorrarla, se transformará en un repetidor. Para ello
cuenta con un patrimonio colectivo constituido por 28 letras, en el caso del castellano. Si
solamente con las diferentes combinaciones de 5 bases cíclicas nitrogenadas del ADN se
pueden generar tantos seres vivos diferentes, ¿que esperar de las 28 unidades de nuestro
lenguaje?
La teoría del caos no ha repercutido solamente en la psicología sino también en otras
ciencias humanas, como las que se ocupan del estudio de la sociedad y las organizaciones.
Señala Richman al respecto que “la Teoría General de Sistemas, y en particular, el estudio
de la organización como sistema social, evolucionó de forma insospechada gracias a una
serie de descubrimientos en química cuántica, en los llamados “sistemas de no equilibrio”
o “estructuras disipadas”, muy similares a nuestros ya conocidos “sistemas sociales” y en
particular, a la organización. Todo este conjunto de nuevos descubrimientos e ideas fueron
ordenadas en un todo coherente por Prigogine, denominándolo Teoría del Caos”
(Richman, 2007).
Prigogine se opone a la fragmentación del conocimiento, y dice que las ciencias exactas y
las humanas están condenadas a progresar juntas, o bien a perecer juntas. Para Prigogine,
la clásica ruptura entre ambos grupos de disciplinas obedece a que las ciencias humanas
relatan acontecimientos y las exactas buscan leyes eternas, pero con la nueva ciencia del
caos, esta oposición desaparece porque los fenómenos físicos también tienen historia, y
por ende no obedecen a leyes inmutables.

Pablo Cazau. Buenos Aires, Setiembre 2014

Bibliografía consultada
Bassetti O (1991) Entrevista a Ilya Prigogine: Los Nuevos Paradigmas II. Buenos Aires. Revista Zona Erógena
Nº 7.
Blalock H (1982) Introducción a la investigación social. Buenos Aires: Amorrortu.
Blanché J (1972) El método experimental y la filosofía de la física. México: FCE.
Brazier D (1988) La condición necesaria es amor: más allá del self en el Enfoque Centrado en la Persona.
Artículo incluido en "Más allá de K. Rogers".
Brunschwicg L (1934) Science et la prise de conscience. Scientia, Vol LV.
Bunge M (1965) Causalidad. El principio de causalidad en la ciencia moderna. Buenos Aires: Eudeba, 2°
edición.

30
Capek M (1973) El impacto filosófico de la física contemporánea. Madrid, Tecnos.
Cazau P (1991) Introducción a la investigación en ciencias sociales. Buenos Aires: Rundinuskín.
Cazau P (2004) Teoría del caos: marco teórico de la psiconeuroinmunoendocrinología. Buenos Aires.
Exposición en las Jornadas Psiconeuroinmunoendocrinología y Adiccionología, organizadas por la
Asociación Argentina de Psiconeuroinmunoendocrinología, 4 de diciembre de 2004.
Copi Irving (1974) Introducción a la lógica. Buenos Aires: Eudeba, 15° edición.
De Broglie L (1953) La physique quantique restera-t-elle indeterminniste. París: Gauthier-Villars.
De la Torre A (1992) Física cuántica para filo-sofos. Buenos Aires: FCE.
Diccionario Enciclopédico Salvat, Tomo 22 (1995). Barcelona: Salvat Editores.
Ferrater Mora J (1979) Diccionario de filosofía, Tomo II. Madrid: Alianza.
Fischer (1937) The Design of Experiments, Edimburgo, Oliver & Boyd.
Freud S Estudios sobre la histeria (1895)
Freud S Psicopatología de la vida cotidiana (1900) - XII. -Determinismo, creencia en la casualidad y en la
superstición. Consideraciones. Psicoanálisis.
Freud S Cinco conferencias pronunciadas en la Clark University (EEUU) (1909) - Tercera conferencia.
Freud S Lecciones introductorias al psicoanálisis (1915-1917) - Conferencia 2: Los actos fallidos.
Freud S Lecciones introductorias al psicoanálisis (1915-1917) - Conferencia 6: Condiciones y técnicas de la
interpretación.
Freud S Lecciones introductorias al psicoanálisis (1915-1917) - Conferencia 25: La angustia.
Freud S (1908) El carácter y el erotismo anal. Obras Completas. Madrid: Biblioteca Nueva, 1968.
Freud S (1916) Modos de formación de síntomas (Conferencia 23). Obras Completas, Tomo II. Madrid,
Biblioteca Nueva, 1968.
Gould S (1998) Milenio. Barcelona: Crítica.
Horstein L (1994) El cristal y el humo. Temporalidad, determinación y azar. Buenos Aires: Diario Página 12,
22-9-94.
Hume D (1748) Investigación sobre el Conocimiento Humano.
Jaspers K, Psicopatología General.
Kohan N (1994) Diseño estadístico. Buenos Aires: Eudeba.
Maruyama Magoroh (1963) La segunda cibernética: procesos de causalidad recíproca amplificadores de la
desviación. American Scientist, Vol. 51, N°2, 1963, 164-179.
Morgenstern O (1972) La economía, es una ciencia exacta? Buenos Aires: Revista Ciencia Nueva, Año 3, N°
15.
Moure F, Alas de mariposas: un nuevo modelo para la psicología. Buenos Aires: Prensa Psicológica N° 2,
Mayo/Junio 1994.
Nason Alvin (1969) Biología. México: Limusa-Wiley.
Poincaré H (1903) La ciencia y la hipótesis. Paris: Flammarion. Traducción de J Colacilli de Muro.
Prigogine I (1993) La certidumbre, símbolo de inteligibilidad científica, cuestionada. Buenos Aires: Diario La
Nación, 26 mayo 1993.
Prigogine I, Reportaje. Buenos Aires: Diario Clarín, 10-12-89.
Richman S (2007) La teoría del caos. En http://www.mirarte.org/taciturno/spip.php?article19
Rud Claudio (1994) La psicoterapia del Acercamiento Centrado en la Persona. Artículo incluido en
Psicoterapias en Argentina. Buenos Aires: Holos.
Sorman G (1994) Los verdaderos pensadores del siglo XX.
Taubes G (1998) Vaivén financiero. Buenos Aires: Revista Discover en español.
Toffler A, Reportaje. Buenos Aires: Diario La Nación, 27-11-86.
Von Bertalanffy L (1976) Teoría general de los sistemas. Buenos Aires: Fondo de Cultura Económica.
Watzlawick P, Beavin J y Jackson D (1981) Teoría de la comunicación humana. Barcelona: Herder. 2°
edición.
Wilber K, (1989) Psicología perenne: el espectro de la conciencia. Artículo incluido en "Más allá del Ego".

31

También podría gustarte