Introduccion A La Ciencia - Isaac Asimov PDF
Introduccion A La Ciencia - Isaac Asimov PDF
Introduccion A La Ciencia - Isaac Asimov PDF
Prólogo
1
Guía de la ciencia de Asimov”
Capítulo 1
¿Qué es la Ciencia?
número de mensajes y más variados desde el medio ambiente y acerca del mismo.
A la vez (y no podemos decir si, como causa o efecto) se desarrolló una creciente
complejidad del sistema nervioso, el instrumento viviente que interpreta y almacena
los datos captados por los órganos de los sentidos, y con esto llegamos al punto en
que la capacidad para recibir, almacenar e interpretar los mensajes del mundo
externo puede rebasar la pura necesidad. Un organismo puede haber saciado
momentáneamente su hambre y no tener tampoco, por el momento, ningún peligro
a la vista. ¿Qué hace entonces?
Tal vez dejarse caer en una especie de sopor, como la ostra. Sin embargo, al menos
los organismos superiores, siguen mostrando un claro instinto para explorar el
medio ambiente. Estéril curiosidad, podríamos decir. No obstante, aunque podamos
burlarnos de ella, también juzgamos la inteligencia en función de esta cualidad. El
perro, en sus momentos de ocio, olfatea acá y allá, elevando sus orejas al captar
sonidos que nosotros no somos capaces de percibir; y precisamente por esto es por
lo que lo consideramos más inteligente que el gato, el cual, en las mismas
circunstancias, se entrega a su aseo, o bien se relaja, se estira a su talante y
dormita. Cuanto más evolucionado es el cerebro, mayor es el impulso a explorar,
mayor la «curiosidad excedente». El mono es sinónimo de curiosidad. El pequeño e
inquieto cerebro de este animal debe interesarse, y se interesa en realidad, por
cualquier cosa que caiga en sus manos. En este sentido, como en muchos otros, el
hombre no es más que un supermono.
El cerebro humano es la más estupenda masa de materia organizada del Universo
conocido, y su capacidad de recibir, organizar y almacenar datos supera
ampliamente los requerimientos ordinarios de la vida. Se ha calculado que, durante
el transcurso de su existencia, un ser humano puede llegar a recibir más de cien
millones de datos de información. Algunos creen que este total es mucho más
elevado aún. Precisamente este exceso de capacidad es causa de que nos ataque
una enfermedad sumamente dolorosa: el aburrimiento. Un ser humano colocado en
una situación en la que tiene oportunidad de utilizar su cerebro sólo para una
mínima supervivencia, experimentará gradualmente una diversidad de síntomas
desagradables, y puede llegar incluso hasta una grave desorganización mental.
Por tanto, lo que realmente importa es que el ser humano sienta una intensa y
dominante curiosidad. Si carece de la oportunidad de satisfacerla en formas
inmediatamente útiles para él, lo hará por otros conductos, incluso en formas
censurables, para las cuales reservamos admoniciones tales como: «La curiosidad
mató el gato», o «Métase usted en sus asuntos».
La abrumadora fuerza de la curiosidad, incluso con el dolor como castigo, viene
reflejada en los mitos y leyendas. Entre los griegos corría la fábula de Pandora y su
caja. Pandora, la primera mujer, había recibido una caja, que tenía prohibido abrir.
Naturalmente, se apresuró a abrirla, y entonces vio en ella toda clase de espíritus
de la enfermedad, el hambre, el odio y otros obsequios del Maligno, los cuales, al
escapar, asolaron el mundo desde entonces.
En la historia bíblica de la tentación de Eva, no cabe duda de que la serpiente tuvo
la tarea más fácil del mundo. En realidad podía haberse ahorrado sus palabras
tentadoras: la curiosidad de Eva la habría conducido a probar el fruto prohibido,
incluso sin tentación alguna. Si deseáramos interpretar alegóricamente este pasaje
de la Biblia, podríamos representar a Eva de pie bajo el árbol, con el fruto prohibido
en la mano, y la serpiente enrollada en torno a la rama podría llevar este letrero:
«Curiosidad». Aunque la curiosidad, como cualquier otro impulso humano, ha sido
utilizada de forma innoble, la invasión en la vida privada, que ha dado a la palabra
su absorbente y peyorativo sentido, sigue siendo una de las más nobles propiedades
de la mente humana. En su definición más simple y pura es «el deseo de conocer».
Este deseo encuentra su primera expresión en respuestas a las necesidades
prácticas de la vida humana: cómo plantar y cultivar mejor las cosechas; cómo
fabricar mejores arcos y flechas; cómo tejer mejor el vestido, o sea, las «Artes
Aplicadas». Pero, ¿qué ocurre una vez dominadas estas tareas, comparativamente
limitadas, o satisfechas las necesidades prácticas? Inevitablemente, el deseo de
conocer impulsa a realizar actividades menos limitadas y más complejas.
Parece evidente que las «Bellas Artes» (destinadas sólo a satisfacer unas
necesidades de tipo espiritual) nacieron en la agonía del aburrimiento. Si nos lo
proponemos, tal vez podamos hallar fácilmente unos usos más pragmáticos y más
nuevas excusas para las Bellas Artes. Las pinturas y estatuillas fueron utilizadas,
por ejemplo, como amuletos de fertilidad y como símbolos religiosos. Pero no se
puede evitar la sospecha de que primero existieron estos objetos, y de que luego se
les dio esta aplicación.
Decir que las Bellas Artes surgieron de un sentido de la belleza, puede equivaler
también a querer colocar el carro delante del caballo. Una vez que se hubieron
desarrollado las Bellas Artes, su extensión y refinamiento hacia la búsqueda de la
Belleza podría haber seguido como una consecuencia inevitable; pero aunque esto
no hubiera ocurrido, probablemente se habrían desarrollado también las Bellas
Artes. Seguramente se anticiparon a cualquier posible necesidad o uso de las
mismas. Tengamos en cuenta, por ejemplo, como una posible causa de su
nacimiento, la elemental necesidad de tener ocupada la mente.
Pero lo que ocupa la mente de una forma satisfactoria no es sólo la creación de una
obra de arte, pues la contemplación o la apreciación de dicha obra brinda al
espectador un servicio similar. Una gran obra de arte es grande precisamente
porque nos ofrece una clase de estímulo que no podemos hallar en ninguna otra
parte.
Contiene bastantes datos de la suficiente complejidad como para incitar al cerebro a
esforzarse en algo distinto de las necesidades usuales, y, a menos que se trate de
una persona desesperadamente arruinada por la estupidez o la rutina, este ejercicio
es placentero.
Pero si la práctica de las Bellas Artes es una solución satisfactoria para el problema
del ocio, también tiene sus desventajas: requiere, además de una mente activa y
creadora, destreza física. También es interesante cultivar actividades que impliquen
sólo a la mente, sin el suplemento de un trabajo manual especializado, y, por
supuesto, tal actividad es provechosa. Consiste en el cultivo del conocimiento por sí
mismo, no con objeto de hacer algo con él, sino por el propio placer que causa.
Así, pues, el deseo de conocer parece conducir a una serie de sucesivos reinos cada
vez más etéreos y a una más eficiente ocupación de la mente, desde la facultad de
adquirir lo simplemente útil, hasta el conocimiento de lo estético, o sea, hasta el
conocimiento «puro».
Por sí mismo, el conocimiento busca sólo resolver cuestiones tales como: ¿A qué
altura está el firmamento?», o « ¿Por qué cae una piedra?». Esto es la curiosidad
pura, la curiosidad en su aspecto más estéril y, tal vez por ello, el más perentorio.
Después de todo, no sirve más que al aparente propósito de saber la altura a que
está el cielo y por qué caen las piedras. El sublime firmamento no acostumbra
interferirse en los asuntos corrientes de la vida, y, por lo que se refiere a la piedra,
el saber por qué cae no nos ayuda a esquivarla más diestramente o a suavizar su
impacto en el caso de que se nos venga encima. No obstante, siempre ha habido
personas que se han interesado por preguntas tan aparentemente inútiles y han
tratado de contestarlas sólo por el puro deseo de conocer, por la absoluta necesidad
de mantener el cerebro trabajando.
El mejor método para enfrentarse con tales interrogantes consiste en elaborar una
respuesta estéticamente satisfactoria, respuesta que debe tener las suficientes
analogías con lo que ya se conoce como para ser comprensible y plausible. La
expresión «elaborar» es más bien gris y poco romántica. Los antiguos gustaban de
considerar el proceso del descubrimiento como la inspiración de las musas o la
revelación del cielo. En todo caso, fuese inspiración, o revelación, o bien se tratara
de la clase de actividad creadora que desembocaba en el relato de leyendas, sus
explicaciones dependían, en gran medida, de la analogía. El rayo, destructivo y
terrorífico, sería lanzado, a fin de cuentas, como un arma, y a juzgar por el daño
que causa parece como si se tratara realmente de un arma arrojadiza, de inusitada
violencia. Semejante arma debe de ser lanzada por un ente proporcionado a la
potencia de la misma, y por eso el trueno se transforma en el martillo de Thor, y el
rayo, en la centelleante lanza de Zeus. El arma sobrenatural es manejada siempre
por un hombre sobrenatural.
Así nació el mito. Las fuerzas de la Naturaleza fueron personificadas y deificadas.
Los mitos se ínter influyeron a lo largo de la Historia, y las sucesivas generaciones
de relatores los aumentaron y corrigieron, hasta que su origen quedó oscurecido.
Algunos degeneraron en agradables historietas (o en sus contrarias), en tanto que
otros ganaron un contenido ético lo suficientemente importante, como para hacerlas
significativas dentro de la estructura de una religión mayor.
Con la mitología ocurre lo mismo que con el Arte, que puede ser pura o aplicada.
Los mitos se mantuvieron por su encanto estético, o bien se emplearon para usos
físicos. Por ejemplo, los primeros campesinos sintiéronse muy preocupados por el
fenómeno de la lluvia y por qué caía tan caprichosamente. La fertilizante lluvia
mostraría sus secretos, sin cambiar la posición o la actitud en mitad del juego.
(Miles de años más tarde, Albert Einstein expresó, también esta creencia al afirmar:
«Dios puede ser sutil, pero no malicioso») Por otra parte, creíase que las leyes
naturales, cuando son halladas, pueden ser comprensibles. Este optimismo de los
griegos no ha abandonado nunca a la raza humana.
Con la confianza en el juego limpio de la Naturaleza el hombre necesitaba conseguir
un sistema ordenado para aprender la forma de determinar, a partir de los datos
observados, las leyes subyacentes. Progresar desde un punto basta otro,
estableciendo líneas de argumentación, supone utilizar la «razón». Un individuo que
razona puede utilizar la «intuición» para guiarse en su búsqueda de respuestas,
mas para apoyar su teoría deberá confiar, al fin, en una lógica estricta. Para tomar
un ejemplo simple: si el coñac con agua, el whisky con agua, la vodka con agua o el
ron con agua son brebajes intoxicantes, puede uno llegar a la conclusión que el
factor intoxicante debe ser el ingrediente que estas bebidas tienen en común, o sea,
el agua. Aunque existe cierto error en este razonamiento, el fallo en la lógica no es
inmediatamente obvio, y, en casos más sutiles, el error puede ser, de hecho, muy
difícil de descubrir.
El descubrimiento de los errores o falacias en el razonamiento ha ocupado a los
pensadores desde los tiempos griegos hasta la actualidad, y por supuesto que
debemos los primeros fundamentos de la lógica sistemática a Aristóteles de Estalira,
el cual, en el siglo IV a. de J.C., fue el primero en resumir las reglas de un
razonamiento riguroso.
En el juego intelectual hombre-Naturaleza se dan tres premisas: La primera,
recoger las informaciones acerca de alguna faceta de la Naturaleza; la segunda,
organizar estas observaciones en un orden preestablecido. (La organización no las
altera, sino que se limita a colocarlas para hacerlas aprehensibles más fácilmente.
Esto se ve claro, por ejemplo, en el juego del bridge, en el que, disponiendo la
mano por palos y por orden de valores, no se cambian las cartas ni se pone de
manifiesto cuál será la mejor forma de jugarlo, pero sí se facilita un juego lógico.)
Y, finalmente, tenemos la tercera, que consiste en deducir, de su orden
preestablecido de observaciones, algunos principios que las resuman.
Por ejemplo, podemos observar que el mármol se hunde en el agua, que la madera
flota, que el hierro se hunde, que una pluma flota, que el mercurio se hunde, que el
aceite de oliva flota, etc. Si ponemos en una lista todos los objetos que se hunden y
en otra todos los que flotan, y buscamos una característica que distinga a todos los
objetos de un grupo de los del otro, llegaremos a la conclusión de que los objetos
pesados se hunden en el agua, mientras que los ligeros flotan.
Esta nueva forma de estudiar el Universo fue denominada por los griegos
Philosophia (Filosofía), voz que significa «amor al conocimiento» o, en una
traducción libre, «deseo de conocer».
Los griegos consiguieron en Geometría sus éxitos más brillantes, éxitos que pueden
atribuirse, principalmente, a su desarrollo en dos técnicas: la abstracción y la
generalización.
Veamos un ejemplo: Los agrimensores egipcios habían hallado un sistema práctico
de obtener un ángulo: dividían una cuerda en 12 partes iguales y formaban un
triángulo, en el cual, tres partes de la cuerda constituían un lado; cuatro partes,
otro, y cinco partes, el tercero (el ángulo recto se constituía cuando el lado de tres
unidades se unía con el de cuatro). No existe ninguna información acerca de cómo
descubrieron este método los egipcios, y, aparentemente, su interés no fue más allá
de esta utilización. Pero los curiosos griegos siguieron esta senda e investigaron por
qué tal triángulo debía contener un ángulo recto. En el curso de sus análisis llegaron
a descubrir que, en sí misma, la construcción física era solamente incidental; no
importaba que el triángulo estuviera hecho de cuerda, o de lino, o de tablillas de
madera. Era simplemente una propiedad de las «líneas rectas», que se cortaban
formando ángulos. Al concebir líneas rectas ideales independientes de toda
comprobación física y que pudiera existir sólo en la mente, dieron origen al método
llamado abstracción, que consiste en despreciar los aspectos no esenciales de un
problema y considerar sólo las propiedades necesarias para la solución del mismo.
Los geómetras griegos dieron otro paso adelante al buscar soluciones generales
para las distintas clases de problemas, en lugar de tratar por separado cada uno de
ellos. Por ejemplo, se pudo descubrir, gracias a la experiencia, que un ángulo recto
aparece no sólo en los triángulos que tienen, lados de 3, 4 y 5 m de longitud, sino
también en los de 5, 12 y 13 y en los de 7, 24 y 25 m. Pero, éstos eran sólo
números, sin ningún significado. ¿Podría hallarse alguna propiedad común que
describieran todos los triángulos rectángulos? Mediante detenidos razonamientos,
los griegos demostraron que un triángulo es rectángulo únicamente en el caso de
que las longitudes de los lados estuvieran en la relación de x2 + y2 = z2, donde z es
la longitud del lado más largo. El ángulo recto se formaba al unirse los lados de
longitud x e y. Por este motivo, para el triángulo con lados de 3, 4 y 5 m, al elevar
al cuadrado su longitud daba por resultado 9 + 16 = 25, y al hacer lo mismo con los
de 5, 12 y 13, se tenía 25 + 144 = 169, y, por último, procediendo de idéntica
forma con los de 7, 24 y 25, se obtenía 49 + 576 = 625. Éstos son únicamente tres
casos de entre una infinita posibilidad de ellos, y, como tales, intrascendentes. Lo
que intrigaba a los griegos era el descubrimiento de una prueba de que la relación
debía satisfacerse en todos los casos, y prosiguieron el estudio de la Geometría
como un medio sutil para descubrir y formular generalizaciones.
Varios matemáticos griegos aportaron pruebas de las estrechas relaciones que
existían entre las líneas y los puntos de las figuras geométricas. La que se refería al
triángulo rectángulo fue, según la opinión general, elaborada por Pitágoras de
Samos hacia el 525 a. de J.C., por lo que aún se llama, en su honor, teorema de
Pitágoras.
Aproximadamente el año 300 a. de J.C., Euclides recopiló los teoremas matemáticos
conocidos en su tiempo y los dispuso en un orden razonable, de forma que cada uno
pudiera demostrarse utilizando teoremas previamente demostrados. Como es
natural, este sistema se remontaba siempre a algo indemostrable: si cada teorema
tenía que ser probado con ayuda de otro ya demostrado, ¿cómo podría demostrarse
el teorema número 1? La solución consistió en empezar por establecer unas
verdades tan obvias y aceptables por todos, que no necesitaran su demostración.
Tal afirmación fue llamada «axioma». Euclides procuró reducir a unas cuantas
afirmaciones simples los axiomas aceptados hasta entonces. Sólo con estos axiomas
pudo construir el intrincado y maravilloso sistema de la geometría euclídea. Nunca
con tan poco se construyó tanto y tan correctamente, por lo que, como
recompensa, el libro de texto de Euclides ha permanecido en uso, apenas con la
menor modificación, durante más de 2.000 años.
griegos se vieron seriamente limitados por esta actitud. Grecia no fue estéril por lo
que se refiere a contribuciones prácticas a la civilización, pese a lo cual, hasta su
máximo ingeniero, Arquímedes de Siracusa, rehusó escribir acerca de sus
investigaciones prácticas y descubrimientos; para mantener su status de aficionado,
transmitió sus hallazgos sólo en forma de Matemáticas puras. Y la carencia de
interés por las cosas terrenas, en la invención, en el experimento y en el estudio de
la Naturaleza, fue sólo uno de los factores que limitó el pensamiento griego. El
énfasis puesto por los griegos sobre el estudio puramente abstracto y formal, en
realidad, sus éxitos en Geometría, les condujo a su segundo gran error y,
eventualmente, a la desaparición final.
Seducidos por el éxito de los axiomas en el desarrollo de un sistema geométrico, los
griegos llegaron a considerarlos como «verdades absolutas» y a suponer que otras
ramas del conocimiento podrían desarrollarse a partir de similares «verdades
absolutas». Por este motivo, en la Astronomía tomaron como axiomas las nociones
de que:
1. La Tierra era inmóvil y, al mismo tiempo, el centro del Universo.
2. En tanto que la Tierra era corrupta e imperfecta, los cielos eran eternos, inmutables
y perfectos.
Dado que los griegos consideraban el círculo como la curva perfecta, y teniendo en
cuenta que los cielos eran también perfectos, dedujeron que todos los cuerpos
celestes debían moverse formando círculos alrededor de la Tierra. Con el tiempo,
sus observaciones (procedentes de la navegación y del calendario) mostraron que
los planetas no se movían en círculos perfectos y, por tanto, se vieron obligados a
considerar que realizaban tales movimientos en combinaciones cada vez más
complicadas de círculos; lo cual fue formulado, como un sistema excesivamente
complejo, por Claudio Ptolomeo, en Alejandría, hacia el 150 de nuestra Era. De
forma similar, Aristóteles elaboró caprichosas teorías acerca del movimiento a partir
de axiomas «evidentes por sí mismos», tales como la afirmación de que la velocidad
de caída de un objeto era proporcional a su peso. (Cualquiera podía ver que una
piedra caía más rápidamente que una pluma.)
Así, con este culto a la deducción partiendo de los axiomas evidentes por sí mismos,
se corría el peligro de llegar a un callejón sin salida. Una vez los griegos hubieron
hecho todas las posibles deducciones a partir de los axiomas, parecieron quedar
fuera de toda duda ulteriores descubrimientos importantes en Matemáticas o
Astronomía. El conocimiento filosófico se mostraba completo y perfecto, y, durante
cerca de 2.000 años después de la Edad de Oro de los griegos, cuando se
planteaban cuestiones referentes al Universo material, tendíase a zanjar los asuntos
a satisfacción de todo el mundo mediante la fórmula: «Aristóteles dice...», o
«Euclides afirma...»
Una vez resueltos los problemas de las Matemáticas y la Astronomía, los griegos
irrumpieron en campos más sutiles y desafiantes del conocimiento. Uno de ellos fue
el referente al alma humana.
Platón sintióse más profundamente interesado por cuestiones tales como: « ¿Qué es
la justicia?», o « ¿Qué es la virtud?», antes que por los relativos al hecho de por
qué caía la lluvia o cómo se movían los planetas. Como supremo filósofo moral de
Grecia, superó a Aristóteles, el supremo filósofo natural. Los pensadores griegos del
período romano se sintieron también atraídos, con creciente intensidad, hacia las
sutiles delicadezas de la Filosofía moral, y alejados de la aparente esterilidad de la
Filosofía natural. El último desarrollo en la Filosofía antigua fue excesivamente
místico «neoplatonismo», formulado por Plotino hacia el 250 de nuestra Era.
El cristianismo, al centrar la atención sobre la naturaleza de Dios y su relación con
el hombre, introdujo una dimensión completamente nueva en la materia objeto de
la Filosofía moral, e incrementó su superioridad sobre la Filosofía natural, al
conferirle un rango intelectual. Desde el año 200 hasta el 1200 de nuestra Era, los
europeos se rigieron casi exclusivamente por la Filosofía moral, en particular, por la
Teología. La Filosofía natural fue casi literalmente olvidada.
No obstante, los árabes consiguieron preservar a Aristóteles y Ptolomeo a través de
la Edad Media, y, gracias a ellos, la Filosofía natural griega, eventualmente filtrada,
volvió a la Europa Occidental. En el año 1200 fue redescubierto Aristóteles.
Adicionales inspiraciones llegaron del agonizante imperio bizantino, el cual fue la
última región europea que mantuvo una continua tradición cultural desde los
tiempos de esplendor de Grecia.
medida que avanzó el tiempo, cada vez fue más necesario para el científico
limitarse a una parte del saber, si deseaba profundizar intensamente en él. Se
impuso la especialización en la Ciencia, debido a su propio e inexorable crecimiento,
y, con cada generación de científicos, esta especialización fue creciendo e
intensificándose cada vez más.
Las comunicaciones de los científicos referentes a su trabajo individual nunca han
sido tan copiosas ni tan incomprensibles para los profanos. Se ha establecido un
léxico de entendimiento válido sólo para los especialistas. Esto ha supuesto un
grave obstáculo para la propia Ciencia, para los adelantos básicos en el
conocimiento científico, que, a menudo, son producto de la mutua fertilización de
los conocimientos de las diferentes especialidades. Y, lo cual es más lamentable
aún, la Ciencia ha perdido progresivamente contacto con los profanos. En tales
circunstancias, los científicos han llegado a ser contemplados casi como magos y
temidos, en lugar de admirados. Y la impresión de que la Ciencia es algo mágico e
incomprensible, alcanzable sólo por unos cuantos elegidos, sospechosamente
distintos de la especie humana corriente, ha llevado a muchos jóvenes a apartarse
del camino científico.
Más aún, durante la década 1960-1970 se hizo perceptible entre los jóvenes,
incluidos los de formación universitaria, una intensa reacción, abiertamente hostil,
contra la Ciencia. Nuestra sociedad industrializada se funda en los descubrimientos
científicos de los dos últimos siglos, y esta misma sociedad descubre que la están
perturbando ciertas repercusiones indeseables de su propio éxito.
Las técnicas médicas, cada vez más perfectas, comportan un excesivo incremento
de la población; las industrias químicas y los motores de combustión interna están
envenenando nuestra atmósfera y nuestra agua, y la creciente demanda de
materias primas y energía empobrece y destruye la corteza terrestre. Si el
conocimiento crea problemas, es evidente que no podremos resolverlos mediante la
ignorancia, lo cual no acaban de comprender quienes optan por la cómoda solución
de achacar todo a la «Ciencia» y los «científicos».
Sin embargo, la ciencia moderna no debe ser necesariamente un misterio tan
cerrado para los no científicos. Podría hacerse mucho para salvar el abismo si los
científicos aceptaran la responsabilidad de la comunicación», explicando lo realizado
en sus propios campos de trabajo, de una forma tan simple y extensa como fuera
posible y si, por su parte, los no científicos aceptaran la responsabilidad de prestar
atención. Para apreciar satisfactoriamente los logros en un determinado campo de
la Ciencia no es preciso tener un conocimiento total de la misma. A fin de cuentas,
no se ha de ser capaz de escribir una gran obra literaria para poder apreciar a
Shakespeare. Escuchar con placer una sinfonía de Beethoven no requiere, por parte
del oyente, la capacidad de componer una pieza equivalente. Por el mismo motivo,
se puede incluso sentir placer en los hallazgos de la Ciencia, aunque no se haya
tenido ninguna inclinación a sumergirse en el trabajo científico creador.
Pero, podríamos preguntarnos, ¿qué se puede hacer en este sentido? La primera
respuesta es la de que uno no puede realmente sentirse a gusto en el mundo
moderno, a menos que tenga alguna noción inteligente de lo que trata de conseguir
la Ciencia. Pero, además, la iniciación en el maravilloso mundo de la Ciencia causa
gran placer estético, inspira a la juventud, satisface el deseo de conocer y permite
apreciar las magníficas potencialidades y logros de la mente humana.
Sólo teniendo esto presente, emprendí la redacción de este libro.
Capítulo 2
El Universo
Los griegos supusieron que cada planeta estaba situado en una bóveda invisible
propia, que dichas bóvedas se hallaban dispuestas concéntricamente, y que la más
cercana pertenecía al planeta que se movía más rápidamente. El movimiento más
rápido era el de la Luna, que recorría el firmamento en 29 días y medio
aproximadamente. Más allá se encontraban, ordenadamente alineados (según
suponían los griegos), Mercurio, Venus, el Sol, Marte, Júpiter y Saturno.
La primera medición científica de una distancia cósmica fue realizada, hacia el año
240 a. de J.C., por Eratóstenes de Cirene, director de la Biblioteca de Alejandría, por
aquel entonces la institución científica más avanzada del mundo, quien apreció el
hecho que el 21 de junio, cuando el Sol, al mediodía, se hallaba exactamente en su
cenit en la ciudad de Siena (Egipto), no lo estaba también a la misma hora, en
Alejandría, unos 750 km al norte de Siena.
diámetro de la Tierra, suponiendo que ésta tenía una forma esférica, hecho que los
astrónomos griegos de entonces aceptaban sin vacilación.
Eratóstenes hizo los correspondientes cálculos (en unidades griegas) y, por lo que
podemos juzgar, sus cifras fueron, aproximadamente, de 12.000 km para el
diámetro y unos 40.000 para la circunferencia de la Tierra. Así, pues, aunque quizá
por casualidad, el cálculo fue bastante correcto. Por desgracia, no prevaleció este
valor para el tamaño de la Tierra. Aproximadamente 100 años a. de J.C., otro
astrónomo griego, Posidonio de Apamea, repitió la experiencia de Eratóstenes,
llegando a la muy distinta conclusión que la Tierra tenía una circunferencia
aproximada de 29.000 km.
Este valor más pequeño fue el que aceptó Ptolomeo y, por tanto, el que se
consideró válido durante los tiempos medievales. Colón aceptó también esta cifra y,
así, creyó que un viaje de 3.000 millas hacia Occidente lo conduciría al Asia. Si
hubiera conocido el tamaño real de la Tierra, tal vez no se habría aventurado.
Finalmente, en 1521-1523, la flota de Magallanes, o, mejor dicho, el único barco
que quedaba de ella- circunnavegó por primera vez la Tierra, lo cual permitió
restablecer el valor correcto, calculado por Eratóstenes.
Basándose en el diámetro de la Tierra, Hiparco de Nicea, aproximadamente 150
años a. de J.C., calculó la distancia Tierra-Luna. Utilizó un método sugerido un siglo
antes por Aristarco de Samos, el más osado de los astrónomos griegos, los cuales
habían supuesto ya que los eclipses lunares eran debidos a que la Tierra se
interponía entre el Sol y la Luna. Aristarco descubrió que la curva de la sombra de la
Tierra al cruzar por delante de la Luna indicaba los tamaños relativos de la Tierra y
la Luna. A partir de esto, los métodos geométricos ofrecían una forma para calcular
la distancia a que se hallaba la Luna, en función del diámetro de la Tierra. Hiparco,
repitiendo este trabajo, calculó que la distancia de la Luna a la Tierra era 30 veces
el diámetro de ésta. Tomando la cifra de Eratóstenes, o sea, 12.000 km, para el
diámetro de la Tierra, esto significa que la Luna debía de hallarse a unos 384.000
km de la Tierra. Como vemos, este cálculo es también bastante correcto.
Pero hallar la distancia que nos separa de la Luna fue todo cuanto pudo conseguir la
Astronomía griega para resolver el problema de las dimensiones del Universo, por lo
menos correctamente. Aristarco realizó también un heroico intento por determinar
Solar. Es decir, podían representarse las distancias relativas y las formas de las
órbitas de todos los cuerpos conocidos en el Sistema. Esto significaba que si podía
determinarse la distancia, en kilómetros, entre dos cuerpos cualesquiera del
Sistema, también podrían serlo las otras distancias. Por tanto, la distancia al Sol no
precisaba ser calculada de forma directa, como habían intentado hacerlo Aristarco y
Wendelin. Se podía conseguir mediante la determinación de la distancia de un
cuerpo más próximo, como Marte o Venus, fuera del sistema Tierra-Luna.
Un método que permite calcular las distancias cósmicas implica el uso del paralaje.
Es fácil ilustrar lo que significa este término. Mantengamos un dedo a unos 8 cm de
nuestros ojos, y observémoslo primero con el ojo izquierdo y luego con el derecho.
Con el izquierdo lo veremos en una posición, y con el derecho, en otra. El dedo se
habrá desplazado de su posición respecto al fondo y al ojo con que se mire, porque
habremos modificado nuestro punto de vista. Y si se repite este procedimiento
colocando el dedo algo más lejos, digamos con el brazo extendido. el dedo volverá a
desplazarse sobre el fondo, aunque ahora no tanto. Así, la magnitud del
desplazamiento puede aplicarse en cada caso para determinar la distancia dedo-ojo.
Por supuesto que para un objeto colocado a 15 m, el desplazamiento en la posición,
según se observe con un ojo u otro, empezará ya a ser demasiado pequeño como
para poderlo medir; entonces necesitamos una «línea de referencia» más amplia
que la distancia existente entre ambos ojos. Pero todo cuanto hemos de hacer para
ampliar el cambio en el punto de vista es mirar el objeto desde un lugar
determinado, luego mover éste unos 6 m hacia la derecha y volver a mirar el
objeto. Entonces el paralaje será lo suficientemente grande como para poderse
medir fácilmente y determinar la distancia. Los agrimensores recurren precisamente
a este método para determinar la distancia a través de una corriente de agua o de
un barranco.
El mismo método puede utilizarse para medir la distancia Tierra-Luna, y aquí las
estrellas desempeñan el papel de fondo. Vista desde un observatorio en California,
por ejemplo, la Luna se hallará en una determinada posición respecto a las
estrellas. Pero si la vemos en el mismo momento desde un observatorio en
Inglaterra, ocupará una posición ligeramente distinta. Este cambio en la posición,
así como la distancia conocida entre los dos observatorios, una línea recta a través
de la Tierra- permite calcular los kilómetros que nos separan de la Luna. Por
supuesto que podemos aumentar la línea base haciendo observaciones en puntos
totalmente opuestos de la Tierra; en este caso, la longitud de la línea base es de
unos 12.000 km. El ángulo resultante de paralaje, dividido por 2, se denomina
«paralaje egocéntrico».
El desplazamiento en la posición de un cuerpo celeste se mide en grados o
subunidades de grado, minutos o segundos. Un grado es la 1/360 parte del circulo
celeste; cada grado se divide en 60 minutos de arco, y cada minuto, en 60
segundos de arco. Por tanto, un minuto de arco es 1/(360 x 60) o 1/21.600 de la
circunferencia celeste, mientras que un segundo de arco es 1/(21.600 x 60) o
1/1.296.000 de la misma circunferencia.
Con ayuda de la Trigonometría, Claudio Ptolomeo fue capaz de medir la distancia
que separa a la Tierra de la Luna a partir de su paralaje, y su resultado concuerda
con el valor obtenido previamente por Hiparco. Dedujo que el paralaje geocéntrico
de la Luna es de 57 minutos de arco (aproximadamente, 1 grado); el
desplazamiento es casi igual al espesor de una moneda de 10 céntimos vista a la
distancia de 1,5 m. Éste es fácil de medir, incluso a simple vista. Pero cuando medía
el paralaje del Sol o de un planeta, los ángulos implicados eran demasiado
pequeños. En tales circunstancias sólo podía llegarse a la conclusión que los otros
cuerpos celestes se hallaban situados mucho más lejos que la Luna. Pero nadie
podía decir cuánto.
Por sí sola, la Trigonometría no podía dar la respuesta, pese al gran impulso que le
habían dado los árabes durante la Edad Media y los matemáticos europeos durante
el siglo XVI. Pero la medición de ángulos de paralaje pequeños fue posible gracias a
la invención del telescopio, que Galileo fue el primero en construir y que apuntó
hacia el cielo en 1609, después de haber tenido noticias de la existencia de un tubo
amplificador que había sido construido unos meses antes por un holandés fabricante
de lentes.
En 1673, el método del paralaje dejó de aplicarse exclusivamente a la Luna, cuando
el astrónomo francés, de origen italiano, Jean-Dominique Cassini, obtuvo el paralaje
de Marte. En el mismo momento en que determinaba la posición de este planeta
respecto a las estrellas, el astrónomo francés Jean Richer, en la Guinea francesa,
estrellas desde los extremos opuestos de dicha órbita a intervalos de medio año, no
pudieron encontrar paralaje alguno. Como es natural, esto significaba que aún las
estrellas más próximas se hallaban a enormes distancias. Cuando se fue
descubriendo que los telescopios, pese a su progresiva perfección, no lograban
mostrar ningún paralaje estelar, la distancia estimada de las estrellas tuvo que
aumentarse cada vez más. El hecho que fueran bien visibles, aún a las inmensas
distancias a las que debían de hallarse, indicaba, obviamente, que debían de ser
enormes esferas de llamas, similares a nuestro Sol.
Pero los telescopios y otros instrumentos siguieron perfeccionándose. En 1830, el
astrónomo alemán Friedrich Wilhelm Bessel empleó un aparato recientemente
inventado, al que se dio el nombre de «heliómetro» («medidor del Sol») por haber
sido ideado para medir con gran precisión el diámetro del Sol. Por supuesto que
podía utilizarse también para medir otras distancias en el firmamento, y Bessel lo
empleó para calcular la distancia entre dos estrellas. Anotando cada mes los
cambios producidos en esta distancia, logró finalmente medir el paralaje de una
estrella. Eligió una pequeña de la constelación del Cisne, llamada 61 del Cisne, y la
escogió porque mostraba, con los años, un desplazamiento inusitadamente grande
en su posición, comparada con el fondo de las otras estrellas, lo cual podía significar
sólo que se hallaba más cerca que las otras. (Este movimiento constante, aunque
muy lento- a través del firmamento, llamado «movimiento propio», no debe
confundirse con el desplazamiento, hacIa delante y atrás, respecto al fondo, que
indica el paralaje.) Bessel estableció las sucesivas posiciones de la 61 del Cisne
contra las estrellas vecinas «fijas» (seguramente, mucho más distantes) y prosiguió
sus observaciones durante más de un año. En 1838 informó que la 61 del Cisne
tenía un paralaje de 0,31 segundos de arco, ¡el espesor de una moneda de 2 reales
vista a una distancia de 16 km!-. Este paralaje, observado con el diámetro de la
órbita de la Tierra como línea de base, significaba que la 61 del Cisne se hallaba
alejada de nuestro planeta 103 billones de km (103.000.000.000.000). Es decir,
9.000 veces la anchura de nuestro Sistema Solar. Así, comparado con la distancia
que nos separa incluso de las estrellas más próximas, nuestro Sistema Solar se
empequeñece hasta reducirse a un punto insignificante en el espacio.
Debido a que las distancias en billones de kilómetros son inadecuadas para trabajar
con ellas, los astrónomos redujeron las cifras, expresando las distancias en términos
de la velocidad de la luz (300.000 km/seg). En un año, la luz recorre más de 9
billones de kilómetros. Por tanto esta distancia se denomina «año luz». Expresada
en esta unidad, la 61 del Cisne se hallaría, aproximadamente, a 11 años luz de
distancia.
Dos meses después del éxito de Bessel, ¡margen tristemente corto para perder el
honor de haber sido el primero!, el astrónomo británico Thomas Henderson informó
sobre la distancia que nos separa de la estrella Alfa de Centauro. Esta estrella,
situada en los cielos del Sur y no visible desde los Estados Unidos ni desde Europa,
es la tercera del firmamento por su brillo. Se puso de manifiesto que la Alfa de
Centauro tenia un paralaje de 0,75 segundos de arco, o sea, más de dos veces el de
la 61 del Cisne. Por tanto, Alfa de Centauro se hallaba mucho más cerca de
nosotros. En realidad, dista sólo 4,3 años luz del Sistema Solar y es nuestro vecino
estelar más próximo. Actualmente no es una estrella simple, sino un conjunto de
tres.
En 1840, el astrónomo ruso, de origen alemán, Friedrich Wilhelm von Struve
comunicó haber obtenido el paralaje de Vega, la cuarta estrella más brillante del
firmamento. Su determinación fue, en parte, errónea, lo cual es totalmente
comprensible dado que el paralaje de Vega es muy pequeño y se hallaba mucho
más lejos (27 años luz).
Hacia 1900 se había determinado ya la distancia de unas 70 estrellas por el método
del paralaje (y, hacia 1950, de unas 6.000). Unos 100 años luz es,
aproximadamente, el límite de la distancia que puede medirse con exactitud, incluso
con los mejores instrumentos. Y, sin embargo, más allá existen aún incontables
estrellas, a distancias increíblemente mayores.
A simple vista podemos distinguir unas 6.000 estrellas. La invención del telescopio
puso claramente de manifiesto que tal cantidad era sólo una visión fragmentaria del
Universo. Cuando Galileo, en 1609, enfocó su telescopio hacia los cielos, no sólo
descubrió nuevas estrellas antes invisibles, sino que, al observar la Vía Láctea,
recibió una profunda impresión. A simple vista, la Vía Láctea es, sencillamente, una
banda nebulosa de luz. El telescopio de Galileo reveló que esta banda nebulosa
estaba formada por miríadas de estrellas, tan numerosas como los granos de polvo
en el talco.
El primer hombre que intentó sacar alguna conclusión lógica de este descubrimiento
fue el astrónomo inglés, de origen alemán William Herschel. En 1785, Herschel
sugirió que las estrellas se hallaban dispuestas de forma lenticular en el
firmamento. Si contemplamos la Vía Láctea, vemos un enorme número de estrellas;
pero cuando miramos el cielo en ángulos rectos a esta rueda, divisamos
relativamente menor número de ellas. Herschel dedujo de ello que los cuerpos
celestes formaban un sistema achatado, con el eje longitudinal en dirección a la Vía
Láctea. Hoy sabemos que, dentro de ciertos limites, esta idea es correcta, y
llamamos a nuestro sistema estelar Galaxia, otro término utilizado para designar la
Vía Láctea (galaxia, en griego, significa «leche»).
Herschel intentó valorar el tamaño de la Galaxia. Empezó por suponer que todas las
estrellas tenían, aproximadamente, el mismo brillo intrínseco, por lo cual podría
deducirse la distancia relativa de cada una a partir de su brillo. (De acuerdo con una
ley bien conocida, la intensidad del brillo disminuye con el cuadrado de la distancia,
de tal modo que si la estrella A tiene la novena parte del brillo de la estrella B, debe
hallarse tres veces más lejos que la B.)
El recuento de muestras de estrellas en diferentes puntos de la Vía Láctea permitió
a Herschel estimar que debían de existir unos 100 millones de estrellas en toda la
Galaxia. Y por los valores de su brillo decidió que el diámetro de la Galaxia era de
unas 850 veces la distancia a la brillante estrella Sirio, mientras que su espesor
correspondía a 155 veces aquella distancia.
Hoy sabemos que la distancia que nos separa de Sirio es de 8,8 años luz, de tal
modo que, según los cálculos de Herschel, la Galaxia tendría unos 7.500 años luz de
diámetro y 1.300 años luz de espesor. Esto resultó ser demasiado conservador. Sin
embargo, al igual que la medida súper conservadora de Aristarco de la distancia que
nos separa del Sol, supuso un paso dado en la dirección correcta. (Además,
Herschel utilizó sus estadísticas para demostrar que el Sol se movía a una velocidad
de 19 km/seg hacia la constelación de Hércules. Después de todo, el Sol se movía,
pero no como habían supuesto los griegos.)
A partir de 1906, el astrónomo holandés Jacobo Cornelio Kapteyn efectuó otro
estudio de la Vía Láctea. Tenía a su disposición fotografías y conocía la verdadera
distancia de las estrellas más próximas, de modo que podía hacer un cálculo más
exacto que Herschel. Kapteyn decidió que las dimensiones de la Galaxia eran de
2.000 años luz por 6.000. Así, el modelo de Kapteyn de la Galaxia era 4 veces más
ancho y 5 veces más denso que el de Herschel. Sin embargo, aún resultaba
demasiado conservador.
En resumen, hacia 1900 la situación respecto a las distancias estelares era la misma
que, respecto a las planetarias, en 1700. En este último año se sabía ya la distancia
que nos separa de la Luna, pero sólo podían sospecharse las distancias hasta los
planetas más lejanos. En 1900 se conocía la distancia de las estrellas más próximas,
pero sólo podía conjeturarse la que existía hasta las estrellas más remotas.
El siguiente paso importante hacia delante fue el descubrimiento de un nuevo
patrón de medida, ciertas estrellas variables cuyo brillo oscilaba. Esta parte de la
Historia empieza con una estrella, muy brillante, llamada Delta de Cefeo, en la
constelación de Cefeo. Un detenido estudio reveló que el brillo de dicha estrella
variaba en forma cíclica: se iniciaba con una fase de menor brillo, el cual se
duplicaba rápidamente, para atenuarse luego de nuevo lentamente, hasta llegar a
su punto menor. Esto ocurría una y otra vez con gran regularidad. Los astrónomos
descubrieron luego otra serie de estrellas en las que se observaba el mismo brillo
cíclico, por lo cual, en honor de la Delta de Cefeo, fueron bautizadas con el nombre
de «cefeidas variables» o, simplemente, «cefeidas».
Los períodos de las cefeidas, o sea, los intervalos de tiempo transcurridos entre los
momentos de menor brillo- oscilan entre menos de un día y unos dos meses como
máximo. Las más cercanas a nuestro Sol parecen tener un período de una semana
aproximadamente. El período de la Delta de Cefeo es de 5,3 días, mientras que el
de la cefeida más próxima (nada menos que la Estrella Polar) es de 4 días. Sin
embargo, la Estrella Polar varía sólo muy ligeramente en su luminosidad; no lo hace
con la suficiente intensidad como para que pueda apreciarse a simple vista.
La importancia de las cefeidas para los astrónomos radica en su brillo, punto éste
que requiere cierta digresión.
Desde Hiparco, el mayor o menor brillo de las estrellas se llama «magnitud».
Cuanto más brillante es un astro, menor es su magnitud. Se dice que las 20
estrellas más brillantes son de «primera magnitud». Otras menos brillantes son de
«segunda magnitud». Siguen luego las de tercera, cuarta y quinta magnitud, hasta
llegar a las de menor brillo, que apenas son visibles, y que se llaman de «sexta
magnitud».
En tiempos modernos, en 1856, para ser exactos, la noción de Hiparco fue
cuantificada por el astrónomo inglés Norman Robert Pogson, el cual demostró que la
estrella media de primera magnitud era, aproximadamente, unas 100 veces más
brillante que la estrella media de sexta magnitud. Si se considera este intervalo de
5 magnitudes como un coeficiente de la centésima parte de brillo, el coeficiente
para una magnitud sería de 2,512. Una estrella de magnitud 4 es de 2,512 veces
más brillante que una de magnitud 5, y 2,512 x 2,512, o sea, aproximadamente 6,3
veces más brillante que una estrella de sexta magnitud.
Entre las estrellas, la 61 del Cisne tiene escaso brillo, y su magnitud es de 5,0 (los
métodos astronómicos modernos permiten fijar las magnitudes hasta la décima e
incluso hasta la centésima en algunos casos). Capella es una estrella brillante, de
magnitud 0,9; Alta de Centauro, más brillante, tiene una magnitud de 0,1. Los
brillos todavía mayores se llaman de magnitud 0, e incluso se recurre a los números
negativos para representar brillos extremos. Por ejemplo, Sirio, la estrella más
brillante del cielo, tiene una magnitud de, 1,6. La del planeta Venus es de, 6; la de
la Luna llena, de, 12; la del Sol, de, 26.
Éstas son las «magnitudes aparentes» de las estrellas, tal como las vemos, no sus
luminosidades absolutas, independientes de la distancia-. Pero si conocemos la
distancia de una estrella y su magnitud aparente, podemos calcular su verdadera
luminosidad. Los astrónomos basaron la escala de las «magnitudes absolutas» en el
brillo a una distancia tipo, que ha sido establecido en 10 «pársecs», o 32,6 años luz.
(El «pársec» es la distancia a la que una estrella mostraría un paralaje de menos de
1 segundo de arco; corresponde a algo más de 28 billones de kilómetros, o 3,26
años luz.)
Aunque el brillo de Capella es menor que el de la Alfa de Centauro y Sirio, en
realidad es un emisor mucho más poderoso de luz que cualquiera de ellas.
Simplemente ocurre que está situada mucho más lejos. Si todas ellas estuvieran a
la distancia tipo, Capella sería la más brillante de las tres. En efecto, ésta tiene una
magnitud absoluta de –0,1; Sirio, de 1,3, y Alfa de Centauro, de 4,8. Nuestro Sol es
tan brillante como la Alfa de Centauro, con una magnitud absoluta de 4,86. Es una
estrella corriente de tamaño mediano.
Pero volvamos a las cefeidas. En 1912, Miss Henrietta Leavitt, astrónomo del
Observatorio de Harvard, estudió la más pequeña de las Nubes de Magallanes, dos
inmensos sistemas estelares del hemisferio Sur, llamadas así en honor de Fernando
de Magallanes, que fue el primero en observarlas durante su viaje alrededor del
mundo-. Entre las estrellas de la Nube de Magallanes Menor, Miss Leavitt detectó un
total de 25 cefeidas. Registró el período de variación de cada una y, con gran
sorpresa, comprobó que cuanto mayor era el período, más brillante era la estrella.
Esto no se observaba en las cefeidas variables más próximas a nosotros. ¿Por qué
ocurría en la Nube de Magallanes Menor? En nuestras cercanías conocemos sólo las
magnitudes aparentes de las cefeidas, pero no sabemos las distancias a que se
hallan ni su brillo absoluto, y, por tanto, no disponemos de una escala para
relacionar el período de una estrella con su brillo. Pero en la Nube de Magallanes
medio, cuanto más lejos de nosotros está una estrella, tanto menor es su
movimiento propio. (Recuérdese que Bessel indicó que la 61 del Cisne se hallaba
relativamente cercana, debido a su considerable movimiento propio.) Se recurrió a
una serie de métodos para determinar los movimientos propios de grupos de
estrellas y se aplicaron métodos estadísticos. El procedimiento era complicado, pero
los resultados proporcionaron las distancias aproximadas de diversos grupos de
estrellas que contenían cefeidas. A partir de las distancias y magnitudes aparentes
de estas cefeidas, se determinaron sus magnitudes absolutas, y éstas pudieron
compararse con los períodos.
En 1913, el astrónomo danés Ejnar Hertzsprung comprobó que una cefeida de
magnitud absoluta, 2.3 tenía un periodo de 6.6 días. A partir de este dato, y
utilizando la curva de luminosidad-período de Miss Leavitt, pudo determinarse la
magnitud absoluta de cualquier cefeida. (Incidentalmente se puso de manifiesto que
las cefeidas solían ser estrellas grandes, brillantes, mucho más luminosas que
nuestro Sol, Las variaciones en su brillo probablemente eran el resultado de su
titileo. En efecto, las estrellas parecían expansionarse y contraerse de una manera
incesante, como si estuvieran inspirando y espirando poderosamente. )
Pocos años más tarde, el astrónomo americano Harlow Shapley repitió el trabajo y
llegó a la conclusión que una cefeida de magnitud absoluta, 2.3 tenía un período de
5.96 días. Los valores concordaban lo suficiente como para permitir que los
astrónomos siguieran adelante. Ya tenían su patrón de medida.
En 1918, Shapley empezó a observar las cefeidas de nuestra Galaxia, al objeto de
determinar con su nuevo método el tamaño de ésta. Concentró su atención en las
cefeidas descubiertas en los grupos de estrellas llamados «cúmulos globulares»,
agregados esféricos, muy densos, de decenas de miles a decenas de millones de
estrellas, con diámetros del orden de los 100 años luz.
Estos agregados, cuya naturaleza descubrió por vez primera Herschel un siglo
antes- presentaban un medio ambiente astronómico distinto por completo del que
existía en nuestra vecindad en el espacio. En el centro de los cúmulos más grandes,
las estrellas se hallaban apretadamente dispuestas, con una densidad de 500/10
pársecs, a diferencia de la densidad observada en nuestra vecindad, que es de 1/10
pársec. En tales condiciones, la luz de las estrellas representa una intensidad
luminosa mucho mayor que la luz de la Luna sobre la Tierra, y, así, un planeta
situado en el centro de un cúmulo de este tipo no conocería la noche.
Hay aproximadamente un centenar de cúmulos globulares conocidos en nuestra
galaxia, y tal vez haya otros tantos que aún no han sido detectados. Shapley calculó
la distancia a que se hallaban de nosotros los diversos cúmulos globulares, y sus
resultados fueron de 20.000 a 200.000 años luz. (El cúmulo más cercano, al igual
que la estrella más próxima, se halla en la constelación de Centauro. Es observable
a simple vista como un objeto similar a una estrella, el Omega de Centauro. El más
distante, el NGC 2419, se halla tan lejos de nosotros que apenas puede
considerarse como un miembro de la Galaxia.)
Shapley observó que los cúmulos estaban distribuidos en el interior de una gran
esfera, que el plano de la Vía Láctea cortaba por la mitad; rodeaban una porción del
cuerpo principal de la Galaxia, formando un halo. Shapley llegó a la suposición
natural que rodeaban el centro de la Galaxia. Sus cálculos situaron el punto central
de este halo de agregados globulares en el seno de la Vía Láctea, hacia la
constelación de Sagitario, y a unos 50.000 años luz de nosotros. Esto significaba
que nuestro Sistema Solar, en vez de hallarse en el centro de la Galaxia, como
habían supuesto Herschel y Kapteyn, estaba situado a considerable distancia de
éste, en uno de sus márgenes.
El modelo de Shapley imaginaba la Galaxia como una lente gigantesca de unos
300.000 años luz de diámetro. Esta vez se había valorado en exceso su tamaño,
como se demostró poco después con otro método de medida.
Partiendo del hecho que la Galaxia tiene una forma lenticular, los astrónomos,
desde William Herschel en adelante- supusieron que giraba en el espacio. En 1926,
el astrónomo holandés Jan Oort intentó medir esta rotación. Ya que la Galaxia no es
un objeto sólido, sino que está compuesto por numerosas estrellas individuales, no
es de esperar que gire como lo haría una rueda. Por el contrario, las estrellas
cercanas al centro gravitatorio del disco girarán en torno a él con mayor rapidez que
las que estén más alejadas (al igual que los planetas más próximos al Sol describen
unas órbitas más rápidas). Esto significaría que las estrellas situadas hacia el centro
de la Galaxia (es decir, en dirección a Sagitario) girarían por delante de nuestro Sol,
mientras que las más alejadas del centro (En dirección a la constelación de Géminis)
hacia los bordes? Mirando hacia Sagitario, es decir, observando el cuerpo principal
de la Galaxia, contemplamos unos 100 mil millones de estrellas, en tanto que en el
margen se encuentran sólo unos cuantos millones de ellas, ampliamente
distribuidas. Sin embargo, en cualquiera de ambas direcciones, la Vía Láctea parece
tener casi el mismo brillo. La respuesta a esta contradicción parece estar en el
hecho que inmensas nubes de polvo nos ocultan gran parte del centro de la Galaxia.
Aproximadamente la mitad de la masa de los márgenes puede estar compuesta por
tales nubes de polvo y gas. Quizá no veamos más de la 1/10.000 parte, como
máximo, de la luz del centro de la Galaxia.
Esto explica por qué Herschel y otros, entre los primeros astrónomos que la
estudiaron, cayeron en el error de considerar que nuestro Sistema Solar se hallaba
en el centro de la Galaxia, y parece explicar también por qué Shapley sobrevaloró
inicialmente su tamaño. Algunos de los agregados que estudió estaban oscurecidos
por el polvo interpuesto entre ellos y el observador, por lo cual las cefeidas
contenidas en los agregados aparecían amortiguadas y, en consecuencia, daban la
sensación de hallarse más lejos de lo que estaban en realidad.
Ya antes que se hubieran determinado las dimensiones y la masa de nuestra
Galaxia, las cefeidas variables de las Nubes de Magallanes (en las cuales Miss
Leavitt realizó el crucial descubrimiento de la curva de luminosidad-período) fueron
utilizadas para determinar la distancia que nos separaba de tales Nubes. Resultaron
hallarse a más de 100.000 años luz de nosotros. Las cifras modernas más exactas
sitúan a la Nube de Magallanes Mayor a unos 150.000 años luz de distancia, y la
Menor, a unos 170.000 años luz. La Nube Mayor tiene un diámetro no superior a la
mitad del tamaño de nuestra Galaxia, mientras que el de la Menor es la quinta parte
de dicha Galaxia. Además, parecen tener una menor densidad de estrellas. La
Mayor tiene cinco mil millones de estrellas (sólo la 1/20 parte o menos de las
contenidas en nuestra Galaxia), mientras que la Menor tiene sólo 1,5 miles de
millones.
Éste era el estado de nuestros conocimientos hacia los comienzos de 1920. El
Universo conocido tenía un diámetro inferior a 200.000 años luz y constaba de
nuestra Galaxia y sus dos vecinos. Luego surgió la cuestión de si existía algo más
allá.
El hecho más incongruente era que las distancias de las galaxias parecían implicar
que el Universo tenía una antigüedad de sólo unos 2 mil millones de años (por
razones que veremos más adelante, en este mismo capítulo). Esto era
sorprendente, ya que los geólogos consideraban que la Tierra era aún más vieja,
basándose en lo que se consideraba como una prueba incontrovertible.
La posibilidad de una respuesta se perfiló durante la Segunda Guerra Mundial,
cuando el astrónomo americano, de origen alemán, Walter Baade, descubrió que
era erróneo el patrón con el que se medían las distancias de las Galaxias.
En 1942 fue provechoso para Baade el hecho que se apagaron las luces de Los
Ángeles durante la guerra, lo cual hizo más nítido el cielo nocturno en el Monte
Wilson y permitió un detenido estudio de la galaxia de Andrómeda con el telescopio
Hooker de 100 pulgadas, (llamado así en honor de John B. Hooker, quien financió
su construcción.) Al mejorar la visibilidad pudo distinguir algunas de las estrellas en
las regiones más internas de la galaxia. Inmediatamente apreció algunas diferencias
llamativas entre estas estrellas y las que se hallaban en las capas externas de la
galaxia. Las estrellas más luminosas del interior eran rojizas, mientras que las de
las capas externas eran azuladas. Además, los gigantes rojos del interior no eran
tan brillantes como los gigantes azules de las capas externas; estos últimos tenían
hasta 100.000 veces la luminosidad de nuestro Sol, mientras que los del interior
poseían sólo unas 1.000 veces aquella luminosidad. Finalmente, las capas externas,
donde se hallaban las estrellas azules brillantes, estaban cargadas de polvo,
mientras que el interior, con sus estrellas rojas, algo menos brillantes- estaba libre
de polvo.
Para Baade parecían existir dos clases de estrellas, de diferentes estructura e
historia. Denominó a las estrellas azuladas de las capas externas Población I, y a las
rojizas del interior, Población II. Se puso de manifiesto que las estrellas de la
Población I eran relativamente jóvenes, tenían un elevado contenido en metal y
seguían órbitas casi circulares en torno al centro galáctico, en el plano medio de la
galaxia. Por el contrario, las estrellas de la Población II eran relativamente antiguas,
poseían un bajo contenido metálico, y sus órbitas, sensiblemente elípticas,
mostraban una notable inclinación al plano medio de la galaxia. Desde el
descubrimiento de Baade, ambas Poblaciones han sido divididas en subgrupos más
precisos.
Cuando, después de la guerra, se instaló el nuevo telescopio Hale, de 200 pulgadas
(así llamado en honor del astrónomo americano George Ellery Hale, quien supervisó
su construcción), en el Monte Palomar, Baade prosiguió sus investigaciones. Halló
ciertas irregularidades en la distribución de las dos Poblaciones, irregularidades que
dependían de la naturaleza de las galaxias implicadas. Las galaxias de la clase
«elíptica», sistemas en forma de elipse y estructura interna más bien uniforme-
estaban aparentemente constituidas, sobre todo, por estrellas de la Población II,
como los agregados globulares en cualquier galaxia. Por otra parte, en las «galaxias
espirales», los brazos de la espiral estaban formados por estrellas de la Población I,
con una Población II en el fondo.
Se estima que sólo un 2 % de las estrellas en el Universo son del tipo de la
Población I. Nuestro Sol y las estrellas familiares en nuestra vecindad pertenecen a
esta clase. Y a partir de este hecho, podemos deducir que la nuestra es una galaxia
espiral y que nos encontramos en uno de sus brazos. (Esto explica por qué existen
tantas nubes de polvo, luminosas y oscuras en nuestras proximidades, ya que los
brazos espirales de una galaxia se hallan cargados de polvo.) Las fotografías
muestran que la galaxia de Andrómeda, es también del tipo espiral.
Pero volvamos de nuevo al problema del patrón. Baade empezó a comparar las
estrellas cefeidas halladas en las acumulaciones globulares (Población II), con las
observadas en el brazo de la espiral en que nos hallamos (Población I). Se puso de
manifiesto que las cefeidas de las dos Poblaciones eran, en realidad, de dos tipos
distintos, por lo que se refería a la relación período-luminosidad.
Las cefeidas de la Población II mostraban la curva período-luminosidad establecida
por Leavitt y Shapley. Con este patrón, Shapley había medido exactamente las
distancias a las acumulaciones globulares y el tamaño de nuestra Galaxia. Pero las
cefeidas de la Población I seguían un patrón de medida totalmente distinto. Una
cefeida de la Población I era de 4 a 5 veces más luminosa que otra de la Población
II del mismo período. Esto significaba que el empleo de la escala de Leavitt
determinaría un cálculo erróneo en la magnitud absoluta de una cefeida de la
Población I a partir de su período. Y si la magnitud absoluta era errónea, el cálculo
de la distancia lo sería también necesariamente; la estrella se hallaría, en realidad,
mucho más lejos de lo que indicaba su cálculo.
Hubble calculó la distancia de la galaxia de Andrómeda, a partir de las cefeidas (de
la Población I), en sus capas externas, las únicas que pudieron ser distinguidas en
aquel entonces. Pero luego, con el patrón revisado, resultó que la Galaxia se
hallaba, aproximadamente, a unos 2,5 millones de años luz, en vez de menos de 1
millón, que era el cálculo anterior. De la misma forma se comprobó que otras
galaxias se hallaban también, de forma proporcional, más alejadas de nosotros. (Sin
embargo, la galaxia de Andrómeda sigue siendo un vecino cercano nuestro. Se
estima que la distancia media entre las galaxias es de unos 20 millones de años
luz.)
En resumen, el tamaño del Universo conocido se había duplicado ampliamente. Esto
resolvió enseguida los problemas que se habían planteado en los años 30. Nuestra
Galaxia ya no era la más grande de todas; por ejemplo, la de Andrómeda era
mucho mayor. También se ponía de manifiesto que las acumulaciones globulares de
la galaxia de Andrómeda eran tan luminosas como las nuestras; se veían menos
brillantes sólo porque se había calculado de forma errónea su distancia. Finalmente,
y por motivos que veremos más adelante, la nueva escala de distancias permitió
considerar el Universo como mucho más antiguo, al menos, de 5 mil millones de
años, lo cual ofreció la posibilidad de llegar a un acuerdo con las valoraciones de los
geólogos sobre la edad de la Tierra.
Pero la duplicación de la distancia a que se hallan las galaxias no puso punto final al
problema del tamaño. Veamos ahora la posibilidad que haya sistemas aún más
grandes, acumulaciones de galaxias y súper galaxias.
Actualmente, los grandes telescopios han revelado que, en efecto, hay
acumulaciones de galaxias. Por ejemplo, en la constelación de la Cabellera de
Berenice existe una gran acumulación elipsoidal de galaxias, cuyo diámetro es de
unos 8 millones de años luz. La «acumulación de la Cabellera» encierra unas 11.000
galaxias, separadas por una distancia media de sólo 300.000 años luz (frente a la
media de unos 3 millones de años luz que existe entre las galaxias vecinas
nuestras).
Nuestra Galaxia parece formar parte de una «acumulación local» que incluye las
Nubes de Magallanes, la galaxia de Andrómeda y tres pequeñas «galaxias satélites»
próximas a la misma, más algunas otras pequeñas galaxias, con un total de
aproximadamente 19 miembros. Dos de ellas, llamadas «Maffei I» y «Maffei II» (en
honor de Paolo Maffei, el astrónomo italiano que informó sobre las mismas por
primera vez) no se descubrieron hasta 1971. La tardanza de tal descubrimiento se
debió al hecho que sólo pueden detectarse a través de las nubes de polvo
interpuestas entre las referidas galaxias y nosotros.
De las acumulaciones locales, sólo nuestra Galaxia, la de Andrómeda y las dos de
Maffei son gigantes; las otras son enanas. Una de ellas, la IC 1613, quizá contenga
sólo 60 millones de estrellas; por tanto, sería apenas algo más que un agregado
globular. Entre las galaxias, lo mismo que entre las estrellas, las enanas rebasan
ampliamente en número a las gigantes.
Si las galaxias forman acumulaciones y acumulaciones de acumulaciones, ¿significa
esto que el Universo se expande sin límites y que el espacio es infinito? ¿O existe
quizás un final, tanto para el Universo como para el espacio? Pues bien, los
astrónomos pueden descubrir objetos situados a unos 9 mil millones de años luz, y
hasta ahora no hay indicios que exista un final del Universo. Teóricamente pueden
esgrimirse argumentos tanto para admitir que el espacio tiene un final, como para
decir que no lo tiene; tanto para afirmar que existe un comienzo en el tiempo, como
causar los fenómenos observados. Por tanto, la Tierra no debía de tener miles, sino
muchos millones de años de existencia.
Los puntos de vista de Hutton fueron desechados rápidamente. Pero el fermento
actuó. En 1830, el geólogo británico Charles Lyell reafirmó los puntos de vista de
Hutton y, en una obra en 3 volúmenes titulada Principios de Geología, presentó las
pruebas con tal claridad y fuerza, que conquistó al mundo de los eruditos. La
moderna ciencia de la Geología se inicia, pues, en este trabajo.
Se intentó calcular la edad de la Tierra basándose en el principio uniformista. Por
ejemplo, si se conoce la cantidad de sedimentos depositados cada año por la acción
de las aguas (hoy se estima que es de unos 30 cm cada 880 años), puede
calcularse la edad de un estrato de roca sedimentaria a partir de su espesor. Pronto
resultó evidente que este planteamiento no permitiría determinar la edad de la
Tierra con la exactitud necesaria, ya que los datos que pudieran obtenerse de las
acumulaciones de los estratos de rocas quedaban falseados a causa de los procesos
de la erosión, disgregación, cataclismos y otras fuerzas de la Naturaleza. Pese a
ello, esta evidencia fragmentaria revelaba que la Tierra debía de tener, por lo
menos, unos 500 millones de años.
Otro procedimiento para medir la edad del Planeta consistió en valorar la velocidad
de acumulación de la sal en los océanos, método que sugirió el astrónomo inglés
Edmund Halley en 1715. Los ríos vierten constantemente sal en el mar. Y como
quiera que la evaporación libera sólo agua, cada vez es mayor la concentración de
sal. Suponiendo que el océano fuera, en sus comienzos, de agua dulce, el tiempo
necesario para que los ríos vertieran en él su contenido en sal (de más del 3 %)
sería de mil millones de años aproximadamente.
Este enorme período de tiempo concordaba con el supuesto por los biólogos,
quienes, durante la última mitad del siglo XIX, intentaron seguir el curso del lento
desarrollo de los organismos vivos, desde los seres unicelulares, hasta los animales
superiores más complejos. Se necesitaron largos períodos de tiempo para que se
produjera el desarrollo, y mil millones de años parecía ser un lapso suficiente.
Sin embargo, hacia mediados del siglo XIX, consideraciones de índole astronómica
complicaron de pronto las cosas. Por ejemplo, el principio de la «conservación de la
energía» planteaba un interesante problema en lo referente al Sol, astro que había
que lo habían venido haciendo durante mucho tiempo. Este hallazgo invalidaba los
cálculos de Kelvin, como señaló, en 1904, el físico británico, de origen neocelandés,
Ernest Rutherford, en una conferencia, a la que asistió el propio Kelvin, ya anciano,
y que se mostró en desacuerdo con dicha teoría.
Carece de objeto intentar determinar cuánto tiempo ha necesitado la Tierra para
enfriarse, si no se tiene en cuenta, al mismo tiempo, el hecho que las sustancias
radiactivas le aportan calor constantemente. Al intervenir este nuevo factor, se
había de considerar que la Tierra podría haber precisado miles de millones de años,
en lugar de millones, para enfriarse, a partir de una masa fundida, hasta la
temperatura actual, Incluso sería posible que fuera aumentando con el tiempo la
temperatura de la Tierra.
La radiactividad aportaba la prueba más concluyente de la edad de la Tierra, ya que
permitía a los geólogos y geoquímicos calcular directamente la edad de las rocas a
partir de la cantidad de uranio y plomo que contenían. Gracias al «cronómetro» de
la radiactividad, hoy sabemos que algunas de las rocas de la Tierra tienen,
aproximadamente, 4.000 millones de años, y hay muchas razones para creer que la
antigüedad de la Tierra es aún algo mayor. En la actualidad se acepta como muy
probable una edad, para el Planeta, de 4,7 mil millones de años. Algunas de las
rocas traídas de la Luna por los astronautas americanos han resultado tener la
misma edad.
Y, ¿qué ocurre con el Sol? La radiactividad, junto con los descubrimientos relativos
al núcleo atómico, introdujeron una nueva fuente de energía, mucho mayor que
cualquier otra conocida antes. En 1930, el físico británico Sir Arthur Eddington
introdujo una nueva forma de pensar al sugerir que la temperatura y la presión en
el centro del Sol debían de ser extraordinariamente elevadas: la temperatura quizá
fuera de unos 15 millones de grados. En tales condiciones, los núcleos de los
átomos deberían experimentar reacciones tremendas, inconcebibles, por otra parte,
en la suave moderación del ambiente terrestre. Se sabe que el Sol está constituido,
sobre todo, por hidrógeno. Si se combinaran 4 núcleos (para formar un átomo de
helio), se liberarían enormes cantidades de energía.
Posteriormente (en 1938), el físico americano, de origen alemán, Hans Albrecht
Bethe, elaboró las posibles vías por las que podría producirse esta combinación del
hidrógeno para formar helio. Para ello existían dos procesos, contando siempre con
las condiciones imperantes en el centro de estrellas similares al Sol. Uno implicaba
la conversión directa del hidrógeno en helio; el otro involucraba un átomo de
carbono como intermediario en el proceso. Cualquiera de las dos series de
reacciones puede producirse en las estrellas; en nuestro propio Sol, el mecanismo
dominante parece ser la conversión directa del hidrógeno. Cualquiera de estos
procesos determina la conversión de la masa en energía. (Einstein, en su Teoría
especial de la relatividad, había demostrado que la masa y la energía eran aspectos
distintos de la misma cosa, y podían transformarse la una en la otra; además,
demostró que podía liberarse una gran cantidad de energía mediante la conversión
de una muy pequeña cantidad de masa.)
La velocidad de radiación de energía por el Sol implica la desaparición de
determinada masa solar a una velocidad de 4,2 millones de toneladas por segundo.
A primera vista, esto parece una pérdida formidable; pero la masa total del Sol es
de 2.200.000.000.000.000.000.000.000.000 toneladas, de tal modo que nuestro
astro pierde, por segundo, sólo 0,00000000000000000002 % de su masa.
Suponiendo que la edad del Sol sea de 6 mil millones de años, tal como creen hoy
los astrónomos, y que haya emitido energía a la velocidad actual durante todo este
lapso de tiempo, habrá perdido sólo un 1/40.000 de su masa. De ello se desprende
fácilmente que el Sol puede seguir emitiendo aún energía, a su velocidad actual,
durante unos cuantos miles de millones de años más.
Por tanto, en 1940 parecía razonable calcular, para el Sistema Solar como conjunto,
unos 6.000 millones de años. Con ello parecía resuelta la cuestión concerniente a la
edad del Universo; pero los astrónomos aportaron hechos que sugerían lo contrario.
En efecto, la edad asignada al Universo, globalmente considerado, resultaba
demasiado corta en relación con la establecida para el Sistema Solar. El problema
surgió al ser examinadas por los astrónomos las galaxias distantes y plantearse el
fenómeno descubierto en 1842 por un físico austriaco llamado Christian Johann
Doppler.
El «efecto Doppler» es bien conocido. Suele ilustrarse con el ejemplo del silbido de
una locomotora cuyo tono aumenta cuando se acerca a nosotros y, en cambio,
disminuye al alejarse. Esta variación en el tono se debe, simplemente, al hecho que
el número de ondas sonoras por segundo que chocan contra el tímpano varía a
causa del movimiento de su fuente de origen.
Como sugirió su descubridor, el efecto Doppler se aplica tanto a las ondas luminosas
como a las sonoras. Cuando alcanza el ojo la luz que procede de una fuente de
origen en movimiento, se produce una variación en la frecuencia, es decir, en el
color- si tal fuente se mueve a la suficiente velocidad. Por ejemplo, si la fuente
luminosa se dirige hacia nosotros, nos llega mayor número de ondas de luz por
segundo, y ésta se desplaza hacia el extremo violeta, de más elevada frecuencia,
del espectro visible. Por otra parte, si se aleja la fuente de origen, llegan menos
ondas por segundo, y la luz se desplaza hacia el extremo rojo, de baja frecuencia,
del espectro.
Los astrónomos habían estudiado durante mucho tiempo los espectros de las
estrellas y estaban muy familiarizados con la imagen normal, secuencia de líneas
brillantes sobre un fondo oscuro o de líneas negras sobre un fondo brillante, que
revelaba la emisión o la absorción de luz por los átomos a ciertas longitudes de
ondas o colores. Lograron calcular la velocidad de las estrellas que se acercaban o
se alejaban de nosotros (es decir, la velocidad radial), al determinar el
desplazamiento de las líneas espectrales usuales hacia el extremo violeta o rojo del
espectro.
En 1929, Hubble, astrónomo del Monte Wilson, sugirió que estas velocidades de
alejamiento aumentaban en proporción directa a la distancia a que se hallaba la
correspondiente galaxia. Si la galaxia A estaba dos veces más distante de nosotros
que la B, la A se alejaba a una velocidad dos veces superior a la de la B. Esto se
llama a veces «ley de Hubble».
Esta ley fue confirmada por una serie de observaciones. Así, en 1929, Milton La
Salle Humason, en el Monte Wilson, utilizó el telescopio de 100 pulgadas para
obtener espectros de galaxias cada vez más tenues. Las más distantes que pudo
observar se alejaban de nosotros a la velocidad de 40.000 km/seg. Cuando empezó
a utilizarse el telescopio de 200 pulgadas, pudieron estudiarse galaxias todavía más
lejanas, y, así, hacia 1960 se detectaron ya cuerpos tan distantes, que sus
velocidades de alejamiento llegaban a los 144.000 km/seg, o sea, la mitad de la
velocidad de la luz.
¿A qué se debía esto? Supongamos que tenemos un balón con pequeñas manchas
pintadas en su superficie. Es evidente que si lo inflamos, las manchas se separarán.
Si en una de las manchas hubiera un ser diminuto, éste, al inflar el balón, vería
cómo todas las restantes manchas se alejaban de él, y cuanto más distantes
estuvieran las manchas, tanto más rápidamente se alejarían. Y esto ocurría con
independencia de la mancha sobre la cual se hallara el ser imaginario. El efecto
sería el mismo.
Las galaxias se comportan como si el Universo se inflara igual que nuestro balón.
Los astrónomos aceptan hoy de manera general el hecho de esta expansión, y las
«ecuaciones de campo» de Einstein en su Teoría general de la relatividad pueden
construirse de forma que concuerden con la idea de un Universo en expansión.
Pero esto plantea cuestiones de gran trascendencia. El Universo visible, ¿tiene un
límite? Las galaxias más remotas que podemos ver (aproximadamente, distantes de
nosotros unos 9 mil millones de años luz), se alejan de nuestro planeta a la mitad
de la velocidad de la luz. Si se cumple la ley de Hubble, relativa al aumento de la
velocidad de los cuerpos celestes a medida que se alejan de nosotros, ya a los 11
mil millones de años luz de la Tierra, las galaxias se alejarían a la velocidad de la
luz; pero ésta es, según la teoría de Einstein, la máxima velocidad posible.
¿Significa esto que no hay galaxias visibles a mayor distancia?
un enorme «huevo cósmico» que, al estallar, dio origen al Universo que conocemos.
Los fragmentos de la esfera original formarían las galaxias, que se alejan, unas
respecto a otras, en todas direcciones, todavía a consecuencia de la
inimaginablemente poderosa explosión ocurrida hace muchos miles de millones de
años.
El físico ruso-americano George Gamov trabajó sobre esta idea. Sus cálculos lo
llevaron a suponer que los diversos elementos que conocemos se formaron en la
primera media hora después de la explosión. Durante los 250 millones de años que
siguieron a la misma, la radiación predominó sobre la materia y, en consecuencia, la
materia del Universo permaneció dispersa en forma de un gas tenue. Sin embargo,
una vez alcanzado un punto crítico en la expansión, la materia predominó, al fin,
empezó a condensarse y se perfilaron las galaxias. Gamov considera que la
expansión seguirá probablemente hasta que todas las galaxias, excepto las de
nuestro propio agregado local, se hayan alejado fuera del alcance de los
instrumentos más poderosos. A partir de entonces nos hallaremos solos en el
Universo.
¿De dónde procede la materia que formó el «huevo cósmico»? Algunos astrónomos
sugieren que el Universo se originó como un gas extraordinariamente tenue, que se
fue contrayendo de manera gradual bajo la fuerza de la gravitación, hasta constituir
una masa de gran densidad que, al fin, estalló. En otras palabras: hace una
eternidad, inicióse en la forma de un vacío casi absoluto, para llegar, a través de
una fase de contracción. a adquirir la forma de «huevo cósmico», estallar y,
mediante una fase de expansión, volver hacia una eternidad de vacío casi absoluto.
Vivimos en un período transitorio, un instante en la eternidad- de plenitud del
Universo.
Otros astrónomos, especialmente W. B. Bonnor, de Inglaterra, señalan que el
Universo ha pasado por una interminable serie de ciclos de este tipo, cada uno de
los cuales duraría, quizá, decenas de miles de millones de años; en otras palabras,
tendríamos un «Universo oscilante».
Tanto si el Universo se está simplemente expandiendo, o contrayéndose y
expandiéndose, u oscilando, subsiste el concepto de «Universo en evolución».
En 1948, los astrónomos británicos Hermann Bondi y Thomas Gold emitieron una
teoría, divulgada luego por otro astrónomo británico, Fred Hoyle- que excluía la
evolución. Su Universo se llama «Universo en estado estacionario» o «Universo en
creación continua». En efecto, la teoría señala que las galaxias se alejan y que el
Universo se expande. Cuando las galaxias más alejadas alcanzan la velocidad de la
luz, de tal modo que ya no puede llegar hasta nosotros ninguna luz de ellas, puede
decirse que abandonan nuestro Universo. Sin embargo, mientras se separan de
nuestro Universo las galaxias y grupos de la galaxias, se van formando sin cesar,
entre las antiguas, nuevas galaxias. Por cada una que desaparece del Universo al
haber superado el límite de la velocidad de la luz, aparecen otras entre nosotros.
Por tanto, el Universo permanece en un estado constante, el espacio está ocupado
siempre por la misma densidad de galaxias.
Por supuesto que debe de existir una creación continua de nueva materia para
remplazar a las galaxias que nos abandonan, aunque no se ha detectado tal
extremo. Sin embargo, esto no es sorprendente. Para suministrar nueva materia
destinada a constituir galaxias a la velocidad necesaria, se requiere sólo que se
forme por año un átomo de hidrógeno en mil millones de litros de espacio. Esta
creación se produce a una velocidad demasiado pequeña como para que puedan
captarla los instrumentos que disponemos actualmente.
Si suponemos que la materia es creada de una forma incesante, aunque a velocidad
muy baja, podemos preguntamos: « ¿De dónde procede esta nueva materia?» ¿Qué
ocurre con la ley de conservación de la masa-energía? Desde luego, la materia no
puede elaborarse a partir de la nada. Hoyle supone que la energía para la creación
de nueva materia puede ser inyectada a partir de la energía de la expansión. En
otras palabras; el Universo puede expandirse a una velocidad algo inferior a la que
se requeriría si no se formara materia, y la materia que se forma podría ser creada
a expensas de la energía que se consume en la expansión.
Se ha entablado una violenta polémica entre los patrocinadores de la teoría
evolutiva y la del estado inmutable. El mejor procedimiento para elegir una u otra
podría consistir en estudiar los remotos confines del Universo situados a miles de
millones de años luz.
Si fuera correcta la teoría del estado inmutable, el Universo sería uniforme por
doquier, y su aspecto a miles de millones de años luz debería parecerse al que
ofrece en nuestra vecindad. Por el contrario, con la idea evolutiva se podría ver ese
Universo a miles de millones de años luz, con una luz cuya creación habría tenido
lugar hace miles de millones de años. Esta luz se habría formado cuando el Universo
era joven, y no mucho después del «gran estallido». Así, pues, lo que observáramos
en este Universo joven debería diferir de cuanto vemos en nuestra vecindad, donde
el Universo ha envejecido.
Por desgracia, resulta muy difícil definir con claridad lo que vemos en las galaxias
más distantes con ayuda del telescopio; en realidad era insuficiente la información
acumulada hasta la década iniciada en 1960. Cuando, por fin, empezó a perfilarse lo
evidente, se comprobó que, como veremos- se trataba más bien de radiación que
de luz corriente.
deja de verse. Ni los griegos ni los árabes dijeron nada respecto a ella. El primero
en señalar este comportamiento fue el astrónomo holandés David Frabricius. en
1596. Más tarde, cuando los astrónomos se sintieron menos atemorizados por los
cambios que se producían en los cielos, fue llamada Mira (de la voz latina que
significa «maravillosa»).
Más llamativa aún era la brusca aparición de «nuevas estrellas» en los cielos. Esto
no pudieron ignorarlo los griegos. Se dice que Hiparco quedó tan impresionado, en
el 134 a. de J.C., al observar una nueva estrella en la constelación del Escorpión,
que trazó su primer mapa estelar, al objeto que pudieran detectarse fácilmente, en
lo futuro, las nuevas estrellas.
En 1054 de nuestra Era se descubrió una nueva estrella, extraordinariamente
brillante, en la constelación de Tauro. En efecto, su brillo superaba al del planeta
Venus, y durante semanas fue visible incluso de día. Los astrónomos chinos y
japoneses señalaron exactamente su posición, y sus datos han llegado hasta
nosotros. Sin embargo, era tan rudimentario el nivel de la Astronomía, por aquel
entonces, en el mundo occidental, que no poseemos ninguna noticia respecto a que
se conociera en Europa un hecho tan importante, lo cual hace sospechar que quizá
nadie lo registró.
No ocurrió lo mismo en 1572, cuando apareció en la constelación de Casiopea una
nueva estrella, tan brillante como la de 1054. La astronomía europea despertaba
entonces de su largo sueño. El joven Tycho Brahe la observó detenidamente y
escribió la obra De Nova Stella. cuyo título sugirió el nombre que se aplicaría en lo
sucesivo a toda nueva estrella: «nova».
En 1604 apareció otra extraordinaria nova en la constelación de la Serpiente. No era
tan brillante como la de 1572, pero sí lo suficiente como para eclipsar a Marte.
Johannes Kepler, que la observó, escribió un libro sobre las novas. Tras la invención
del telescopio, las novas perdieron gran parte de su misterio. Se comprobó que, por
supuesto, no eran en absoluto estrellas nuevas, sino, simplemente, estrellas, antes
de escaso brillo, que aumentaron bruscamente de esplendor hasta hacerse visibles.
Con el tiempo se fue descubriendo un número cada vez mayor de novas. En
ocasiones alcanzaban un brillo muchos miles de veces superior al primitivo, incluso
en pocos días, que luego se iba atenuando lentamente, en el transcurso de unos
nuestra galaxia una cuarta supernova, si podía aceptarse como cierta la oscura
referencia de un astrólogo egipcio de aquel tiempo.
En apariencia, las supernovas difieren por completo, en su comportamiento físico,
de las novas corrientes, y los astrónomos se hallan muy interesados en estudiar sus
espectros con todo detenimiento. La principal dificultad estriba en la escasa
frecuencia con que se observan. Según Zwicky, su periodicidad sería de unas 3 por
cada 1.000 años en cualquier galaxia. Aunque los astrónomos han logrado detectar
unas 50, todas ellas están en galaxias distantes y no han podido ser estudiadas con
detalle. La supernova de Andrómeda (1885), la más próxima a nosotros en los
últimos 350 años, se mostró unos cuantos decenios antes que se hubiera
desarrollado totalmente la fotografía aplicada a la Astronomía. Por tanto, no existe
registro gráfico de su espectro. (Sin embargo, la distribución de las supernovas en
el tiempo no parece seguir norma alguna. En una galaxia se detectaron
recientemente 3 supernovas en sólo un lapso de 17 años. Los astrónomos pueden
probar ahora su suerte.)
El brillo de una supernova (cuyas magnitudes absolutas oscilan entre, 14 y, 17)
podría ser debido sólo al resultado de una explosión total, es decir, que una estrella
se fragmentara por completo en sus componentes. ¿Qué le ocurriría a tal estrella?
Al llegar aquí, permítasenos remontarnos en el pasado...
Ya en 1834, Bessel (el astrónomo que más adelante sería el primero en medir el
paralaje de una estrella) señaló que Sirio y Proción se iban desviando muy
ligeramente de su posición con los años, fenómeno que no parecía estar relacionado
con el movimiento de la Tierra. Sus movimientos no seguían una línea recta, sino
ondulada, y Bessel llegó a la conclusión que todas las estrellas se moverían
describiendo una órbita alrededor de algo.
De la forma en que Sirio y Proción se movían en sus órbitas podía deducirse que ese
«algo», en cada caso, debía de ejercer una poderosa atracción gravitatoria, no
imaginable en otro cuerpo que no fuera una estrella. En particular el compañero de
Sirio debía de tener una masa similar a la de nuestro Sol, ya que sólo de esta forma
se podían explicar los movimientos de la estrella brillante. Así, pues, se supuso que
los compañeros eran estrellas; pero, dado que eran invisibles para los telescopios
para poder moverse con libertad, de modo que la sustancia más densa que el
platino sigue actuando como un gas. El físico inglés Ralph Howard Fowler sugirió, en
1925, que se denominara «gas degenerado», y, por su parte, el físico soviético Lev
Davidovich Landau señaló, en la década de los 30, que hasta las estrellas
corrientes, tales como nuestro Sol, deben de tener un centro compuesto por gas
degenerado.
El compañero de Proción («Proción B»), que detectó por primera vez J. M.
Schaberle, en 1896, en el Observatorio de Lick, resultó ser también una estrella
superdensa, aunque sólo con una masa 5/8 de veces la de Sirio B. Con los años se
descubrieron otros ejemplos. Estas estrellas son llamadas «enanas blancas», por
asociarse en ellas su escaso tamaño, su elevada temperatura y su luz blanca. Las
enanas blancas tal vez sean muy numerosas y puedan constituir hasta el 3 % de las
estrellas. Sin embargo, debido a su pequeño tamaño, en un futuro previsible sólo
podrán descubrirse las de nuestra vecindad. (También existen «enanas rojas»,
mucho más pequeñas que nuestro Sol, pero de dimensiones no tan reducidas como
las de las enanas blancas. Las enanas rojas son frías y tienen una densidad
corriente. Quizá sean las estrellas más abundantes, aunque por su escaso brillo son
tan difíciles de detectar como las enanas blancas. En 1948 se descubrieron un par
de enanas rojas, sólo a 6 años luz de nosotros. De las 36 estrellas conocidas dentro
de los 14 años luz de distancia de nuestro Sol, 21 son enanas rojas, y 3, enanas
blancas. No hay gigantes entre ellas, y sólo dos, Sirio y Proción, son
manifiestamente más brillantes que nuestro Sol.)
Un año después de haberse descubierto las sorprendentes propiedades de Sirio B,
Albert Einstein expuso su Teoría general de la relatividad, que se refería,
particularmente, a nuevas formas de considerar la gravedad. Los puntos de vista de
Einstein sobre ésta condujeron a predecir que la luz emitida por una fuente con un
campo gravitatorio de gran intensidad se desplazaría hacia el rojo («desplazamiento
de Einstein»). Adams, fascinado por las enanas blancas que había descubierto,
efectuó detenidos estudios del espectro de Sirio B y descubrió que también aquí se
cumplía el desplazamiento hacia el rojo predicho por Einstein. Esto constituyó no
sólo un punto en favor de la teoría de Einstein, sino también en favor de una muy
elevada densidad de Sirio B, pues en una estrella ordinaria, como nuestro Sol, el
efecto del desplazamiento hacia el rojo sólo sería unas 30 veces menor. No
obstante, al iniciarse la década de los 60, se detectó este desplazamiento de
Einstein, muy pequeño, producido por nuestro Sol, con lo cual se confirmó una vez
más la Teoría general de la relatividad.
Pero, ¿cuál es la relación entre las enanas blancas y las supernovas, tema éste que
promovió la discusión? Para contestar a esta pregunta, permítasenos considerar la
supernova de 1054. En 1844, el conde de Rosse, cuando estudiaba la localización
de tal supernova en Tauro, donde los astrónomos orientales habían indicado el
hallazgo de la supernova del 1054, observó un pequeño cuerpo nebuloso. Debido a
su irregularidad y a sus proyecciones, similares a pinzas, lo denominó «Nebulosa del
Cangrejo». La observación, continuada durante decenios, reveló que esta mancha
de gas se expandía lentamente. La velocidad real de su expansión pudo calcularse a
partir del efecto Doppler-Fizeau, y éste, junto con la velocidad aparente de
expansión, hizo posible calcular la distancia a que se hallaba de nosotros la
Nebulosa del Cangrejo, que era de 3.500 años luz. De la velocidad de la expansión
se dedujo también que el gas había iniciado ésta a partir de un punto central de
explosión unos 900 años antes, lo cual concordaba bastante bien con la fecha del
año 1054.
Así, pues, apenas hay dudas que la Nebulosa del Cangrejo, que ahora se despliega
en un volumen de espacio de unos 5 años luz de diámetro- constituiría los restos de
la supernova de 1054.
No se ha observado una región similar de gas turbulento en las localizaciones de las
supernovas indicadas por Tycho y Kepler, aunque sí se han visto pequeñas manchas
nebulosas cerca de cada una de aquéllas. Sin embargo, existen unas 150 nebulosas
planetarias, en las cuales los anillos toroidales de gas pueden representar grandes
explosiones estelares. Una nube de gas particularmente extensa y tenue, la
nebulosa del Velo, en la constelación del Cisne, pueden muy bien ser los restos de
una supernova que hizo explosión hace 30.000 años.
Por aquel entonces debió de producirse más cerca y haber sido más brillante que la
supernova de 1054, mas por aquel tiempo no existía en la Tierra civilización que
pudiera registrar aquel espectacular acontecimiento.
Hoyle fue más lejos. El nuevo núcleo de carbono se calienta todavía más, y
entonces se empiezan a formar átomos más complejos aún, como los de oxígeno y
neón. Mientras ocurre esto, la estrella se va contrayendo y calentándose de nuevo;
vuelve a incorporarse a la secuencia principal. La estrella empieza a adquirir una
serie de capas, como las de una cebolla. Se compone de un núcleo de oxígeno-
neón, una capa de carbono y otra de helio, y el conjunto se halla envuelto en una
cutícula de hidrógeno todavía no convertido.
Al seguir aumentando la temperatura en el centro, se van desencadenando
reacciones cada vez más complejas. En el nuevo núcleo, el neón puede convertirse
en magnesio, el cual puede combinarse, a su vez, para formar sílice y, finalmente,
hierro. En una última fase de su vida, la estrella puede estar constituida por más de
media docena de capas concéntricas, en cada una de las cuales se consume un
combustible distinto. La temperatura central puede haber alcanzado entonces los
1.500 o 2.000 millones de grados.
Sin embargo, en comparación con su larga vida como consumidor de oxígeno, la
estrella está situada en la vertiente de un rápido tobogán respecto a los restantes
combustibles. Su vida en la secuencia principal es feliz, pero corta. Una vez la
estrella empieza a formar hierro, ha alcanzado un punto muerto, pues los átomos
de este metal representan el punto de máxima estabilidad y mínimo contenido
energético. Para alterar los átomos de hierro en la dirección de los átomos más
complejos, o de átomos menos complejos, se requiere una ganancia de energía en
el sistema.
Además, cuando la temperatura central aumenta con la edad, se eleva también la
presión de irradiación de una manera proporcionada a la cuarta potencia de la
temperatura. Cuando ésta se duplica, la presión aumenta 16 veces, y el equilibrio
entre ella y la gravitación se hace cada vez más delicado. Un desequilibrio temporal
dará resultados progresivamente más drásticos, y si tal presión aumenta demasiado
de prisa, puede estallar una nova. La pérdida de una parte de la masa tal vez
resuelva la situación, por lo menos, temporalmente, y entonces la estrella seguirá
envejeciendo, sin sufrir nuevas catástrofes, durante un millón de años más o
menos.
Pero también es posible que se mantenga el equilibrio y que no se llegue a la
explosión de la estrella. En tal caso, las temperaturas centrales pueden elevarse
tanto, según opina Hoyle, que los átomos de hierro se separen, para originar helio;
mas para que ocurra esto, tal como hemos dicho, debe introducirse energía en los
átomos. La única forma en que la estrella puede conseguir esta energía es a partir
de su campo gravitatorio. Cuando la estrella se encoge, la energía que obtiene
esta forma pudieron construirse lentes «acromáticas» («sin color»). Con ellas
volvieron a hacerse populares los «telescopios refractores». El más grande de tales
telescopios, con una lente de 40 pulgadas, se encuentra en el Observatorio de
Yerkes, cerca de la Bahía de Williams (Wisconsin), y fue instalado en 1897. Desde
entonces no se han construido telescopios refractores de mayor tamaño, ni es
probable que se construyan, ya que las lentes de dimensiones mayores absorberían
tanta luz que neutralizarían las ventajas ofrecidas por su mayor potencia de
amplificación. En consecuencia, todos los telescopios gigantes construidos hasta
ahora son reflectores, puesto que la superficie de reflexión de un espejo absorbe
muy poca cantidad de luz.
En 1814, un óptico alemán, Joseph von Fraunhofer, realizó un experimento
inspirado en el de Newton. Hizo pasar un haz de luz solar a través de una estrecha
hendidura, antes que fuera refractado por un prisma. El espectro resultante estaba
constituido por una serie de imágenes de la hendidura, en la luz de todas las
longitudes de onda posible. Había tantas imágenes de dicha hendidura, que se
unían entre sí para formar el espectro. Los prismas de Fraunhofer eran tan
perfectos y daban imágenes tan exactas, que permitieron descubrir que no se
formaban algunas de las imágenes de la hendidura. Si en la luz solar no había
determinadas longitudes de ondas de luz, no se formaría la imagen correspondiente
de la hendidura en dichas longitudes de onda, y el espectro solar aparecería cruzado
por líneas negras.
Fraunhofer señaló la localización de las líneas negras que había detectado, las
cuales eran más de 700. Desde entonces se llaman «líneas de Fraunhofer». En
1842, el físico francés Alexandre Edmond Becquerel fotografió por primera vez las
líneas del espectro polar. Tal fotografía facilitaba sensiblemente los estudios
espectrales, lo cual, con ayuda de instrumentos modernos, ha permitido detectar en
el espectro solar más de 30.000 líneas negras y determinar sus longitudes de onda.
A partir de 1850, una serie de científicos emitió la hipótesis que las líneas eran
características de los diversos elementos presentes en el Sol. Las líneas negras
representaban la absorción de la luz. por ciertos elementos, en las correspondientes
longitudes de onda; en cambio, las líneas brillantes representarían emisiones
características de luz por los elementos. Hacia 1859, el químico alemán Robert
americanos fotografiaron la Luna, y una fotografía tomada por George Phillips Bond
impresionó profundamente en la Exposición Internacional celebrada en Londres en
1851. También fotografiaron el Sol.
En 1860, Secchi tomó la primera fotografía de un eclipse total de Sol. Hacia 1870,
las fotografías de tales eclipses habían demostrado ya que la corona y las
protuberancias formaban parte del Sol, no de nuestro satélite.
Entretanto, a principios de la década iniciada con 1850, los astrónomos obtuvieron
también fotografías de estrellas distantes. En 1887, el astrónomo escocés David Gill
tomaba de forma rutinaria fotografías de las estrellas. De esta forma, la fotografía
se hizo más importante que el mismo ojo humano para la observación del Universo.
La técnica de la fotografía con telescopio ha progresado de forma constante. Un
obstáculo de gran importancia lo constituye el hecho que un telescopio grande
puede cubrir sólo un campo muy pequeño. Si se intenta aumentar el campo,
aparece distorsión en los bordes. En 1930, el óptico ruso-alemán Bernard Schmidt
ideó un método para introducir una lente correctora, que podía evitar la distorsión.
Con esta lente podía fotografiarse cada vez una amplia área del firmamento y
observarla en busca de objetos interesantes, que luego podían ser estudiados con
mayor detalle mediante un telescopio convencional. Como quiera que tales
telescopios son utilizados casi invariablemente para los trabajos de fotografía,
fueron denominados «cámaras de Schmidt».
Las cámaras de Schmidt más grandes empleadas en la actualidad son una de 53
pulgadas, instalada en Tautenberg (Alemania oriental), y otra, de 48 pulgadas,
utilizada junto con el telescopio Hale de 200 pulgadas, en el Monte Palomar. La
tercera, de 39 pulgadas, se instaló en 1961 en un observatorio de la Armenia
soviética.
Hacia 1800, William Herschel (el astrónomo que por vez primera explicó la probable
forma de nuestra galaxia) realizó un experimento tan sencillo como interesante. En
un haz de luz solar que pasaba a través de un prisma, mantuvo un termómetro
junto al extremo rojo del espectro. La columna de mercurio ascendió.
Evidentemente, existía una forma de radiación invisible a longitudes de onda que se
hallaban por debajo del espectro visible. La radiación descubierta por Herschel
recibió el nombre de «infrarroja», por debajo del rojo-. Hoy sabemos que casi el 60
% de la radiación solar se halla situada en el infrarrojo.
Por supuesto que con un espectro más amplio podemos tener un punto de vista más
concreto sobre las estrellas. Sabemos, por ejemplo, que la luz solar es rica en luz
ultravioleta e infrarroja. Nuestra, atmósfera filtra la mayor parte de estas
radiaciones; pero en 1931, y casi por accidente, se descubrió una ventana de radio
al Universo.
Karl Jansky, joven ingeniero radiológico de los laboratorios de la «Bell Telephone»,
estudió los fenómenos de estática que acompañan siempre a la recepción de radio.
Apreció un ruido muy débil y constante, que no podía proceder de ninguna de las
durante un período de mínima actividad solar, motivo por el cual había detectado
más la radiación galáctica que la del Sol.)
Los británicos fueron los pioneros en la construcción de grandes antenas y series de
receptores muy separados (técnica usada por vez primera en Australia) para hacer
más nítida la recepción y localizar las estrellas emisoras de ondas radioeléctricas. Su
pantalla, de 75 m, en Jodrell Bank, Inglaterra, construida bajo la supervisión de Sir
Bernard Lowell, fue el primer radiotelescopio verdaderamente grande.
En 1947, el astrónomo australiano John C. Bolton detectó la tercera fuente
radioeléctrica más intensa del firmamento, y demostró que procedía de la nebulosa
del Cangrejo. De las 2.000 fuentes radioeléctricas detectadas en distintos lugares
del firmamento, ésta fue la primera en ser asignada a un objeto realmente visible.
Parecía improbable que fuera una enana blanca lo que daba origen a la radiación, ya
que otras enanas blancas no cumplían esta misión. Resultaba mucho más probable
que la fuente en cuestión fuese la nube de gas en expansión, en la nebulosa.
Esto apoyaba otras pruebas que las señales radioeléctricas procedentes del cosmos
se originaban principalmente en gases turbulentos. El gas turbulento de la
atmósfera externa del Sol origina ondas de radio, por lo cual se denomina «sol
radioemisor», cuyo tamaño es superior al del Sol visible. Posteriormente se
comprobó que también Júpiter, Saturno y Venus, planetas de atmósfera turbulenta-
eran emisores de ondas radioeléctricas. Sin embargo, en el caso de Júpiter, la
radiación, detectada por primera vez en 1955 y registrada ya en 1950- parece estar
asociada de algún modo con un área particular, la cual se mueve tan regularmente,
que puede servir para determinar el período de rotación de Júpiter con una precisión
de centésimas de segundo. ¿Acaso indica esto la asociación con una parte de la
superficie sólida de Júpiter, una superficie nunca vista tras las oscuras, nubes de
una atmósfera gigantesca? Y si es así, ¿por qué? En 1964 se señaló que el período
de rotación de Júpiter se había alterado bruscamente, aunque en realidad lo había
hecho sólo de forma ligera. De nuevo hemos de preguntarnos: ¿Por qué? Hasta el
momento, los estudios radioeléctricos han planteado más cuestiones de las que han
resuelto, pero no hay nada tan estimulante para la Ciencia y para los científicos
como una buena cuestión no resuelta.
Jansky, que fue el iniciador de todo esto, no recibió honores durante su vida, y
demasiado a otra. Pero las nubes de polvo y gas son agitadas con enorme
turbulencia, con lo cual se genera una radiación, radioeléctrica de gran intensidad.
Las galaxias en colisión en el Cisne se hallan distantes de nosotros unos 260
millones de años luz, pero las señales radioeléctricas que nos llegan son más
intensas que las de la nebulosa del Cangrejo, de la que nos separan sólo 3.500 años
luz. Por tanto, se habrían de detectar galaxias en colisión a distancias mayores de
las que pueden verse con el telescopio óptico. El radiotelescopio de 75 m de Jodrell
Bank, por ejemplo, podía alcanzar distancias mayores que el telescopio de 200
pulgadas de Hale.
Pero cuando aumentó el número de fuentes radioeléctricas halladas entre las
galaxias distantes, y tal número pasó de 100, los astrónomos se inquietaron. No era
posible que todas ellas pudieran atribuirse a galaxias en colisión. Sería como
pretender sacar demasiado partido a una posible explicación.
A decir verdad, la noción sobre colisiones galácticas en el Universo se tambaleó
cada vez más. En 1955, el astrofísico soviético Victor Amazaspovich Ambartsumian
expuso ciertos fundamentos teóricos para establecer la hipótesis que las
radiogalaxias tendían a la explosión, más bien que a la colisión. En 1960, Fred Hoyle
sugirió que las galaxias que emitían tan tremendos haces de ondas radioeléctricas
que podían detectarse a cientos de millones de años luz, podían ofrecer series
completas de supernovas. En el hacinado centro de un núcleo galáctico puede
explotar una supernova y calentar a una estrella próxima hasta el punto de
determinar su explosión y transformación en otra supernova. La segunda explosión
inicia una tercera, ésta una cuarta, y así sucesivamente. En cierto sentido, todo el
centro de una galaxia es una secuencia de explosiones.
La posibilidad que ocurra esto fue confirmada en gran parte por el descubrimiento,
en 1963, de la galaxia M-82, en la constelación de la Osa Mayor, una fuente
radioeléctrica de gran intensidad (aproximadamente, unos 10 millones de años luz),
es una galaxia en explosión de este tipo.
El estudio de la M-82 con el telescopio Hale de 200 pulgadas, y usando la luz de una
longitud de onda particular, mostró grandes chorros de materia que, emergían
aproximadamente a unos 1.000 años luz del centro de la galaxia. Por la cantidad de
materia que explotaba, la distancia que ésta había recorrido y su velocidad de
desplazamiento, parece posible deducir que, hace 1,5 millones de años, llegó por
vez primera a nosotros la luz de unos 5 millones de estrellas que habían estallado
casi simultáneamente en el núcleo.
Ya antes se habían localizado las citadas estrellas mediante barridos fotográficos del
firmamento; entonces se tomaron por insignificantes miembros de nuestra propia
Galaxia. Sin embargo, su inusitada radioemisión indujo a fotografiarlas con más
minuciosidad, hasta que, por fin, se puso de relieve que no todo era como se había
supuesto. Ciertas nebulosidades ligeras resultaron estar claramente asociadas a
algunos objetos, y el 3C273 pareció proyectar un minúsculo chorro de materia. En
realidad eran dos las radiofuentes relacionadas con el 3C273: una procedente de la
estrella, y otra, del chorro. El detenido examen permitió poner de relieve otro punto
interesante: las citadas estrellas irradiaban luz ultravioleta con una profusión
desusada.
Entonces pareció lógico suponer que, pese a su aspecto de estrellas, las
radiofuentes compactas no eran, en definitiva, estrellas corrientes. Por lo pronto se
las denominó «fuentes cuasiestelares», para dejar constancia de su similitud con las
estrellas. Como este término revistiera cada vez más importancia para los
astrónomos, la denominación de «radiofuente cuasiestelar» llegó a resultar
engorrosa, por lo cual, en 1964, el físico americano, de origen chino, Hong Yee Chiu
ideó la abreviatura «cuasar» (cuasi-estelar), palabra que, pese a ser poco eufónica,
ha conquistado un lugar inamovible en la terminología astronómica.
Como es natural, el cuasar ofrece el suficiente interés como para justificar una
investigación con la batería completa de procedimientos técnicos astronómicos, lo
cual significa espectroscopia. Astrónomos tales como Allen Sandage, Jesse L.
Greenstein y Maarten Schmidt se afanaron por obtener el correspondiente espectro.
Al acabar su trabajo, en 1960, se encontraron con unas rayas extrañas, cuya
identificación fue de todo punto imposible. Por añadidura, las rayas del espectro de
cada cuasar no se asemejaban a las de ningún otro.
En 1963, Schmidt estudió de nuevo el 3C273, que, por ser el más brillante de los
misteriosos objetos, mostraba también el espectro más claro. Se veían en él seis
rayas, cuatro de las cuales estaban espaciadas de tal modo, que semejaban una
banda de hidrógeno, lo cual habría sido revelador si no fuera por la circunstancia
que tales bandas no deberían estar en el lugar en que se habían encontrado. Pero,
¿y si aquellas rayas tuviesen una localización distinta, pero hubieran aparecido allí
porque se las hubiese desplazado hacia el extremo rojo del espectro? De haber
Otro fenómeno vino a confirmar esa pequeñez. Hacia los comienzos de 1963 se
comprobó que los cuásares eran muy variables respecto a la energía emitida, tanto
en la región de la luz visible como en la de las radioondas. Durante un período de
pocos años se registraron aumentos y disminuciones nada menos que del orden de
tres magnitudes.
Para que la radiación experimente tan extremas variaciones en tan breve espacio de
tiempo, un cuerpo debe ser pequeño. Las pequeñas variaciones obedecen a
ganancias o pérdidas de brillo en ciertas regiones de un cuerpo; en cambio, las
grandes abarcan todo el cuerpo sin excepción. Así, pues, cuando todo el cuerpo
queda sometido a estas variaciones, se ha de notar algún efecto a lo largo del
mismo, mientras duran las variaciones. Pero como quiera que no hay efecto alguno
que viaje a mayor velocidad que la luz, si un cuasar varía perceptiblemente durante
un período de pocos años, su diámetro no puede ser superior a un año luz. En
realidad, ciertos cálculos parecen indicar que el diámetro de los cuásares podría ser
muy pequeño, de algo así como una semana luz (804 mil millones de kilómetros).
Los cuerpos que son tan pequeños y luminosos a la vez deben consumir tales
cantidades de energía, que sus reservas no pueden durar mucho tiempo, a no ser
que exista una fuente energética hasta ahora inimaginable, aunque, desde luego,
no imposible. Otros cálculos demuestran que un cuasar sólo puede liberar energía a
ese ritmo durante un millón de años más o menos. Si es así, los cuásares
descubiertos habrían alcanzado su estado de tales hace poco tiempo, hablando en
términos cósmicos, y, por otra parte, puede haber buen número de objetos que
fueron cuásares en otro tiempo, pero ya no lo son.
En 1965, Sandage anunció el descubrimiento de objetos que podrían ser cuásares
envejecidos. Semejaban estrellas azuladas corrientes, pero experimentaban
enormes cambios, que los hacían virar al rojo, como los cuásares.
Eran semejantes a éstos por su distancia, luminosidad y tamaño, pero no emitían
radioondas. Sandage los denominó «blue stellar objects» (objetos estelares azules),
que aquí designaremos, para abreviar, con la sigla inglesa de BSO.
Los BSO parecen ser más numerosos que los cuásares: según un cálculo
aproximado de 1967, los BSO al alcance de nuestros telescopios suman 100.000. La
razón de tal superioridad numérica de los BSO sobre los cuásares es la que estos
cuerpos viven mucho más tiempo en la forma de BSO.
La característica más interesante de los cuásares, dejando aparte el desconcertante
enigma que existe acerca de su verdadera identidad- es que son, a la vez, cuerpos
insólitos y se hallan muy distantes. Quizá sean los últimos representantes de ciertos
elementos cuya existencia perdurara sólo durante la juventud del Universo. (En
definitiva, un cuerpo situado a 9 mil millones de años luz es perceptible solo por la
luz que dejó hace 9 mil millones de años, y posiblemente esta fecha sea sólo algo
posterior a la explosión del «huevo cósmico».) Si nos atenemos a tal hipótesis,
resulta evidente que el aspecto del Universo fue, hace miles de millones de años,
distinto por completo del actual. Así, el Universo habría evolucionado según opinan
quienes propugnan la teoría de la «gran explosión», y, en líneas generales, no es
eternamente inmutable, según afirman los que defienden la teoría de la «creación
continua».
El empleo de los cuásares como prueba en favor de la «gran explosión» no ha sido
aceptado sin reservas. Algunos astrónomos, esgrimiendo diversas pruebas, aducen
que los cuásares no se hallan realmente tan distantes como se cree, por lo cual no
pueden tomarse como objetos representativos de la juventud del Universo. Pero
quienes sustentan semejante criterio deben explicar cuál es el origen de las
enormes variaciones hacia el rojo en el espectro del cuasar, ya que eliminan de
antemano la única posibilidad, es decir, la inmensa distancia; y eso no es nada fácil.
Aunque esta cuestión diste mucho de haber sido solucionada, considerando las
enormes dificultades implícitas en ambas teorías, las opiniones parecen inclinarse,
por lo general, en favor de los cuásares vistos como objetos muy remotos.
Aún cuando sea así, hay buenas razones para preguntarse si caracterizan concreta y
exclusivamente la juventud del Universo. ¿Habrán sido distribuidos con una
uniformidad relativa, de forma que estén presentes en el Universo en todas las
edades?
Volvamos, pues, a 1943. Por este tiempo, el astrónomo americano Carl Seyfert
observó una galaxia singular, de gran brillantez y núcleo muy pequeño. Desde
entonces se descubrieron otras similares, y hoy se hace referencia al conjunto con
la denominación de «galaxia Seyfert». Aunque hacia finales de 1960 se conocía sólo
una docena, hay buenas razones para suponer que casi el 1 % de las galaxias
pertenecen a tipo Seyfert.
¿No sería posible que las galaxias Seyfert fueran objetos intermedios entre las
galaxias corrientes y los cuásares? Sus brillantes centros muestran variaciones
luminosas, que hacen de ellos algo casi tan pequeño como los cuásares. Si se
intensificara aún más la luminosidad de tales centros y se oscureciera
proporcionalmente el resto de la galaxia, acabaría por ser imperceptible la diferencia
entre un cuasar y una galaxia Seyfert; por ejemplo la 3C120 podría considerarse un
cuasar por su aspecto.
Las galaxias Seyfert experimentan sólo moderados cambios hacia el rojo, y su
distancia no es enorme. Tal vez los cuásares sean galaxias Seyfert muy distantes;
tanto, que podemos distinguir únicamente sus centros, pequeños y luminosos, y
observar sólo las mayores. ¿No nos causará ello la impresión que estamos viendo
unos cuásares extraordinariamente luminosos, cuando en verdad deberíamos
sospechar que sólo unas cuantas galaxias Seyfert, muy grandes, forman esos
cuásares, que divisamos a pesar de su gran distancia?
Pero si optamos por considerar las cercanas galaxias Seyfert como pequeños o, tal
vez, grandes cuásares en pleno desarrollo, pudiera ser que la distribución de los
cuásares no caracterizase exclusivamente la juventud del Universo y que, al fin y al
cabo, su existencia no fuera una prueba contundente para fundamentar la teoría de
la «gran explosión».
No obstante, la teoría de la «gran explosión» fue confirmada, por otros caminos,
cuando menos se esperaba. En 1949, Gamow había calculado que la radiación
asociada a la «gran explosión» se había atenuado con la expansión del Universo,
hasta el extremo que hoy había quedado convertida en una fuente de radioondas
que procedía, indistintamente, de todas las partes del firmamento, como una
especie de fondo radioemisor. Gamow sugirió que esta radiación se podría comparar
con la de objetos a una temperatura de –268º C.
En 1965, A. A. Penzias y R. W. Wilson, científicos de los «Bell Telephone
Laboratories», en Nueva Jersey, detectaron precisamente esa radiación básica de
radioondas e informaron sobre ella. La temperatura asociada a esta radiación
resultó ser de –160º C, lo cual no estaba muy en desacuerdo con las predicciones
máximo, que, pese a ello, conservaría la masa de una estrella regular. En 1939, el
físico americano J. Robert Oppenheimer especificó, con bastantes pormenores, las
posibles propiedades de semejante «estrella-neutrón». Tal objeto podría alcanzar
temperaturas de superficie lo bastante elevadas, por lo menos, durante las fases
iniciales de su formación e inmediatamente después- como para emitir con
profusión rayos X.
La investigación dirigida por Friedman para probar la existencia de las «estrellas-
neutrón» se centró en la nebulosa del Cangrejo, donde, según se suponía, la
explosión cósmica que la había originado podría haber dejado como residuo no una
enana blanca condensada, sino una «estrella-neutrón» supercondensada. En julio
de 1964, cuando la Luna pasó ante la nebulosa del Cangrejo, se lanzó un cohete
estratosférico para captar la emisión de rayos X. Si tal emisión procediera de una
estrella-neutrón, se extinguiría tan pronto como la Luna pasara por delante del
diminuto objeto. Si la emisión de rayos X proviniera de la nebulosa del Cangrejo, se
reduciría progresivamente, a medida que la Luna eclipsara la nebulosa. Ocurrió esto
último, y la nebulosa del Cangrejo dio la impresión de ser simplemente una corona
mayor y mucho más intensa, del diámetro de un año-luz.
Por un momento pareció esfumarse la posibilidad que las estrellas-neutrón fueran
perceptibles, e incluso que existieran; pero durante aquel mismo año, en que no se
pudo revelar el secreto que encerraba la nebulosa del Cangrejo, se hizo un nuevo
descubrimiento en otro campo. Las radioondas de ciertas fuentes revelaron, al
parecer, una fluctuación de intensidad muy rápida. Fue como si brotaran «centelleos
radioeléctricos» acá y allá.
Los astrónomos se apresuraron a diseñar instrumentos apropiados para captar
ráfagas muy cortas de radioondas, en la creencia que ello permitiría un estudio más
detallado de tan fugaces cambios. Anthony Hewish, del Observatorio de la
Universidad de Cambridge, figuró entre los astrónomos que utilizaron dichos
radiotelescopios.
Apenas empezó a manejar el telescopio provisto del nuevo detector, localizó ráfagas
de energía radioeléctricas emitida desde algún lugar situado entre Vega y Altair. No
resultó difícil detectarlas, lo cual, por otra parte, habría sido factible mucho antes si
los astrónomos hubiesen tenido noticias de esas breves ráfagas y hubieran aportado
el material necesario para su detección. Las citadas ráfagas fueron de una brevedad
sorprendente: duraron solo 1/30 de segundo. Y se descubrió algo más
impresionante aún: todas ellas se sucedieron con notable regularidad, a intervalos
de 1 1/3 segundos. Así, se pudo calcular el período hasta la cien millonésima de
segundo: fue de 1,33730109 segundos.
Desde luego, por entonces no fue posible explicar lo que representaban aquellas
pulsaciones isócronas. Hewish las atribuyó a una «estrella latiente» («pulsating
star») que, con cada pulsación, emitía una ráfaga de energía. Casi a la vez se creó
la voz «pulsar» para designar al fenómeno, y desde entonces se llama así el nuevo
objeto.
En realidad se debería hablar en plural del nuevo objeto, pues apenas descubierto el
primero, Hewish inició la búsqueda de otros, y cuando anunció su descubrimiento,
en febrero de 1968, había localizado ya cuatro. Entonces, otros astrónomos
emprendieron afanosamente la exploración y no tardaron en detectar algunos más.
Al cabo de dos años se consiguió localizar unos cuarenta pulsar.
Dos terceras partes de estos cuerpos están situados en zonas muy cercanas al
ecuador galáctico, lo cual permite conjeturar, con cierta seguridad, que los pulsares
pertenecen, por lo general, a nuestra galaxia. Algunos se hallan tan cerca, que
rondan el centenar de años luz. (No hay razón para negar su presencia en otras
galaxias, aunque quizá sean demasiado débiles para su detección si se considera la
distancia que nos separa de tales galaxias.)
Todos los pulsares se caracterizan por la extremada regularidad de sus pulsaciones,
si bien el período exacto varía de unos a otros. Hay uno cuyo período es nada
menos que de 3,7 seg. En noviembre de 1968, los astrónomos de Green Bank
(Virginia Occidental) detectaron, en la nebulosa del Cangrejo, un pulsar de período
ínfimo (sólo de 0,033089 seg). Y con treinta pulsaciones por segundo.
Como es natural, se planteaba la pregunta: ¿Cuál sería el origen de los destellos
emitidos con tanta regularidad? ¿Tal vez se trataba de algún cuerpo astronómico
que estuviese experimentando un cambio muy regular, a intervalos lo
suficientemente rápidos como para producir dichas pulsaciones? ¿No se trataría de
un planeta que giraba alrededor de una estrella y que, con cada revolución, se
distanciaba más de ella, visto desde la Tierra- y emitía una potente ráfaga de
Gold agregó que si su teoría era acertada, ello significaba que la estrella-neutrón no
tenía energía en los polos magnéticos y que su ritmo de rotación decrecería
paulatinamente. Es decir, que cuanto más breve sea el período de un pulsar, tanto
más joven será éste y tanto más rápida su pérdida de energía y velocidad rotatoria.
El pulsar más rápido conocido hasta ahora se halla en la nebulosa del Cangrejo, y
tal vez sea también el más joven, puesto que la explosión supernova, generadora
de la estrella-neutrón, debe de haberse producido hace sólo unos mil años.
Se estudió con gran precisión el período de dicho pulsar en la nebulosa del Cangrejo
y, en efecto, se descubrió la existencia de un progresivo retraso, tal como había
predicho Gold. El período aumentaba a razón de 36,48 milmillonésimas de segundo
por día. El mismo fenómeno se comprobó en otros pulsares, y al iniciarse la década
de 1970-1980, se generalizó la aceptación de tal hipótesis sobre la estrella-neutrón.
A veces, el período de un pulsar experimenta una súbita, aunque leve aceleración,
para reanudarse luego la tendencia al retraso. Algunos astrónomos creen que ello
puede atribuirse a un «seísmo estelar», un cambio en la distribución de masas
dentro de la estrella-neutrón. O quizás obedezca a la «zambullida» de un cuerpo lo
suficientemente grande en la estrella-neutrón, que añada su propio momento al de
la estrella.
Desde luego, no había razón alguna para admitir que los electrones que emergían
de la estrella-neutrón perdieran energía exclusivamente en forma de microondas.
Este fenómeno produciría ondas a todo lo largo del espectro, y generaría también
luz visible.
Se prestó especial atención a las secciones de la nebulosa del Cangrejo donde
pudiera haber aún vestigios visibles de la antigua explosión, y, en efecto, en enero
de 1969 se observó que la luz de una estrella débil emitía destellos intermitentes,
sincronizados con las pulsaciones de microondas. Habría sido posible detectarla
antes si los astrónomos hubiesen tenido cierta idea sobre la necesidad de buscar
esas rápidas alternancias de luz y oscuridad. El pulsar de la nebulosa del Cangrejo
fue la primera estrella-neutrón que pudo detectarse con la vista.
Por añadidura, dicho pulsar irradió rayos X. El 5 % aproximadamente de los rayos X
emitidos por la nebulosa del Cangrejo correspondió a esa luz diminuta y
la Galaxia. Esta expansión es sorprendente de por sí, pues no existe ninguna teoría
para explicarla. Porque si el hidrógeno se difunde, ¿cómo no se ha disipado ya
durante la larga vida de la Galaxia? ¿No será tal vez una demostración que hace
diez millones de años más o menos, según conjetura Oort, su centro explotó tal
como lo ha hecho en fechas mucho más recientes el del M-82? Pues tampoco aquí el
plano del hidrógeno es absolutamente llano. Se arquea hacia abajo en un extremo
de la Galaxia, y hacia arriba en el otro. ¿Por qué? Hasta ahora nadie ha dado una
explicación convincente.
El hidrógeno no es, o no debería ser, un elemento exclusivo por lo que respecta a
las radioondas. Cada átomo o combinación de átomos tiene la capacidad suficiente
para emitir o absorber radioondas características de un campo radioeléctrico
general. Así, pues, los astrónomos se afanan por encontrar las reveladoras «huellas
dactilares» de átomos que no sean los de ese hidrógeno, ya generalizado por
doquier.
Casi todo el hidrógeno que existe en la Naturaleza es de una variedad
excepcionalmente simple, denominada «hidrógeno 1». Hay otra forma más
compleja, que es el «deuterio», o «hidrógeno 2». Así, pues, se tamizó toda la
emisión de radioondas desde diversos puntos del firmamento, en busca de la
longitud de onda que se había establecido teóricamente. Por fin se detectó en 1966,
y todo pareció indicar que la cantidad de hidrógeno 2 que hay en el Universo
representa un 5 % de la del hidrogeno 1.
Junto a esas variedades de hidrógeno figuran el helio y el oxígeno como
componentes usuales del Universo. Un átomo de oxígeno puede combinarse con
otro de hidrógeno, para formar un «grupo hidroxílico». Esta combinación no tendría
estabilidad en la Tierra, pues como el grupo hidroxílico es muy activo, se mezclaría
con casi todos los átomos y moléculas que se le cruzaran por el camino. En especial
se combinaría con los átomos de hidrógeno 2, para constituir moléculas de agua.
Ahora bien, cuando se forma un grupo hidroxílico en el espacio interestelar, donde
las colisiones escasean y distan mucho entre sí, permanece inalterable durante
largos períodos de tiempo. Así lo hizo constar, en 1953, el astrónomo soviético T. S.
Sklovski.
A juzgar por los cálculos realizados, dicho grupo hidroxílico puede emitir o absorber
cuatro longitudes específicas de radioondas. Allá por octubre de 1963, un equipo de
ingenieros electrotécnicos detectó dos en el Lincoln Laboratory del MIT.
El grupo hidroxílico tiene una masa diecisiete veces mayor que la del átomo de
hidrógeno; por tanto, es más lento y se mueve a velocidades equivalentes a una
cuarta parte de la de dicho átomo a las mismas temperaturas. Generalmente, el
movimiento hace borrosa la longitud de onda, por lo cual las longitudes de onda del
grupo hidroxílico son más precisas que las del hidrógeno. Sus cambios se pueden
determinar más fácilmente, y no hay gran dificultad para comprobar si una nube de
las que contiene hidroxilo se está acercando o alejando.
Los astrónomos se mostraron satisfechos, aunque no muy asombrados, al descubrir
la presencia de una combinación diatómica en los vastos espacios interestelares. En
seguida empezaron a buscar otras combinaciones, aunque no con grandes
esperanzas, pues, dada la gran diseminación de los átomos en el espacio
interestelar, parecía muy remota la posibilidad que dos o más átomos
permanecieran unidos durante el tiempo suficiente para formar una combinación. Se
descartó asimismo la probabilidad que interviniesen átomos no tan corrientes como
el del oxígeno (es decir, los del carbono y nitrógeno, que le siguen en importancia
entre los preparados para formar combinaciones).
Sin embargo, hacia comienzos de 1968 empezaron a surgir las verdaderas
sorpresas. En noviembre de aquel mismo año se descubrió la radioonda, auténtica
«huella dactilar»- de las moléculas de agua (H2O), y antes de acabar el mes se
detectaron, con mayor asombro todavía, algunas moléculas de amoníaco (NH3)
compuestas por una combinación de cuatro átomos: tres de hidrógeno y uno de
nitrógeno.
En 1969 se detectó otra combinación de cuatro átomos, en la que se incluía un
átomo de carbono: era el formaldehído (H2CO).
Allá por 1970 se hicieron nuevos descubrimientos, incluyendo la presencia de una
molécula de cinco átomos, el cianoacetileno, que contenía una cadena de tres
átomos de carbono (HCCCN). Y luego, como culminación, al menos para aquel año,
llegó el alcohol etílico, una molécula de seis átomos (CH3OH).
Capítulo 3
La Tierra
evolutivas. Según el punto de vista catastrófico, el Sol había sido creado como
singular cuerpo solitario, y empezó a tener una «familia» como resultado de algún
fenómeno violento. Por su parte, las ideas evolutivas consideraban que todo el
Sistema había llegado de una manera ordenada a su estado actual.
En el siglo XVIII se suponía aún que la historia de la Tierra estaba llena de violentas
catástrofes. ¿Por qué, pues, no podía haberse producido una catástrofe de alcances
cósmicos, cuyo resultado fuese la aparición de la totalidad del Sistema? Una teoría
que gozó del favor popular fue la propuesta por el naturalista francés Georges-Louis
Leclerc de Buffon, quien afirmaba que el Sistema Solar había sido creado a partir de
los restos de una colisión entre el Sol y un cometa. Pero la teoría de Buffon se vino
abajo cuando se descubrió que los cometas eran sólo cuerpos formados por un
polvo extremadamente sutil.
En el siglo XIX, cuando ganaron popularidad los conceptos de procesos naturales,
en lento desarrollo, como el principio uniformista de Hutton, las catástrofes
quedaron relegadas a segundo plano. En su lugar, los eruditos se inclinaron
progresivamente hacia las teorías que implican procesos evolucionistas, siguiendo
las huellas de Newton.
El propio Newton había sugerido que el Sistema Solar podía haberse formado a
partir de una tenue nube de gas y polvo, que se hubiera condensado lentamente
bajo la atracción gravitatoria. A medida que las partículas se aproximaban, el campo
gravitatorio se habría hecho más intenso, la condensación se habría acelerado hasta
que, al fin, la masa total se habría colapsado, para dar origen a un cuerpo denso (el
Sol), incandescente a causa de la energía de la contracción.
En esencia, ésta es la base de las teorías hoy más populares respecto al origen del
Sistema Solar. Pero había que resolver buen número de espinosos problemas, para
contestar algunas preguntas clave. Por ejemplo: ¿Cómo un gas altamente disperso
podía ser forzado a unirse por una fuerza gravitatoria muy débil? Recientemente,
los sabios han propuesto para ello otro mecanismo plausible: la presión de la luz.
Que la luz ejerce realmente presión viene ilustrado por los cometas, cuyas colas
apuntan siempre en dirección contraria al Sol, impulsadas por la presión de la luz
solar. Ahora bien, las partículas que flotan en el espacio son bombardeadas desde
todos los lados por la radiación; pero si dos partículas llegan a unirse hasta el punto
para formar un planeta. Y cuando Helmholtz y Kelvin elaboraron unas teorías que
atribuían la energía del Sol a su lenta contracción, las hipótesis parecieron
acomodarse de nuevo perfectamente a la descripción dada por Laplace.
La hipótesis nebular mantuvo su validez durante la mayor parte del siglo XIX. Pero
antes que éste finalizara empezó a mostrar puntos débiles. En 1859, James Clerk
Maxwell, al analizar de forma matemática los anillos de Saturno, llegó a la
conclusión que un anillo de materia gaseosa lanzado por cualquier cuerpo podría
condensarse sólo en una acumulación de pequeñas partículas, que formarían tales
anillos, pero que nunca podrían formar un cuerpo sólido, porque las fuerzas
gravitatorias fragmentarían el anillo antes que se materializara su condensación.
También surgió el problema del momento angular. Se trataba que los planetas, que
constituían sólo algo más del 0,1 % de la masa del Sistema Solar, ¡contenían, sin
embargo, el 98 % de su momento angular! En otras palabras: el Sol retenía
únicamente una pequeña fracción del momento angular de la nube original. ¿Cómo
fue transferida la casi totalidad del momento angular a los pequeños anillos
formados a partir de la nebulosa? El problema se complica al comprobar que, en el
caso de Júpiter y Saturno, cuyos sistemas de satélites les dan el aspecto de
sistemas solares en miniatura y que han sido, presumiblemente, formados de la
misma manera, el cuerpo planetario central retiene la mayor parte del momento
angular.
A partir de 1900 perdió tanta fuerza la hipótesis nebular, que la idea de cualquier
proceso evolutivo pareció desacreditada para siempre. El escenario estaba listo para
la resurrección de una teoría catastrófica. En 1905, dos sabios americanos, Thomas
Chrowder Chamberlin y Forest Ray Moulton, propusieron una nueva, que explicaba
el origen de los planetas como el resultado de una cuasi colisión entre nuestro Sol y
otra estrella. Este encuentro habría arrancado materia gaseosa de ambos soles, y
las nubes de material abandonadas en la vecindad de nuestro Sol se habrían
condensado luego en pequeños «planetesimales», y éstos, a su vez, en planetas.
Ésta es la «hipótesis planetesimal». Respecto al problema del momento angular, los
necesitaban, naturalmente, mayores nubes de gas y polvo que las supuestas por
Laplace como origen del Sistema Solar. Y resultaba claro que tan enormes
conjuntos de materia experimentarían turbulencias y se dividirían en remolinos,
cada uno de los cuales podría condensarse en un sistema distinto.
En 1944, el astrónomo alemán Carl F. von Weizsäcker llevó a cabo un detenido
análisis de esta idea. Calculó que en los remolinos mayores habría la materia
suficiente como para formar galaxias. Durante la turbulenta contracción de cada
remolino se generarían remolinos menores, cada uno de ellos lo bastante grande
como para originar un sistema solar (con uno o más soles). En los límites de
nuestro remolino solar, esos remolinos menores podrían generar los planetas. Esto
ocurriría en los puntos de fricción en que se encontraban los remolinos menores,
que se moverían unos contra otros como ruedas engranadas; en tales lugares, las
partículas de polvo chocarían y se unirían. Como resultado de estas colisiones,
podrían formarse, primero, los planetesimales, y, posteriormente, los planetas.
La teoría de Weizsäcker no resolvió por sí sola los interrogantes sobre el momento
angular de los planetas, ni aportó más aclaraciones que la versión, mucho más
simple, de Laplace. El astrofísico sueco Hannes Alfven incluyó en sus cálculos el
campo magnético del Sol. Cuando el joven Sol giraba rápidamente, su campo
magnético actuaba como un freno moderador de ese movimiento, y entonces se
transmitiría a los planetas el momento angular.
Tomando como base dicho concepto, Hoyle elaboró la teoría de Weizsäcker de tal
forma que ésta, una vez modificada para incluir las fuerzas magnéticas y
gravitatorias- sigue siendo, al parecer, la que mejor explica el origen del Sistema
Solar.
Sin embargo, persisten ciertas irregularidades en el Sistema Solar que no son
fácilmente explicables mediante ninguna teoría sobre la formación general y que
requerirán probablemente algunas «subteorías», si se me permite emplear tal
vocablo. Por ejemplo, tenemos los cometas, pequeños cuerpos que giran alrededor
del Sol describiendo órbitas extremadamente alargadas y durante períodos de
docenas, centenares e incluso millares de años. Sus órbitas difieren por completo de
las planetarias; penetran, desde todos los ángulos, en el interior del Sistema Solar;
están compuestos, en parte, por luz y por ciertas sustancias de lenta fusión, que se
vaporizan y dispersan cuando su trayectoria pasa por las cercanías del Sol, donde
se eleva la temperatura.
En 1950, Oort señaló la posible existencia de una inmensa envoltura, integrada por
pequeños cuerpos helados, que girarían lentamente alrededor del Sol a la distancia
de un año luz o quizá más. Tal vez haya nada menos que 100 mil millones de estos
cuerpos, materia residual de alguna nube primigenia de polvo y gas, que se
condensaría para formar el Sistema Solar y que se hallaría demasiado lejos para
ceder a la atracción de las fuerzas gravitatorias. Subsistiría como una última
cobertura sin introflexiones.
Por regla general, tales cuerpos permanecerían inalterables en su órbita. Pero la
combinación casual de las atracciones gravitatorias ejercidas por estrellas cercanas
podría frenar a veces la marcha de un cuerpo u otro lo suficiente como para hacerla
derivar hacia el Sistema Solar interno, moverse alrededor del Sol y salir disparado
en dirección a la nube. Al comportarse así, estos cuerpos se acercan desde todas las
direcciones imaginables. Si pasan cerca de algún gran planeta externo, la atracción
gravitatoria del mismo puede alterar aún más sus órbitas, hasta el punto de
mantenerlos permanentemente en el sistema planetario. Una vez dentro de esos
limites, los efectos caloríficos y vaporizadores del Sol desintegrarán su sustancia en
muy breve espacio de tiempo, es, decir, según el módulo geológico. Sin embargo,
quedan muchos más en el lugar de procedencia; Oort calcula que, desde la
formación del Sistema Solar, cuya existencia es de miles de millones de años, sólo
el 20 % de esos cuerpos cometarios han salido proyectados hacia el Sol.
Una segunda irregularidad es la representada por los planetoides. Componen este
grupo decenas de millares de minúsculos cuerpos planetarios (el diámetro de los
mayores, apenas alcanzan los 800 km, mientras que el de los menores no llega a
los 2 km), cuya mayor parte se encuentra entre las órbitas de Marte y Júpiter. Si el
espaciamiento entre los planetas fuera absolutamente regular, los astrónomos
tendrían buenas razones para esperar descubrir un planeta hacia donde se halla el
mayor de los planetoides. ¿Existió realmente allí un planeta antaño? ¿Explotó por
una u otra causa, esparciendo fragmentos por todas partes? ¿Se producirían
explosiones secundarias, las cuales explicarían el hecho que algunos planetoides
describan órbitas alargadas, mientras que las de otros sean exageradamente
inclinadas (si bien todos ellos giran más o menos en dirección contraria a la de las
manecillas del reloj)? Cabe también preguntarse si el campo gravitatorio del
cercano gigante, Júpiter, no surtirá unos efectos tan contundentes como para que la
nube, de la región situada entre su órbita y la de Marte se coagulara y formase
planetesimales, pero jamás un planeta propiamente dicho. Así, pues, sigue
pendiente el problema planteado por el origen de los planetoides.
Plutón, el más excéntrico de los planetas, descubierto, en 1930, por el astrónomo
americano Clyde William Tombaugh, constituye otro problema. Los restantes
planetas externos, Júpiter, Saturno, Urano y Neptuno- son gigantes muy
voluminosos, gaseosos y de veloz rotación; Plutón es pequeño, denso, y efectúa un
giro completo en 6,4 días. Además, su órbita es más alargada que la de cualquier
otro planeta, y su inclinación forma un ángulo bastante mayor con el plano general
de revolución. Su órbita es tan alargada, que cuando el planeta pasa por el sector
más cercano del Sol, se aproxima veinte años más que Neptuno.
Algunos astrónomos se preguntan si Plutón no habrá sido en tiempos remotos un
satélite de Neptuno. Desde luego parece algo grande para haber desempeñado ese
papel secundario, y, no obstante, dicha hipótesis explicaría su lenta rotación, pues
esos 6,4 días podrían haber sido el período de su revolución alrededor de Neptuno,
es decir, revolución igual a rotación, como en el caso de la Luna. Quizás un
formidable cataclismo lo liberó de la «presa» de Neptuno, para proyectarlo con
violencia a una órbita elíptica. Ese supuesto cataclismo pudo haber hecho girar
también a Tritón, el gran satélite de Neptuno, y haber forzado el acercamiento de
éste al Sol, pues su órbita debería distar bastante más de nuestro astro si se
cumpliese la ley sobre la separación cada vez mayor entre los sucesivos planetas.
Por desgracia, los astrónomos no tienen ni la más remota idea sobre el tipo de
cataclismo cósmico que pudo haber ocasionado tales alteraciones.
La rotación de los planetas ofrece también problemas específicos. Idealmente, todos
los planetas deberían girar en dirección contraria a la de las manecillas del reloj (si
se observasen desde un punto situado a gran altura, en la vertical del Polo Norte
terrestre), y sus ejes de rotación deberían ser perpendiculares al plano de sus
revoluciones alrededor del Sol. Así ocurre, de una forma razonablemente
aproximada, con el propio Sol y Júpiter, los dos cuerpos principales del Sistema
Venus volvió a plantear problemas. Desde luego, celebróse que el radar aportara
información referente a la superficie sólida del planeta, algo que jamás estuvo al
alcance de las ondas medias.
Se obtuvieron bastantes datos. Por ejemplo, se supo que la superficie era áspera.
Hacia fines de 1965 se llegó a la conclusión que en Venus había, por lo menos, dos
enormes cadenas montañosas. Una se extendía a lo largo de más de 3.000 km en
dirección norte-sur y tenía una anchura de varios centenares de kilómetros. La otra,
más ancha aún, seguía rumbo este-oeste. Ambas cordilleras fueron bautizadas con
las dos primeras letras del alfabeto griego: «Montañas Alfa» y «Montañas Beta».
Pero con anterioridad a este hallazgo, concretamente, en 1964- se comprobó que
Venus giraba con mucha lentitud. Hasta entonces no hubo sorpresas, pues se había
supuesto (mediante un cálculo puramente especulativo) que el período de rotación
era de 225 días, período que luego resultó ser de 243 días, con el eje de rotación
casi perpendicular al plano de revolución. Fue decepcionante que el período de
rotación no durase exactamente 225 días (igual al período de revolución), porque,
al haberse previsto así, todo habría tenido fácil explicación. Sin embargo... lo que
sorprendió en realidad a los astrónomos fue que la rotación siguiese una dirección
«errónea». Venus giraba en el sentido de las manecillas del reloj (visto desde un
punto a gran altura sobre la vertical del Polo Norte terrestre), es decir, de Este a
Oeste, y no de Oeste a Este, según lo hacían todos los demás planetas, excepto
Urano. Era como si Venus se sostuviese sobre la «cabeza», o sea, que el Polo Norte
mirase hacia abajo, y el Polo Sur, hacia arriba.
¿Por qué? Nadie ha podido explicárselo hasta ahora.
Para mayor desconcierto, la rotación está sincronizada de tal forma, que cuando
Venus se acerca más a la Tierra, nos presenta siempre la misma cara (y aún así,
oculta tras la nube). ¿No ejercerá la Tierra alguna influencia gravitatoria sobre
Venus? Pero, ¿cómo podría competir nuestra Tierra, pequeña y distante, con un Sol
más distante aún, pero mucho mayor? Esto es también desconcertante.
Resumiendo: en las postrimerías de la década de 1960-1970, Venus se nos muestra
como el planeta más enigmático del Sistema Solar.
Y, sin embargo, hay otros enigmas que nos tocan más de cerca. En cierto modo, la
Luna es extraordinariamente grande. Su masa equivale a la 1/81 parte de la
terrestre. Ningún otro satélite del Sistema Solar es tan grande en comparación con
su respectivo planeta. Por añadidura, la Luna no gira alrededor de la Tierra en el
plano del ecuador terrestre, sino que su órbita se inclina sensiblemente sobre ese
plano (una órbita más próxima al plano donde los planetas giran alrededor del Sol).
¿Sería posible que la Luna no fuera inicialmente un satélite de la Tierra, sino un
planeta independiente, que vino a caer, quién sabe cómo, bajo el influjo de la
Tierra? La Tierra y la Luna, ¿no serán planetas gemelos?
Esta incógnita sobre el origen de la Luna y los antecedentes históricos del sistema
Tierra-Luna constituyen uno de los motivos que han causado mayor revuelo entre
los científicos, induciéndolos a emprender el estudio acelerado de la superficie lunar,
incluyendo en ello el envío, a nuestro satélite, de astronaves tripuladas.
Heráclides del Ponto sugirió que era mucho más sencillo suponer que la Tierra
giraba sobre su eje, que el hecho de que, por el contrario, fuese toda la bóveda de
los cielos la que girase en torno a la Tierra. Sin embargo, tanto los sabios de la
Antigüedad como los de la Edad Media se negaron a aceptar dicha teoría. Así, como
ya sabemos, en 1613, Galileo fue condenado por la Inquisición y forzado a rectificar
su idea de una Tierra en movimiento.
No obstante, las teorías de Copérnico hicieron completamente ilógica la idea de una
Tierra inmóvil, y, poco a poco, el hecho de su rotación fue siendo aceptado por
todos. Pero hasta 1851 no pudo demostrarse de forma experimental esta rotación.
En dicho año, el físico francés Jean-Bernard-Léon Foucault colocó un enorme
péndulo, que se balanceaba colgado de la bóveda de una iglesia de París. Según las
conclusiones de los físicos, un objeto como el Péndulo debería mantener su
balanceo en un plano fijo, indiferentemente de la rotación de la Tierra. Por ejemplo,
en el polo Norte el péndulo oscilaría en un plano fijo, en tanto que la Tierra giraría
bajo el mismo, en sentido contrario a las manecillas del reloj, en 24 horas.
Puesto que una persona que observase el péndulo sería transportada por el
movimiento de la Tierra, la cual, por otra parte, le parecería inmóvil al observador,
dicha persona tendría la impresión que el plano de balanceo del péndulo se dirigiría
a la derecha, mientras se producía una vuelta completa en 24 horas. En el polo Sur
se observaría el mismo fenómeno, aunque el plano en oscilación del péndulo
parecería girar en sentido contrario a las manecillas del reloj.
En las latitudes interpolares, el plano del péndulo también giraría (en el hemisferio
Norte de acuerdo con las manecillas del reloj, y en el Sur, en sentido contrario),
aunque en períodos progresivamente más largos, a medida que el observador se
alejara cada vez más de los polos. En el ecuador no se alteraría en modo alguno el
plano de oscilación del péndulo.
Durante el experimento de Foucault, el plano de balanceo del péndulo giró en la
dirección y del modo adecuado. El observador pudo comprobar con sus propios ojos,
por así decirlo- que la Tierra giraba bajo el péndulo.
Modelo del origen del Sistema Solar, de Carl F. von Weksäcker. Su teoría afirma que
la gran nube a partir de la que se formó este sistema se fragmentó en remolinos y
sobremolinos, que luego por un proceso de coalescencia, originaron el Sol, los
planetas y sus satélites.
Tales efectos Coriolis sobre las masas de aire determinan que giren, en el
hemisferio Norte, en el sentido de las manecillas del reloj. En el hemisferio Sur, el
efecto es inverso, o sea, que se mueven en sentido contrario a las manecillas del
reloj. En cualquier caso se originan «trastornos de tipo ciclónico». Las grandes
tempestades de este tipo se llaman «huracanes, en el Atlántico Norte, y «tifones»
en el Pacífico Norte. Las más pequeñas, aunque también más intensas, son los
«ciclones» o «tornados». En el mar, estos violentos torbellinos originan
espectaculares «trombas marinas».
Sin embargo, la deducción más interesante hecha a partir de la rotación de la Tierra
se remonta a dos siglos antes del experimento de Foucault, en tiempos de Isaac
Newton. Por aquel entonces, la idea de la Tierra como una esfera perfecta tenía ya
una antigüedad de casi 2.000 años. Pero Newton consideró detenidamente lo que
ocurría en una esfera en rotación. Señaló la diferencia de la velocidad el movimiento
en las distintas latitudes de la superficie de la Tierra y reflexionó sobre el posible
significado de este hecho.
Cuanto más rápida es la rotación, tanto más intenso es el efecto centrífugo, o sea,
la tendencia a proyectar material hacia el exterior a partir del centro de rotación.
Por tanto, se deduce de ello que el efecto centrífugo se incrementa sustancialmente
desde 0, en los polos estacionarios, hasta un máximo en las zonas ecuatoriales, que
giran rápidamente. Esto significa que la Tierra debía de ser proyectada al exterior
con mayor intensidad en su zona media. En otras palabras, debía de ser un
«esferoide», con un «ensanchamiento ecuatorial» y un achatamiento polar. Debía
de tener, aproximadamente, la forma de una mandarina, más que la de una pelota
de golf. Newton calculó también que el achatamiento polar debía de ser 1/230 del
diámetro total, lo cual se halla, sorprendentemente, muy cerca de la verdad.
La Tierra gira con tanta lentitud sobre sí misma, que el achatamiento y el
ensanchamiento son demasiado pequeños para ser detectados de forma inmediata.
Pero al menos dos observaciones astronómicas apoyaron el razonamiento de
Newton. En primer lugar, en Júpiter y Saturno se distinguía claramente la forma
achatada de los polos, tal como demostró por vez primera el astrónomo francés, de
origen italiano, Giovanni Domenico Cassini, en 1687. Ambos planetas eran bastante
mayores que la Tierra, y su velocidad de rotación era mucho más rápida. Júpiter,
a Laponia, cerca del Ártico. En 1744, sus mediciones proporcionaron una clara
respuesta: la Tierra era sensiblemente más curva, en Perú que en Lapona.
Hoy, las mejores mediciones demuestran que el diámetro de la Tierra es 42,96 km
más largo en el ecuador que en el eje que atraviesa los polos (es decir, 12.756,78,
frente a 12.713,82 km).
Quizás el resultado científico más importante, como producto de las investigaciones
del siglo XVIII sobre la forma de la Tierra, fue el obtenido por los científicos
insatisfechos con el estado del arte de la medición. No existían patrones de
referencia para una medición precisa. Esta insatisfacción fue, en parte, la causa de
que, durante la Revolución francesa, medio siglo más tarde, se adoptara un lógico y
científicamente elaborado sistema «métrico», basado en el metro. Tal sistema lo
utilizan hoy, satisfactoriamente, los sabios de todo el mundo, y se usa en todos los
países civilizados, excepto en las naciones de habla inglesa, principalmente, Gran
Bretaña y los Estados Unidos. No debe subestimarse la importancia de unos
patrones exactos de medida. Un buen porcentaje de los esfuerzos científicos se
dedica continuamente al mejoramiento de tales patrones. El patrón metro y el
patrón kilogramo, construidos con una aleación de platino-iridio (virtualmente
inmune a los cambios químicos), se guardan en Sèvres (París), a una temperatura
constante, para prevenir la expansión o la contracción.
Luego se descubrió que nuevas aleaciones, como el «invar» (abreviatura de
invariable), compuesto por níquel y hierro en determinadas proporciones, apenas
eran afectadas por los cambios de temperatura. Podrían usarse para fabricar
mejores patrones de longitud. En 1920, el físico francés (de origen suizo) Charles-
Édouard Guillaume, que desarrolló el invar, recibió el Premio Nobel de Física.
Sin embargo, en 1960 la comunidad científica decidió abandonar el patrón sólido de
la longitud. La Conferencia General del Comité Internacional de Pesas y Medidas
adoptó como patrón la longitud de la ínfima onda luminosa emitida por el gas noble
criptón. Dicha onda, multiplicada por 1.650.763,73, mucho más invariable que
cualquier módulo de obra humana- equivale a un metro. Esta longitud es mil veces
más exacta que la anterior.
La forma de la Tierra idealmente lisa, sin protuberancias, a nivel del mar, se llama
«geoide». Por supuesto que la superficie de la Tierra está salpicada de accidentes
determinado el geoide, o sea, la forma de la Tierra a nivel del mar, que se desvía
del esferoide perfecto en menos de 90 m en todos los puntos. Hoy puede medirse la
fuerza de la gravedad con ayuda de un «gravímetro», peso suspendido de un
muelle muy sensible. La posición del peso con respecto a una escala situada detrás
del mismo indica la fuerza con que es atraído hacia abajo y, por tanto, mide con
gran precisión las variaciones en la gravedad.
La gravedad a nivel del mar varía, aproximadamente, en un 0,6 %, y, desde luego,
es mínima en el ecuador. Tal diferencia no es apreciable en nuestra vida corriente,
pero puede afectar a las plusmarcas deportivas. Las hazañas realizadas en los
Juegos Olímpicos dependen, en cierta medida, de la latitud (y altitud) de la ciudad
en que se celebren.
Un conocimiento de la forma exacta del geoide es esencial para levantar con
precisión los mapas, y, en este sentido, puede afirmarse que se ha cartografiado
con exactitud sólo un 7 % de la superficie terrestre. En la década de 1950, la
distancia entre Nueva York y Londres, por ejemplo, sólo podía precisarse con un
error de 1.600 m más o menos, en tanto que la localización de ciertas islas en el
Pacifico se conocía sólo con una aproximación de varios kilómetros. Esto representa
un inconveniente en la Era de los viajes aéreos y de los misiles.
Pero, en realidad, hoy es posible levantar mapas exactos de forma bastante
singular, no ya por mediciones terrestres, sino astronómicas. El primer instrumento
de estas nuevas mediciones fue el satélite artificial Vanguard I, lanzado por los
Estados Unidos el 17 de marzo de 1958. Dicho satélite da una vuelta alrededor de la
Tierra en dos horas y media, y en sus dos primeros años de vida ha efectuado ya
mayor número de revoluciones en torno a nosotros que la Luna en todos los siglos
de observación con el telescopio. Mediante las observaciones de la posición del
Vanguard I en momentos específicos y a partir de determinados puntos de la Tierra,
se han podido calcular con precisión las distancias entre estos puntos de
observación. De esta forma, posiciones y distancias conocidas con un error de
varios kilómetros, se pudieron determinar, en 1959, con un error máximo de un
centenar de metros. (Otro satélite, el Transit I-B, lanzado por los Estados Unidos el
13 de abril de 1960, fue el primero de una serie de ellos creada específicamente
para establecer un sistema de localización exacta de puntos en la superficie de la
Tierra, cosa que podría mejorar y simplificar en gran manera la navegación aérea y
marítima.)
Al igual que la Luna, el Vanguard I circunda la Tierra describiendo una elipse que no
está situada en el plano ecuatorial del Planeta. Tal como en el caso de la Luna, el
perigeo (máxima aproximación) del Vanguard I varía a causa de la atracción
ecuatorial. Dado que el Vanguard I está más cerca del ecuador terrestre y es mucho
más pequeño que la Luna, sufre sus efectos con más intensidad. Si añadimos a esto
su gran número de revoluciones, el efecto del ensanchamiento ecuatorial puede
estudiarse con más detalle. Desde 1959 se ha comprobado que la variación del
perigeo del Vanguard I no es la misma en el hemisferio Norte que en el Sur. Esto
demuestra que el ensanchamiento no es completamente simétrico respecto al
ecuador; parece ser 7,5 m más alto (o sea, que se halla 7,5 m más distante del
centro de la Tierra) en los lugares situados al sur del ecuador que en los que se
hallan al norte de éste. Cálculos más detallados mostraron que el polo Sur estaba
15 m más cerca del centro de la Tierra (contando a partir del nivel del mar) que el
polo Norte.
En 1961, una información más amplia, basada en las órbitas del Vanguard I y del
Vanguard II (este último, lanzado el 17 de febrero de 1959), indica que el nivel del
mar en el ecuador no es un círculo perfecto. El diámetro ecuatorial es 420 m (casi
medio kilómetro) más largo en unos lugares que en otros.
La Tierra ha sido descrita como «piriforme» y el ecuador, como «ovoide». En
realidad, estas desviaciones de la curva perfecta son perceptibles sólo gracias a las
más sutiles mediciones. Ninguna visión de la Tierra desde el espacio podría mostrar
algo parecido a una pera o a un huevo; lo máximo que podría verse sería algo
semejante a una esfera perfecta. Además, detallados estudios del geoide han
mostrado muchas regiones de ligeros achatamiento y ensanchamiento, por lo cual,
si tuviésemos que describir adecuadamente la Tierra, podríamos decir que es
parecida a una «mora».
Un conocimiento del tamaño y forma exactos de la Tierra permite calcular su
volumen, que es de 1.083.319 x 166 km3). Sin embargo, el cálculo de la masa de la
Tierra es un problema mucho más complejo, aunque la ley de la gravitación, de
Por tanto, para hallar el valor de g hemos de medir la fuerza gravitatoria entre dos
cuerpos de masa conocida, a una determinada distancia entre sí. El problema radica
en que la fuerza gravitatoria es la más débil que conocemos. Y la atracción
gravitatoria entre dos masas de un tamaño corriente, manejables, es casi imposible
de medir.
Sin embargo, en 1798, el físico inglés Henry Cavendish, opulento y neurótico genio
que vivió y murió en una soledad casi completa, pero que realizó algunos de los
experimentos más interesantes en la historia de la Ciencia- consiguió realizar esta
medición. Cavendish ató una bola, de masa conocida, a cada una de las dos puntas
de una barra, y suspendió de un delgado hilo esta especie de pesa de gimnasio.
Luego colocó un par de bolas más grandes, también de masa conocida, cada una de
ellas cerca de una de las bolas de la barra, en lugares opuestos, de forma que la
atracción gravitatoria entre las bolas grandes, fijas, y las bolas pequeñas,
suspendidas, determinara el giro horizontal de la pesa colgada, con lo cual giraría
también el hilo. Y, en realidad, la pesa giró, aunque muy levemente. Cavendish
midió entonces la fuerza que producía esta torsión del hilo, lo cual le dio el valor de
f. Conocía también m1 y m2, las masas de las bolas, y d, la distancia entre las bolas
atraídas. De esta forma pudo calcular el valor de g. Una vez obtenido éste, pudo
El hecho que la Tierra misma atraiga tal peso con la fuerza de 500 gr, incluso a una
distancia de 6.000 km de su centro, subraya cuán grande es la masa de la Tierra.
En efecto, es de 5,98 x 1021 Tm.
A partir de la masa y el volumen de la Tierra, su densidad media puede calcularse
fácilmente. Es de unos 5,522 gr/cm3 (5,522 veces la densidad del agua). La
densidad de las rocas en la superficie de la Tierra alcanza una media de sólo 2,8
gr/cm3), por lo cual debe ser mucho mayor la densidad del interior. ¿Aumenta
uniforme y lentamente hacia el centro de la Tierra? La primera prueba que no
ocurre esto, es decir, que la Tierra está compuesta por una serie de capas
diferentes- nos la brinda el estudio de los terremotos.
durante los tiempos históricos; dos terceras partes de ellos se hallan en las
márgenes del Pacífico.
Cuando un volcán apresa y recalienta formidables cantidades de agua desencadena
tremendas catástrofes, si bien ocurre raras veces. El 26-27 de agosto de 1883, la
pequeña isla volcánica de Krakatoa en el estrecho entre Sumatra y Java, hizo
explosión con un impresionante estampido que, al parecer, ha sido el más fragoroso
de la Tierra durante los tiempos históricos. Se oyó a 4.800 km de distancia, y,
desde luego, lo registraron también muy diversos instrumentos, diseminados por
todo el Globo terráqueo. Las ondas sonoras dieron varias vueltas al planeta. Volaron
por los aires 8 km3 de roca. Las cenizas oscurecieron el cielo, cubrieron centenares
de kilómetros cuadrados y dejaron en la estratosfera un polvillo que hizo brillar las
puestas de Sol durante largos años. El tsunami con sus olas de 30 m de altura,
causó la muerte a 36.000 personas en las playas de Sumatra y Java. Su oleaje se
detectó en todos los rincones del mundo.
Es muy probable que un acontecimiento similar, de consecuencias más graves aún,
se produjera hace 3.000 años en el Mediterráneo. En 1967, varios arqueólogos
americanos descubrieron vestigios de una ciudad enterrada bajo cenizas, en la
pequeña isla de Thera, unos 128 km al norte de Creta. Al parecer estalló, como el
Krakatoa, allá por el 1400 a. de J.C. El tsunami resultante asoló la isla de Creta,
sede de una floreciente civilización, cuyo desarrollo databa de fechas muy remotas.
No se recuperó jamás de tan tremendo golpe. Ello acabó con el dominio marítimo de
Creta, el cual fue seguido por un período inquieto y tenebroso, y pasarían muchos
siglos para que aquella zona lograse recuperar una mínima parte de su pasado
esplendor. La dramática desaparición de Thera quedó grabada en la memoria de los
supervivientes, y su leyenda pasó de unas generaciones a otras, con los
consiguientes aditamentos. Tal vez diera origen al relato de Platón sobre la
Atlántida, la cual se refería once siglos después de la desaparición de Thera y la
civilización cretense.
Sin embargo, quizá la más famosa de las erupciones volcánicas sea una bastante
pequeña comparada con la de Krakatoa o Thera. Fue la erupción del Vesubio
(considerado entonces como un volcán apagado) que sepultó Pompeya y Herculano,
dos localidades veraniegas de los romanos. El famoso enciclopedista Cayo Plinio
Secundo (más conocido como Plinio) murió en aquella catástrofe, que fue descrita
por un testigo de excepción: Plinio el Joven, sobrino suyo.
En 1763 se iniciaron las excavaciones metódicas de las dos ciudades sepultadas.
Tales trabajos ofrecieron una insólita oportunidad para estudiar los restos,
relativamente bien conservados, de una ciudad del período más floreciente de la
Antigüedad.
Otro fenómeno poco corriente es el nacimiento de un volcán. El 20 de febrero de
1943 se presenció en México tan impresionante fenómeno. En efecto, surgió
lentamente un volcán en lo que había sido hasta entonces un idílico trigal de
Paricutín, aldea situada 321 km al oeste de la capital mexicana. Ocho meses
después se había transformado en un ceniciento cono, de 450 m de altura.
Naturalmente, hubo que evacuar a los habitantes de la aldea.
La investigación moderna sobre los volcanes y el papel que desempeñan en la
formación de la mayor parte de la corteza terrestre la inició el geólogo francés Jean-
Étienne Guettard, a mediados del siglo XVIII. A finales del mismo siglo, los solitarios
esfuerzos del geólogo alemán Abraham Gottlob Werner popularizaron la falsa noción
que la mayor parte de las rocas tenían un origen sedimentario, a partir del océano,
que en tiempos remotos había sido el «ancho mundo» («neptunismo»). Sin
embargo, el peso de la evidencia, particularmente la presentada por Hutton,
demostró que la mayor parte de las rocas habían sido formadas a través de la
acción volcánica («plutonismo»). Tanto los volcanes como los terremotos podrían
ser la expresión de la energía interna de la Tierra, que se origina, en su mayoría, a
partir de la radiactividad (capítulo VI).
Una vez los sismógrafos proporcionaron datos suficientes de las ondas sísmicas,
comprobóse que las que podían estudiarse con más facilidad se dividían en dos
grandes grupos: «ondas superficiales» y «ondas profundas». Las superficiales
siguen la curva de la Tierra; en cambio, las profundas viajan por el interior del
Globo y, gracias a que siguen un camino más corto, son las primeras en llegar al
sismógrafo. Estas ondas profundas se dividen, a su vez, en dos tipos: primarias
(«ondas P») y secundarias «ondas S»). Las primarias, al igual que las sonoras, se
mueven en virtud de la compresión y expansión alternativas del medio (para
representárnoslas podemos imaginar, por un momento, el movimiento de un
Rutas que siguen las ondas sísmicas en el interior de la Tierra. Las ondas
superficiales se desplazan a lo largo de la corteza. El núcleo líquido de la Tierra
refracta las ondas profundas de tipo P. Las ondas S no pueden desplazarse a través
del núcleo.
La velocidad, tanto de las ondas P como de las S, viene afectada por el tipo de roca;
la temperatura y la presión, como han demostrado los estudios de laboratorio. Por
tanto, las ondas sísmicas pueden ser utilizadas como sondas para investigar las
condiciones existentes bajo la superficie de la Tierra.
Una onda primaria que corra cerca de la superficie, se desplaza a una velocidad de
8 km/seg. A 1.600 km por debajo de la superficie y a juzgar por sus tiempos de
llegada, correría a 12 km/seg. De modo semejante, una onda secundaria se mueve
a una velocidad de menos de 5 km/seg cerca de la superficie, y a 6 km/seg a una
profundidad de 1.600 km. Dado que un incremento en la velocidad revela un
aumento en la densidad, podemos calcular la densidad de la roca debajo de la
superficie. En la superficie, como ya hemos dicho, la densidad media es de 2,8
gr/cm3. A 1.600 km por debajo, aumenta a 5 gr/cm3 y a 2.800 km es ya de unos 6
gr/cm3.
Al alcanzar la profundidad de 2.800 km se produce un cambio brusco. Las ondas
secundarias desaparecen. En 1906, el geólogo británico R. D. Oldham supuso que
esto se debería a que la región existente debajo de esta cota es líquida: las ondas
alcanzarían en ella la frontera del «núcleo liquido» de la Tierra. Al mismo tiempo,
las ondas primarias que alcanzan este nivel cambian repentinamente de dirección,
al parecer, son refractadas al penetrar en dicho núcleo líquido.
El límite del núcleo líquido se llama «discontinuidad de Gutenberg», en honor del
geólogo americano Beno Gutenberg, quien, en 1914, lo definió y mostró que el
núcleo se extiende hasta los 3.475 km a partir del centro de la Tierra. En 1936, el
matemático australiano Keith Edward Bullen estudió las diversas capas profundas de
la tierra y calculó su densidad tomando como referencia los datos sobre seísmos.
Confirmaron este resultado los datos obtenidos tras el formidable terremoto de
Chile en 1960. Así, pues, podemos afirmar que, en la discontinuidad de Gutenberg,
la densidad de la materia salta de 6 a 9, y desde aquí, hasta el centro, aumenta
paulatinamente a razón de 11.5 gr/cm3.
¿Cuál es la naturaleza del núcleo líquido? Debe de estar compuesto por una
sustancia cuya densidad sea de 9 a 11,5 gr/cm3 en las condiciones de temperatura
y presión reinantes en el núcleo. Se estima que la presión va desde las 20.000
Tm/cm2 en el límite del núcleo líquido, hasta las 50.000 Tm/cm2 en el centro de la
Tierra. La temperatura es, sin duda, menor. Basándose en el conocimiento de la
proporción en que se incrementa la temperatura con la profundidad en las minas, y
en la medida en que las rocas pueden conducir el calor, los geólogos estiman,
aproximadamente, que las temperaturas en el núcleo líquido pueden alcanzar los
5.000º C. (El centro del planeta Júpiter, mucho mayor, puede llegar a los 500.000º
C.)
La sustancia del núcleo debe estar constituida por algún elemento lo bastante
corriente como para poder formar una esfera de la mitad del diámetro de la Tierra y
un tercio de su masa. El único elemento pesado corriente en el Universo es el
hierro. En la superficie de la Tierra, su densidad es sólo de 7,86 gr/cm3; pero bajo
las enormes presiones del núcleo podría alcanzar una densidad del orden antes
indicado, o sea, de 9 a 12 gr/cm3. Más aún, en las condiciones del centro de la
Tierra sería líquido.
Por si fuera necesaria una mayor evidencia, ésta es aportada por los meteoritos, los
cuales pueden dividirse en dos amplias clases: meteoritos «rocosos», formados
principalmente por silicatos, y meteoritos «férricos», compuestos de un 90 % de
hierro, un 9 % de níquel y un 1 % de otros elementos. Muchos científicos opinan
que los meteoritos son restos de planetas desintegrados; si fuese así, los meteoritos
de hierro podrían ser partes del núcleo líquido del planeta en cuestión, y los
meteoritos rocosos, fragmentos de su manto. (Ya en 1866, o sea, mucho tiempo
antes que los sismólogos demostraran la naturaleza del núcleo de la Tierra, la
composición de los meteoritos de hierro sugirió al geólogo francés Gabriel-Auguste
Daubrée, que el núcleo de nuestro planeta estaba formado por hierro.)
La mayoría de los geólogos aceptan hoy como una realidad el hecho de un núcleo
líquido de níquel-hierro, por lo que se refiere a la estructura de la Tierra, idea que
fue más elaborada posteriormente. En 1936, el geólogo danés I. Lehmann, al tratar
de explicar el desconcertante hecho que algunas ondas primarias aparezcan en una
«zona de sombras», de la mayor parte de cuya superficie quedan excluidas tales
ondas, sugirió que lo que determinaba una nueva inflexión en las ondas era una
discontinuidad en el interior del núcleo, a unos 1.290 km del centro, de forma que
algunas de ellas penetraban en la zona de sombra. Gutenberg propugnó esta teoría,
y en la actualidad muchos geólogos distinguen un «núcleo externo», formado por
níquel y hierro líquidos, y un «núcleo interno», que difiere del anterior en algún
aspecto, quizás en su naturaleza sólida o en su composición química, ligeramente
distinta. Como resultado de los grandes temblores de tierra en Chile, en 1969, todo
el globo terrestre experimentó lentas vibraciones, a frecuencias que eran iguales a
las previstas si se tenía en cuenta sólo el núcleo interno. Esto constituyó una sólida
prueba en favor de su existencia.
La porción de la Tierra que circunda el núcleo de níquel-hierro se denomina
«manto». En apariencia está compuesto por silicatos, pero, a juzgar por la velocidad
de las ondas sísmicas que discurren a través de ellos, estos silicatos difieren de las
típicas rocas de la superficie de la Tierra, algo que demostró por vez primera, en
1919, el físico-químico americano Leason Heberling Adams. Sus propiedades
sugieren que son rocas de tipo «olivino» (de un color verde oliva, como indica su
nombre), las cuales son, comparativamente, ricas en magnesio y hierro y pobres en
aluminio.
El manto no se extiende hasta la superficie de la Tierra. Un geólogo croata, Andrija
Mohorovicic, mientras estudiaba las ondas causadas por un terremoto en los
Balcanes en 1909, llegó a la conclusión que existía un claro incremento en la
velocidad de las ondas en un punto que se hallaría a unos 32 km de profundidad.
Esta «discontinuidad de Mohorovicic» (llamada, simplemente, «Moho») se acepta
hoy como la superficie límite de la «corteza» terrestre.
La índole de esta corteza y del manto superior ha podido explorarse mejor gracias a
las «ondas superficiales». Ya nos hemos referido a esto. Al igual que las «ondas
profundas», las superficiales se dividen en dos tipos. Uno de ellos lo constituyen las
llamadas «ondas Love» (en honor de su descubridor A. E. H. Love). Las tales ondas
son ondulaciones horizontales semejantes, por su trazado, al movimiento de la
serpiente al reptar. La otra variedad, la componen las «ondas Rayleigh» (llamadas
así en honor del físico inglés John William Strutt, Lord Rayleigh). En este caso, las
ondulaciones son verticales, como las de una serpiente marina al moverse en el
agua.
El análisis de estas ondas superficiales, en particular, el realizado por Maurice
Ewing, de la Universidad de Columbia- muestra que la corteza tiene un espesor
variable. Su parte más delgada se encuentra bajo las fosas oceánicas, donde la
discontinuidad de Moho se halla en algunos puntos, sólo a 13-16 km bajo el nivel
del mar. Dado que los océanos tienen en algunos lugares, de 8 a 11 km de
profundidad, la corteza sólida puede alcanzar un espesor de sólo unos 5 km bajo las
profundidades oceánicas. Por otra parte, la discontinuidad de Moho discurre, bajo
los continentes, a una profundidad media de 32 km por debajo del nivel del mar
(por ejemplo, bajo Nueva York es de unos 35 km), para descender hasta los 64 km
bajo las cadenas montañosas. Este hecho, combinado con las pruebas obtenidas a
partir de mediciones de la gravedad, muestra que la roca es menos densa que el
promedio en las cadenas montañosas.
Pérmico, hace 225 millones de años. Triásico, hace 200 millones de años. Jurásico,
hace 135 millones de años. Cretácico, hace 65 millones de años. Cenozoico, actual.
Resumiendo: Si la Luna estaba entonces mucho más cerca de la Tierra y ésta giraba
con mayor rapidez. ¿qué sucedió en períodos más antiguos aún? Y si la teoría de
Darwin sobre una disociación Tierra-Luna no es cierta, ¿dónde hay que buscar esta
certeza?
Una posibilidad es la que la Luna fuese capturada por la Tierra en alguna fase del
pasado. Si dicha captura se produjo, por ejemplo, hace 600 millones de años, sería
explicable el hecho que justamente por aquella época aparecieran numerosos fósiles
en las rocas, mientras que las rocas anteriores muestran sólo algunos vestigios de
carbono. Las formidables mareas que acompañarían a la captura de la Luna, pulirían
por completo las rocas más primitivas. (Por entonces no había vida animal, y si la
hubiese habido, no habría quedado ni rastro de ella.) De haberse producido esa
captura, la Luna habría estado entonces más cerca de la Tierra que hoy y se habría
producido un retroceso lunar, así como un alargamiento del día, aunque nada de
ello con anterioridad.
Según otra hipótesis, tendría su origen en la misma nube de polvo cósmico, y se
formaría en los contornos de la Tierra para alejarse desde entonces, sin formar
nunca parte de nuestro planeta. Lo cierto es que los astrónomos ignoran aún los
hechos, si bien esperan descubrirlos mediante una incesante exploración de la
superficie lunar, gracias al envío alternativo de hombres y máquinas a nuestra
compañera espacial.
El hecho que la Tierra esté formada por dos componentes fundamentales, el manto
de silicatos y el núcleo níquel-hierro, cuyas proporciones se asemejan mucho a las
de la clara y la yema en un huevo- ha convencido a casi todos los geólogos que el
globo terráqueo debió de haber sido líquido en algún tiempo de su historia
primigenia. Entonces su composición pudo haber constado de dos elementos
líquidos, mutuamente insolubles. El silicato líquido formaría una capa externa, que
flotaría a causa de su mayor ligereza y, al enfriarse, irradiaría su calor al espacio. El
hierro líquido subyacente, al abrigo de la exposición directa, liberaría su calor con
mucha más lentitud, por lo cual ha podido conservarse hasta ahora en tal estado.
Como mínimo podemos considerar tres procesos a cuyo través pudo la Tierra haber
adquirido el calor suficiente para fundirse, aún partiendo de un estado totalmente
frío, como una agrupación de planetesimales. Estos cuerpos, al chocar entre sí y
unirse, liberarían, en forma de calor, su energía de movimiento («energía
cinética»). Entonces, el nuevo planeta sufriría la compresión de la fuerza
gravitatoria y desprendería más calor aún. En tercer lugar; las sustancias
radiactivas de la Tierra, uranio, torio y potasio- producirían grandes cantidades de
calor, para desintegrarse a lo largo de las edades geológicas. Durante las primeras
fases, cuando la materia radiactiva era mucho más abundante que ahora, la
radiactividad pudo haber proporcionado el calor suficiente para licuar la Tierra.
Pero no todos los científicos aceptan el hecho de esa fase líquida como una
condición absoluta. Particularmente el químico americano Harold Clayton Urey cree
que la mayor parte de la Tierra fue siempre sólida. Según él, en una Tierra sólida en
su mayor parte podría formarse también un núcleo de hierro mediante una lenta
disociación de éste. Incluso hoy puede seguir emigrando el hierro desde el manto
hacia e núcleo, a razón de 50.000 Tm/seg.
El enfriamiento de la Tierra desde un estado inicial de fusión o semifusión
contribuiría a explicar su rugosidad externa. Cuando la Tierra se contrajo como
consecuencia del enfriamiento, su corteza se plegaría ocasionalmente. Los
plegamientos menores desencadenarían terremotos; los mayores, o constante
acumulación de pequeños ajustes, determinarían corrimientos de montañas. Sin
embargo, sería relativamente breve la Era de formación de las grandes cadenas
montañosas. Una vez formadas, las montañas sufrirían los efectos de la erosión, en
una secuencia bastante limitada, con arreglo a la escala geológica del tiempo. Luego
seguiría un largo período de estabilidad, hasta que las fuerzas orogénicas llegaran a
crear una tensión lo suficientemente intensa como para iniciar una nueva fase de
plegamientos. Así, pues, la Tierra sería, durante la mayor parte de su vida, un
planeta más bien monótono y prosaico, con mares poco profundos y continentes
aplanados.
Pero a esta teoría se opone un grave obstáculo: el hecho de que, al parecer, la
Tierra no se enfría realmente. Quienes piensan lo contrario se fundan en la lógica
suposición que un cuerpo se enfría, por fuerza, cuando no hay una fuente de calor
continuo. En efecto. Pero en el caso de la Tierra existe esa fuente de calor continuo,
de lo cual no se tuvo conocimiento antes del siglo XX. Esa nueva fuente salió a luz
con el descubrimiento de la radiactividad, en 1896, cuando se comprobó que entre
los recovecos del átomo yacía oculta una nueva forma de energía absolutamente
insospechada hasta entonces.
Según parece, durante los últimos centenares de millones de años, la radiactividad
ha ido generando en la corteza y el manto el calor suficiente para evitar, por lo
El Océano
La Tierra constituye una excepción entre los planetas del Sistema Solar, ya que su
temperatura superficial permite que exista el agua en sus tres estados: líquido,
sólido y gaseoso. Por lo que sabemos, la Tierra es también el único miembro del
Sistema Solar que posee océanos. En realidad tendríamos que decir «océano», pues
los océanos Pacifico, Atlántico, Índico, Ártico y Antártico forman, en conjunto, un
cuerpo de agua salada en el que pueden ser consideradas como islas la masa de
Europa-Asia-África, los continentes americanos y las masas pequeñas, tales como la
Antártica y Australia.
lo cual, incluso en los trópicos, los niveles más profundos del mar son muy fríos (se
hallan cerca del punto de congelación). Eventualmente, el agua fría de las
profundidades reemerge. Una vez en la superficie, se calienta y es impulsada hacia
el Ártico o el Antártico, donde vuelve a descender. Puede afirmarse que la
circulación resultante determinaría una dispersión total, en el océano Atlántico, en
unos 1.000 años, de cualquier producto que se hubiera vertido en algún lugar del
mismo. En el océano Pacífico, más extenso, esta dispersión tardaría unos 2.000
años en realizarse por completo.
Las barreras continentales complican esta imagen general. Para seguir las corrientes
actuales, los oceanógrafos han acudido al oxígeno como elemento trazador. El agua
fría absorbe más oxígeno que la caliente. Por tanto, el agua superficial ártica es
particularmente rica en oxígeno. Al descender, invariablemente cede su oxígeno a
los organismos que se alimentan de él. De esta forma, midiendo la concentración en
oxígeno del agua profunda en diversos lugares, se puede comprobar la dirección de
las corrientes marinas profundas.
Este tipo de cartografía ha demostrado que una importante corriente fluye desde el
Ártico hacia el Atlántico bajo la Corriente del Golfo, y otra en dirección opuesta,
desde el Antártico hacia el Atlántico Sur. El océano Pacífico no recibe ninguna
corriente directa del Ártico, porque el único «orificio» de desagüe hasta él es el
angosto y poco profundo estrecho de Bering. He aquí por qué constituye el final del
camino para las comentes profundas. Que el Pacífico Norte representa, en efecto, el
término de todas las corrientes, viene demostrado por el hecho que sus aguas
profundas son pobres en oxígeno. Debido a ello, amplias zonas de este inmenso
océano están muy espaciadamente pobladas de seres vivos y constituyen la
equivalencia de las áreas desérticas en tierra firme. Lo mismo puede decirse de los
mares casi interiores, como el Mediterráneo, donde queda parcialmente
obstaculizada la circulación total del oxígeno y los alimentos.
En 1957 se obtuvo una prueba más directa de esta imagen de las corrientes
profundas, durante una expedición oceanográfica conjunta británico-americana. Los
investigadores utilizaron una boya especial, ideada por el oceanógrafo británico
John C. Swallow. Mantenía su nivel a poco más de 1,6 km de profundidad e iba
provista de un dispositivo para emitir ondas sonoras de onda corta. Gracias a estas
animales pueden «deducir» la localización de los insectos cuya caza persiguen y los
obstáculos que han de evitar. (De aquí que puedan volar perfectamente aún siendo
ciegos, lo cual no podrían hacer si estuviesen privados del oído. El biólogo italiano
Lázaro Spallanzani fue el primero en observar, en 1793, que los murciélagos
pueden «ver» con los oídos.)
Las marsopas, al igual que los guácharos (aves que viven en cuevas en Venezuela)
utilizan también los sonidos para «localizar mediante el eco». Puesto que sus presas
son más grandes, emplean ondas sonoras situadas en la región audible, que bastan
para su propósito. (Los complejos sonidos que emiten los animales de cerebro
mayor, como las marsopas y los delfines, pueden incluso, y así se sospecha hoy-
ser utilizados para un tipo de comunicación general, o sea, para «conversar». El
biólogo americano John C. Lilly ha investigado de forma exhaustiva esta
posibilidad.)
Para utilizar las propiedades de las ondas sonoras ultrasónicas, el hombre debe,
ante todo, producirlas. Una muestra de ello, a pequeña escala, la tenemos en el
silbato de perro, (construido, por vez primera, en 1883). Emite un sonido situado
casi en la zona ultrasónica, que puede ser oído por los perros, pero no por los seres
humanos.
Un camino más prometedor parecía ser el abierto por el químico francés Pierre Curie
y su hermano, Jacques, quienes, en 1880, descubrieron que las presiones ejercidas
sobre ciertos cristales determinaban un potencial eléctrico («piezoelectricidad»). La
acción contraria también es válida. Aplicando un potencial eléctrico a un cristal de
este tipo, se produce una ligera constricción, como si se aplicara la presión
(«electrostricción»). Cuando se desarrolló la técnica para producir un potencial que
fluctuaba más rápidamente, se logró hacer vibrar los cristales con la suficiente
rapidez como para emitir ondas ultrasónicas. Esto lo realizó por vez primera, en
1917, el físico francés Paul Langevin, quien aplicó en seguida a la detección de los
submarinos los excelentes poderes de reflexión de este sonido de onda corta.
Durante la Segunda Guerra Mundial, este método, perfeccionado, se transformó en
el «sonar» («Sound navigation and ranging» [o sea, navegación y localización por el
sonido]; «ranging» significa «determinación de la distancia»).
veces más vieja si no mediara ese concepto del «desparramamiento sobre el suelo
marino».
La Hendidura y sus ramificaciones parecen dividir la corteza terrestre en seis
inmensos zócalos y algunos otros más pequeños. Estos zócalos se mueven
impulsados por la actividad reinante a lo largo de la Hendidura, pero lo hacen como
unidades independientes, es decir, que no se produce ningún movimiento apreciable
en los accidentes de un determinado zócalo. La remoción de tales zócalos explica la
rotura de la pangea y la deriva continental producida desde entonces. Nada parece
indicar que tal deriva no pueda determinar algún día una nueva reunión de los
continentes, aunque quizá con otra disposición. En la vida de la Tierra se habrán
formado y fragmentado probablemente muchas pangeas; la fragmentación más
reciente se muestra con mayor claridad en nuestros archivos por la sencilla razón
que es la última. Este concepto sobre el movimiento de los zócalos puede servir
para ilustrar muchas peculiaridades de la corteza terrestre cuyo origen se veía antes
muy incierto. Cuando dos zócalos se unen lentamente, la corteza se arruga y alabea
tanto arriba como abajo, y determina las montadas y sus «raíces». Así parece haber
nacido el Himalaya cuando el zócalo portador de la India estableció lento contacto
con el zócalo donde se asentaba el resto de Asia.
Por otra parte, cuando dos zócalos se unen con demasiada rapidez para permitir la
corrupción, la superficie de uno puede abrirse camino bajo el otro y formar una
fosa, un rosario de islas y una disposición favorable a la actividad volcánica. Tales
fosas e islas se encuentran, por ejemplo, en el Pacífico Occidental.
Los zócalos pueden unirse o separarse indistintamente cuando el desparramamiento
del suelo marino ejerce su influencia sobre ellos. La Hendidura atraviesa la región
occidental de Islandia, isla que se va desintegrando con gran lentitud. Otro punto de
fragmentación se encuentra en el mar Rojo, que es de formación más bien reciente
y debe su existencia a la separación, ya iniciada, entre África y Arabia. (Si se
unieran las dos orillas del mar Rojo coincidirían con exactitud.) Este proceso es
incesante, de tal forma que el mar Rojo constituye un nuevo océano en período de
formación. Su actividad evolutiva viene demostrada por el hecho que en su fondo
hay sectores (según se descubrió el año 1965) con una temperatura de 56º C y una
concentración salina cinco veces superior a la normal.
Perfil del suelo del Pacífico. Las grandes fosas en el suelo marino alcanzan una
profundidad bajo el nivel del mar mayor que la altura del Himalaya, y la cumbre de
las Hawai se eleva sobre el suelo oceánico a mayor altura que la montaña terrestre
más elevada.
Las criaturas de estas simas se hallan tan asociadas a las enormes presiones que
reinan en las grandes profundidades, que son incapaces de escapar de su fosa; en
realidad están como aprisionadas en una isla. Estas criaturas han seguido una
evolución independiente. Sin embargo, en muchos aspectos se hallan tan
estrechamente relacionadas con otros organismos vivientes, que, al parecer, su
evolución en los abismos no data de mucho tiempo. Es posible que algunos grupos
de criaturas oceánicas fueron obligadas a bajar cada vez a mayor profundidad a
causa de la lucha competitiva, mientras que otros grupos se veían forzados, por el
contrario, a subir cada vez más, empujados por la depresión continental, hasta
llegar a emerger a la tierra. El primer grupo tuvo que acomodarse a las altas
presiones, y el segundo, a la ausencia de agua. En general, la segunda adaptación
fue probablemente la más difícil, por lo cual no debe extrañamos que haya vida en
los abismos.
Desde luego, la vida no es tan rica en las profundidades como cerca de la superficie.
La masa de materia viviente que se halla por debajo de los 7.000 m ocupa sólo la
décima parte, por unidad de volumen de océano, respecto a la que se estima para
los 3.000 m. Además, por debajo de los 7.000 m de profundidad hay muy pocos
Del mismo modo que la forma ideal de estudiar el espacio exterior consiste en
enviar hombres hasta él, así, el mejor sistema para investigar las profundidades del
océano es también el de enviar hombres a dichas profundidades.
En el año 1830, Augustus Siebe ideó el primer traje de buzo. Un buzo con un traje
apropiado puede alcanzar sólo unos 90 m. En 1934, Charles William Beebe
consiguió llegar hasta unos 900 m en su «batisfera», pequeña nave de gruesas
paredes, equipada con oxígeno y productos químicos para absorber el anhídrido
carbónico. Su colaborador, Otis Barton, alcanzó una profundidad de 1.350 m en
1948, utilizando una batisfera modificada: el «bentoscopo».
Básicamente, la batisfera es un objeto inerte, suspendido de un buque de superficie
mediante un cable (un cable roto significaba el final de la aventura). Por tanto, lo
que se precisaba, era una nave abisal maniobrable. Tal nave, el «batiscafo», fue
inventada, en 1947, por el físico suizo Auguste Piccard. Construido para soportar
grandes presiones, utilizaba un pesado lastre de bolas de hierro (que, en caso de
emergencia, eran soltadas automáticamente) para sumergirse, y un «globo» con
gasolina (que es más ligera que el agua), para procurar la flotación y la estabilidad.
En su primer ensayo, en las costas de Dakar, al oeste de África, en 1948, el
batiscafo (no tripulado) descendió hasta los 1.350 m.
Posteriormente, Piccard y su hijo Jacques construyeron una versión mejorada del
batiscafo. Esta nave fue llamada Trieste en honor de la que más tarde sería Ciudad
Libre de Trieste, que había ayudado a financiar su construcción. En 1953, Piccard
descendió hasta los 4.000 m en aguas del Mediterráneo.
El Trieste fue adquirido por la Marina de los Estados Unidos, con destino a la
investigación. El 14 de enero de 1960, Jacques Piccard y un miembro de dicha
Marina, Don Walsh, tocaron el suelo de la fosa de las Marianas, o sea, que
descendieron hasta los 11.263 m, la mayor profundidad abisal. Allí, donde la
presión era de 1.100 atmósferas, descubrieron corrientes de agua y criaturas
vivientes. La primera criatura observada era un vertebrado, un pez en forma de
lenguado, de unos 30 cm de longitud y provisto de ojos.
En 1964, el batiscafo Arquímedes, de propiedad francesa, descendió diez veces al
fondo de la sima de Puerto Rico, la cual, con una profundidad de 8.445 m- es la más
honda del Atlántico. También allí, cada metro cuadrado de suelo oceánico tenía su
propia forma de vida.
De modo bastante curioso, el terreno no descendía uniformemente hacia el abismo,
sino que parecía más bien dispuesto en forma de terrazas, como una gigantesca
escalera.
Fridtjof Nansen llegó, en su viaje sobre el hielo ártico, hasta una distancia de 500
km del Polo.
Finalmente, el 6 de abril de 1909, el explorador americano Robert Edwin Peary
alcanzó el Polo propiamente dicho.
El polo Norte ha perdido hoy gran parte de su misterio. Ha sido explorado desde el
hielo, por el aire y bajo el agua. Richard Evelyn Byrd y Floyd Bennett fueron los
primeros en volar sobre él en 1926, y los submarinos han atravesado también sus
aguas.
Entretanto, la masa de hielo más grande del Norte, concentrada en Groenlandia, ha
sido objeto de cierto número de expediciones científicas. Se ha comprobado que el
glaciar de Groenlandia cubre 1.833.900 de los 2.175.600 km2 de aquella isla, y se
sabe también que su hielo alcanza un espesor de más de 1,5 km en algunos
lugares.
A medida que se acumula el hielo, es impulsado hacia el mar, donde los bordes se
fragmentan, para formar los icebergs. Unos 16.000 icebergs se forman por tal
motivo cada año en el hemisferio Norte, el 90 % de los cuales procede de la masa
de hielo de Groenlandia. Los icebergs se desplazan lentamente hacia el Sur, en
particular hacia el Atlántico Oeste. Aproximadamente unos 400 por año rebasan
Terranova y amenazan las rutas de navegación. Entre 1870 y 1890, catorce barcos
se fueron a pique y otros cuarenta resultaron dañados a consecuencia de colisiones
con icebergs.
El clímax se alcanzó en 1912, cuando el lujoso buque de línea Titanic chocó con un
iceberg y se hundió, en su viaje inaugural. Desde entonces se ha mantenido una
vigilancia internacional de las posiciones de estos monstruos inanimados. Durante
los años que lleva de existencia esta «Patrulla del Hielo», ningún barco se ha vuelto
a hundir por esta causa.
Mucho mayor que Groenlandia es el gran glaciar continental del polo Sur. La masa
del hielo de la Antártica cubre 7 veces el área del glaciar de Groenlandia, y tiene un
espesor medio de 1.600 a 2.400 m. Esto se debe a la gran extensión del continente
antártico, que se calcula entre los 13.500.000 y los 14.107.600 km2, aunque
todavía no se sabe con certeza qué parte es realmente tierra y qué cantidad
corresponde al mar cubierto por el hielo. Algunos exploradores creen que la
Antártica es un grupo de grandes islas unidas entre sí por el hielo, aunque, por el
momento, parece predominar la teoría continental.
El famoso explorador inglés James Cook (más conocido como capitán Cook) fue el
primer europeo que rebasó el círculo antártico. En 1773 circunnavegó las regiones
antárticas. (Tal vez fue este viaje el que inspiró The Rime of the Ancient Mariner, de
Samuel Taylor Coleridge, publicada en 1798, que describe un viaje desde el
Atlántico hasta el Pacífico, atravesando las heladas regiones de la Antártica.)
En 1819, el explorador británico Williams Smith descubrió las islas Shetland del Sur,
justamente a 80 km de la costa de la Antártica. En 1821, una expedición rusa avistó
una pequeña isla («Isla de Pedro I»), dentro ya del círculo Antártico; y, en el mismo
año, el inglés George Powell y el norteamericano Nathaniel B. Palmer vieron por
primera vez una península del continente antártico propiamente dicho, llamada hoy
Península de Palmer.
En las décadas siguientes, los exploradores progresaron lentamente hacia el polo
Sur. En 1840, el oficial de Marina americano Charles Wilkes indicó que aquellas
nuevas tierras formaban una masa continental, teoría que se confirmó
posteriormente. El inglés James Weddell penetró en una ensenada (llamada hoy
mar de Weddell) al este de la Península de Palmer, a unos 1.400 km del polo Sur. El
explorador británico James Clark Ross descubrió la otra ensenada mayor de la
Antártica (mar de Ross) y llegó a 1.150 km de distancia del Polo. En 1902-1904, un
tercer súbdito británico, Robert Falcon Scott, viajó a través de los hielos del mar de
Ross, hasta una distancia de 800 km del Polo. Y en 1909, otro inglés, Ernest
Shackleton, cruzó el hielo y llegó a 160 km del Polo.
Finalmente el 16 de diciembre de 1911, alcanzó el éxito el explorador noruego
Roald Amundsen. Por su parte, Scott, que realizó un segundo intento, halló el polo
Sur justamente tres semanas más tarde, sólo para encontrarse con el pabellón de
Amundsen plantado ya en aquel lugar. Scott y sus hombres perecieron en medio del
hielo durante el viaje de retorno.
A finales de la década de 1920, el aeroplano contribuyó en gran manera a la
conquista de la Antártica. El explorador australiano George Hubert Wilkins recorrió,
en vuelo, 1.900 km de su costa, y Richard Evelyn Byrd, en 1929, voló sobre el polo
Sur propiamente dicho. Por aquel tiempo se estableció en la Antártica la primera
En particular los glaciares alpinos han sido objeto de estudio durante mucho tiempo.
En la década de 1820 dos geólogos suizos, J. Venetz y Jean de Charpentier,
comunicaron que las características rocas de los Alpes centrales estaban también
esparcidas por las llanuras del Norte ¿Cómo habían podido llagar hasta allí? Los
geólogos especularon sobre la posibilidad que los glaciares montañosos hubieran
cubierto en otro tiempo un área mucho mayor para dejar abandonados, al retirarse,
peñascos y restos de rocas.
Un zoólogo suizo, Jean-Louis-Rodolphe Agassiz, profundizó en esta teoría. Colocó
líneas de estacas en los glaciares para comprobar si se movían realmente. En 1840
había demostrado, más allá de toda duda, que los glaciares fluían, como verdaderos
ríos lentos, a una velocidad aproximada de 67,5 m por Año. Entretanto, Agassiz
había viajado por Europa y hallado señales de glaciares en Francia e Inglaterra. En
otras áreas descubrió rocas extrañas a su entorno y observó en ellas señales que
sólo podían haber sido hechas por la acción abrasiva de los glaciares, mediante los
guijarros que transportaban incrustados en sus lechos.
Agassiz marchó a los Estados Unidos en 1846 y se convirtió en profesor de Harvard.
Descubrió signos de glaciación en Nueva Inglaterra y en el Medio Oeste. En 1850
era ya del todo evidente que debió de haber existido una época en que gran parte
del hemisferio Norte había estado bajo un enorme glaciar continental. Los depósitos
dejados por este glaciar han sido estudiados con detalle desde los tiempos de
Agassiz. Estas investigaciones han puesto de relieve que el hielo ha avanzado y
retrocedido en cuatro ocasiones. En su desplazamiento hacia el Sur, los hielos
llegaron hasta Cincinnati hace sólo 18.000 años. Al avanzar los glaciares, el clima,
en el Sur, debió de ser más húmedo y frío; al retirarse (para dejar tras sí lagos, de
los cuales, los mayores que existen en la actualidad son los Grandes Lagos), el
clima en el Sur se hizo más caluroso y seco.
El último retroceso de los hielos se produjo entre 8.000 y 12.000 años atrás. Antes
de estas Eras de glaciación hubo un período de clima suave, que se mantuvo por lo
con H. C. Urey, demostró en 1947, que la relación entre la variedad más común de
oxígeno (oxígeno-16) y sus isótopos más raros (por ejemplo, oxígeno-18), presente
en la combinación, variaría según la temperatura. En consecuencia, si se medía la
relación oxígeno-16/oxígeno-18 en el fósil antiguo de un animal marino, podía
averiguarse la temperatura del agua oceánica en el tiempo en que vivió el animal.
En 1950, Urey y su grupo de trabajo perfeccionaron hasta tal punto la técnica que,
mediante el análisis de las capas de la concha de un fósil de 1 millón de años de
edad (una forma extinguida de calamar), pudieron determinar que aquella criatura
había nacido durante un verano, vivido 4 años y muerto en primavera.
El registro de las temperaturas oceánicas durante los últimos 100 millones de años.
glaciales subseguidas en el último millón de años? ¿Por qué se produjo esta rápida
alternancia de glaciación y fusión, en períodos comparativamente pequeños de una
decena de millares de años? Precisas determinaciones de la edad de arrecifes de
coral y de profundos sedimentos marinos han mostrado tales cambios de
temperatura.
En 1920, el físico servio Milutin Milankovich sugirió que esta situación podía
explicarse por lentas variaciones en la relación Tierra-Sol. En ocasiones, la
inclinación de la Tierra variaba ligeramente; en otras, su perihelio (período de
máxima aproximación al Sol en su órbita) se acercaba algo más. Una combinación
de estos factores, argumentaba Milankovich- podría afectar de tal forma la cantidad
de calor recibido del Sol por el hemisferio Norte, que se producirían ascensos y
descensos cíclicos de su temperatura media. Opinaba que tal ciclo tendría una
extensión de unos 40.000 años, lo cual proporcionaría a la Tierra una «Gran
Primavera», un «Gran verano», un «Gran Otoño» y un «Gran Invierno», cada uno
de ellos con una duración de 10.000 años.
La diferencia entre un Gran Verano y un Gran Invierno es realmente pequeña, y la
teoría supone que, sólo tras un largo período de progresiva reducción de la
temperatura global, la pequeña caída de temperatura adicional del Gran Invierno
bastaría para disminuir la temperatura del hemisferio Norte hasta el punto de dar
inicio a las Eras glaciales, hace un millón de años. De acuerdo con la teoría de
Milankovich. ahora estamos viviendo en un Gran Verano y, de aquí a unos 10.000
años aproximadamente, entraremos en otro «Gran Invierno».
La teoría de Milankovich no ha acabado de satisfacer a los geólogos, en especial
porque supone que las Eras glaciales de los hemisferios Norte y Sur se iniciaron en
distintos momentos, lo cual no se ha demostrado. Recientemente se han propuesto
muchas otras teorías: que el Sol sigue ciclos de lenta fluctuación en su emisión de
calor; que el polvo procedente de las erupciones volcánicas, más que el anhídrido
carbónico, ha determinado el efecto de calentamiento «invernadero», etc. Por el
momento, la hipótesis más interesante es la presentada por Maurice Ewing, del
observatorio geológico Lamont- y un colega suyo, William Donn.
Ewing y Donn atribuyen la sucesión de las Eras glaciales en el hemisferio Norte a las
condiciones geográficas que rodean al polo Norte. El océano Ártico está casi rodeado
por tierra. En los períodos de clima benigno, antes que empezaran las recientes
Eras glaciales, cuando este océano ofrecía sus aguas abiertas, los vientos que las
barrían captaron el vapor de agua que cayó luego en forma de nieve sobre el
Canadá y Siberia. Al formarse glaciares, de acuerdo con la teoría Ewing-Donn, el
Planeta absorbió menos calor procedente del Sol, porque el manto de hielo, al igual
que las nubes en los períodos tormentosos, reflejaba parte de la luz solar. En
consecuencia, disminuyó la temperatura general de la Tierra. Pero, al hacerlo, se
congeló el océano Ártico y, por tanto, los vientos captaron menos humedad del
mismo. Y menos humedad en el aire significa menos nieve en invierno. Así, pues, se
invirtió el proceso: al nevar menos en invierno, durante el verano se fundía toda la
nieve caída. Los glaciares se retiraron, hasta que la Tierra se calentó lo suficiente
como para fundir el océano Ártico y dejar de nuevo las aguas libres, momento en el
cual se reanudó el ciclo, con la nueva formación de los glaciares.
Resulta una paradoja que la fusión del océano Ártico, más que su congelación, fuese
el origen de una Era glacial. No obstante, los geofísicos hallaron la teoría plausible y
capaz de resolver muchas cuestiones. El problema principal acerca de esta teoría
radicaba en que convertía en un misterio mayor que antes la ausencia de Eras
glaciales en el último millón de años. Pero Ewing y Donn tienen una respuesta para
ello. Sugieren que durante el largo período de clima benigno anterior a las Eras
glaciales, el polo Norte pudo haber estado localizado en el océano Pacifico. En tal
caso, la mayor parte de la nieve habría caído en el océano, en vez de hacerlo en la
tierra por lo cual no se formarían glaciares importantes.
Desde luego, el polo Norte experimenta un movimiento pequeño, pero constante: se
desplaza, en círculos irregulares de 9 m, en un período de 435 días más o menos,
tal como descubrió, a principios del siglo XX, el astrónomo americano Seth Carlo
Chandler. También se ha corrido otros 9 m hacia Groenlandia desde 1900. No
obstante, tales cambios, ocasionados, quizá, por terremotos, con los consiguientes
cambios en la distribución de la masa del Globo- son cuestiones sin importancia.
Lo que se necesita para apoyar la teoría de Ewin-Donn eran trastornos de gran
magnitud, causados, posiblemente, por la deriva continental. Según se mueva la
corteza terrestre, el polo Norte puede quedar rodeado de tierra, o solitario en medio
de las aguas. Sin embargo, ¿pueden tener relación los cambios causados por la
deriva, con los períodos de glaciación?
Cualquiera que haya sido la causa de las Eras glaciales, parece ser que el hombre,
en lo futuro, podrá introducir cambios climáticos. Según el físico americano Gilbert
N. Plass, estamos viviendo la última de las Eras glaciales, puesto que los hornos de
la civilización invaden la atmósfera de anhídrido carbónico. Cien millones de
chimeneas aportan anhídrido carbónico al aire incesantemente; el volumen total de
estas emanaciones es de unos 6.000 millones de toneladas por año (unas 200 veces
la cantidad procedente de los volcanes). Plass ha puesto de manifiesto que, desde
1900, el contenido de nuestra atmósfera en anhídrido carbónico se ha incrementado
en un 10 % aproximadamente. Calculó que esa adición al «invernadero» de la
Tierra, que ha impedido la pérdida de calor, habría elevado la temperatura media en
un 1,1º C por siglo. Durante la primera mitad del siglo XX, el promedio de
temperatura ha experimentado realmente este aumento, de acuerdo con los
registros disponibles (la mayor parte de ellos, procedentes de Norteamérica y
Europa). Si prosigue en la misma proporción el calentamiento, los glaciares
continentales podrían desaparecer en un siglo o dos.
Las investigaciones realizadas durante el Año Geofísico Internacional parecen
demostrar que los glaciales están retrocediendo casi en todas partes. En 1959 pudo
comprobarse que uno de los mayores glaciares del Himalaya había experimentado,
desde 1935, un retroceso de 210 m. Otros han retrocedido 300 e incluso 600 m. Los
peces adaptados a las aguas frías emigran hacia el Norte, y los árboles de climas
cálidos avanzan, igualmente, en la misma dirección. El nivel del mar crece
lentamente con los años, lo cual es lógico si se están fundiendo los glaciares. Dicho
nivel tiene ya una altura tal que, en los momentos de violentas tormentas y altas
mareas, el océano amenaza con inundar el Metro de Nueva York.
No obstante, y considerando el aspecto más optimista, parece ser que se ha
comprobado un ligero descenso en la temperatura desde principios de 1940, de
modo que el aumento de temperatura experimentado entre 1880 y 1940 se ha
anulado en un 50 %. Esto puede obedecer a una mayor presencia de polvo y humo
en el aire desde 1940: las partículas tamizan la luz del sol y, en cierto modo, dan
sombra a la Tierra. Parece como si dos tipos distintos de contaminación atmosférica
provocada por el hombre anulasen sus respectivos efectos, por lo menos en este
sentido y temporalmente.
Capítulo 4
La Atmósfera
Capas de Aire
Aristóteles imaginaba el mundo formado por cuatro capas, que constituían los
cuatro elementos de la materia: tierra (la esfera sólida), agua (el océano), aire (la
atmósfera) y fuego (una capa exterior invisible, que ocasionalmente se mostraba en
forma de relámpagos). Más allá de estas capas, decía, el Universo estaba
compuesto por un quinto elemento, no terrestre, al que llamó «éter» (a partir de un
derivado latino, el nombre se convirtió en «quintaesencia», que significa «quinto
elemento»).
En este esquema no había lugar para la nada; donde acababa la tierra, empezaba el
agua; donde ambas terminaban, comenzaba el aire; donde éste finalizaba, se
iniciaba el fuego, y donde acababa el fuego, empezaba el éter, que seguía hasta el
fin del Universo. «La Naturaleza, decían los antiguos, aborrece el vacío» (el horror
vacui de los latinos, el miedo a «la nada»).
La bomba aspirante, un antiguo invento para sacar el agua de los pozos, parecía
ilustrar admirablemente este horror al vacío. Un pistón se halla estrechamente
dijo a su cuñado que subiera a una montaña de unos 1.600 m de altura, provisto de
un barómetro, y que anotara la forma en que bajaba el nivel del mercurio a medida
que aumentaba la altitud.
Cálculos teóricos indicaban que si la temperatura era la misma en todo el recorrido
de subida, la presión del aire se dividiría por 10, cada 19 km de altura. En otras
palabras, a una altura de 19 km, la columna de mercurio habría descendido, de
762, a 76,2 mm; a los 38 km sería de 7,62 mm; a los 57 km, de 0,762 mm, y así
sucesivamente. A los 173 km, la presión del aire sería sólo de 0,0000000762 mm
de mercurio. Tal vez no parezca mucho, pero, sobre la totalidad de la superficie de
la Tierra, el peso del aire situado encima de ella, hasta 173 km de altura,
representa un total de 6 millones de toneladas.
En realidad, todas estas cifras son sólo aproximadas, ya que la temperatura del aire
varía con la altura. Sin embargo, ayudan a formarse una idea, y, así, podemos
comprobar que la atmósfera no tiene límites definidos, sino que, simplemente, se
desvanece de forma gradual hasta el vacío casi absoluto del espacio. Se han
detectado colas de meteoros a alturas de 160 km, lo cual significa que aún queda el
aire suficiente como para hacer que, mediante la fricción, estas pequeñas partículas
lleguen a la incandescencia. Y la aurora boreal, formada por brillantes jirones de
gas, bombardeados por partículas del espacio exterior, ha sido localizada a alturas
de hasta 800, 900 y más kilómetros, sobre el nivel del mar.
Hasta finales del siglo XVIII, parecía que lo más cerca que el hombre conseguiría
estar nunca de la atmósfera superior era la cumbre de las montañas. La montaña
más alta que se hallaba cerca de los centros de investigación científica era el Mont
Blanc, en el sudeste de Francia; pero sólo llegaba a los 5.000 m. En 1749,
Alexander Wilson, un astrónomo escocés, acopló termómetros a cometas, en la
confianza de poder medir con ello las temperaturas atmosféricas a cierta altura.
1. Una capa inferior, turbulenta, que contendría las nubes, los vientos, las tormentas y
todos los cambios de tiempo familiares (capa a la que llamó «troposfera», que, en
griego, significa «esfera del cambio»)
2. Una capa superior, tranquila, formada por subcapas de dos gases ligeros, helio e
hidrógeno (a la que dio el nombre de «estratosfera», o sea, «esfera de capas»). Al
nivel al que la temperatura dejaba de descender lo llamó «tropopausa» («final del
cambio», o límite entre troposfera y estratosfera).
con ello penetró en una atmósfera más densa, donde, al entrar en fricción con el
aire, ardió.
La relación de la caída o descenso de la órbita del satélite depende, en parte, de la
masa del mismo, de su forma y de la densidad del aire que atraviesa. Así, pues, la
densidad de la atmósfera a este nivel puede calcularse perfectamente. Los satélites
han proporcionado al hombre las primeras mediciones directas de la densidad de la
atmósfera superior, la cual es mayor de lo que se había pensado; pero a una altura
de 240 km, por ejemplo, es sólo una diezmillonésima de la que se encuentra a nivel
del mar, y, a 362 km, sólo de una trillonésima.
Sin embargo, estos jirones de aire no deben ser despreciados a la ligera. Incluso a
1.600 km de altura, donde la densidad atmosférica es sólo de una cuatrillonésima
parte de la que se encuentra a nivel del mar, el ligero soplo de aire es mil millones
de veces más denso que los gases que se encuentran en el propio espacio exterior.
La envoltura de gases que rodea la Tierra se extiende mucho más allá.
Desde luego, la Unión Soviética no permaneció sola en este campo. Al cabo de
cuatro meses se le incorporaron los Estados Unidos, que pusieron en órbita su
primer satélite, el Explorer I, el 30 de enero de 1958. Desde entonces, ambas
naciones han lanzado centenares de satélites que han puesto en órbita en torno a la
Tierra con muy diversos fines. Mediante los instrumentos incorporados a dichos
satélites se ha explorado la atmósfera superior y la porción de espacio en la
vecindad del globo terráqueo; la propia Tierra ha sido objeto de minuciosos
estudios. Para comenzar, el satélite hizo posible por vez primera contemplar a
nuestro planeta (o, al menos, una mitad primero y la otra después) como una
unidad, a la vez que permitió el estudio de las corrientes aéreas en su conjunto.
El 1º de abril de 1960, los Estados Unidos lanzaron el primer satélite «observador
del tiempo», el Tiros I (Tiros es la sigla de «Television Infra-Red Observation
Satellite») y, seguidamente (en noviembre) el Tiros II, que, durante diez semanas,
envió 20.000 fotografías de la superficie terrestre y su techo nuboso, incluyendo
algunas de un ciclón en Nueva Zelanda y un conglomerado de nubes sobre
Oklahoma que, aparentemente, engendraba tornados. El Tiros III, lanzado en julio
de 1961, fotografió dieciocho tormentas tropicales, y en septiembre mostró la
formación del huracán Esther en el Caribe, dos días antes que fuera localizado con
Según Lavoisier, el aire estaba formado por dos gases. La quinta parte, que se
combinaba con el mercurio en su experimento, era la porción de aire que sostenía la
vida y la combustión, y a la que dio el nombre de «oxígeno». A la parte restante la
denominó «ázoe», voz que, en griego, significa «sin vida». Más tarde se llamó
«nitrógeno», dado que dicha sustancia estaba presente en el nitrato de sodio,
llamado comúnmente «nitro». Ambos gases, habían sido descubiertos en la década
anterior: el nitrógeno, en 1772, por el físico escocés Daniel Rutherford, y el
oxígeno, en 1774, por el ministro unitario inglés Joseph Priestley.
A mediados del siglo XIX, el químico francés Henri-Victor Regnault analizó muestras
de aire de todo el Planeta y descubrió que la composición del mismo era idéntica en
todas partes. El contenido en oxígeno representaba el 20,9 %, y se presumía que el
resto (a excepción de indicios de anhídrido carbónico) era nitrógeno.
Comparativamente, el nitrógeno es un gas inerte, o sea, que se combina
rápidamente con otras sustancias. Sin embargo, puede ser forzado a combinarse,
por ejemplo, calentándolo con metal de magnesio, lo cual da nitruro de magnesio,
sólido. Años después del descubrimiento de Lavoisier, Henry Cavendish intentó
consumir la totalidad del nitrógeno combinándolo con oxígeno, bajo la acción de una
chispa eléctrica. No tuvo éxito. Hiciera lo que hiciese, no podía liberarse de una
pequeña burbuja de gas residual, que representaba menos del 1 % del volumen
original. Cavendish pensó que éste podría ser un gas desconocido, incluso más
inerte que el nitrógeno. Pero como no abundan los Cavendish, el rompecabezas
permaneció como tal largo tiempo, sin que nadie intentara solucionarlo, de modo
que la naturaleza de este aire residual no fue descubierta hasta un siglo más tarde.
En 1882, el físico británico John W. Strutt (Lord Rayleigh) comparó la densidad del
nitrógeno obtenido a partir del aire con la densidad del nitrógeno obtenido a partir
de ciertos productos químicos, y descubrió, con gran sorpresa, que el nitrógeno del
aire era definitivamente más denso. ¿Se debía esto a que el gas obtenido a partir
del aire no era puro, sino que contenía pequeñas cantidades de otro más pesado?
Un químico escocés, Sir William Ramsay, ayudó a Lord Rayleigh a seguir
investigando la cuestión. Por aquel entonces contaban ya, con la ayuda de la
espectroscopía. Al calentar el pequeño residuo de gas que quedaba tras la
combustión del nitrógeno y examinarlo al espectroscopio, encontraron una nueva
espectrales, que habían sido ya encontradas en las nebulosas por William Huggins
en 1864 y que se pensaba podían representar un elemento poco común,
denominado «nebulio». En 1927, y en experimentos de laboratorio, el astrónomo
americano Ira Sprague Bowen demostró que las líneas provenían del «oxígeno
atómico», es decir, oxígeno que existía en forma de átomos aislados y que no
estaba combinado en la forma normal como molécula de dos átomos. Del mismo
modo, se descubrió que otras extrañas líneas espectrales de la aurora
representaban nitrógeno atómico. Tanto el oxígeno atómico como el nitrógeno
atómico de la atmósfera superior son producidos por la radiación solar, de elevada
energía, que escinde las moléculas en átomos simples, lo cual fue sugerido ya, en
1931, por Sydney Chapman. Afortunadamente, esta radiación de alta energía es
absorbida o debilitada antes que llegue a la atmósfera inferior.
Por tanto, la claridad nocturna, según Chapman, proviene de la nueva unión,
durante la noche, de los átomos separados durante el día por la energía solar. Al
volverse a unir, los átomos liberan parte de la energía que han absorbido en la
división, de tal modo que la claridad nocturna es una especie de renovada emisión
de luz solar, retrasada y muy débil, en una forma nueva y especial. Los
experimentos realizados con cohetes en la década de 1950 suministraron pruebas
directas que esto ocurre así. Los espectroscopios que llevaban los cohetes
registraron las líneas verdes del oxígeno atómico con mayor intensidad a 96 km de
altura. Sólo una pequeña proporción de nitrógeno se encontraba en forma atómica,
debido a que las moléculas de este gas se mantienen unidas más fuertemente que
las del oxígeno; aun así, la luz roja del nitrógeno atómico seguía siendo intensa a
144 km de altura.
Slipher había encontrado también en la claridad nocturna líneas sospechosamente
parecidas a las que emitía el sodio. La presencia de éste pareció tan improbable,
que se descartó el asunto como algo enojoso. ¿Qué podía hacer el sodio en la
atmósfera superior? Después de todo no es un gas, sino un metal muy reactivo, que
no se encuentra aislado en ningún lugar de la Tierra. Siempre está combinado con
otros elementos, la mayor parte de las veces, en forma de cloruro de sodio (sal
común). Pero en 1938, los científicos franceses establecieron que las líneas en
cuestión eran, sin lugar a dudas, idénticas a las de sodio. Fuera o no probable, tenía
de radio viajan sólo en línea recta. ¿Cómo podían haber superado, pues, la
curvatura de la Tierra, para llegar hasta Terranova?
Un físico británico, Oliver Heaviside, y un ingeniero electrónico americano, Arthur
Adwin Kennelly, sugirieron, poco después, que las señales de radio podían haber
sido reflejadas por una capa de partículas cargadas que se encontrase en la
atmósfera, a gran altura. La «capa Kennelly-Heaviside», como se llama desde
entonces, fue localizada, finalmente, en la década de 1920. La descubrió el físico
británico Edward Victor Appleton, cuando estudiaba el curioso fenómeno del
amortiguamiento (fading) de la transmisión radiofónica, y llegó a la conclusión que
tal amortiguamiento era el resultado de la interferencia entre dos versiones de la
misma señal, la que iba directamente del transmisor al receptor y la que seguía a
ésta después de su reflexión en la atmósfera superior. La onda retrasada se hallaba
desfasada respecto a la primera, de modo que ambas se anulaban parcialmente
entre si; de aquí al amortiguamiento.
Partiendo de esta base resultaba fácil determinar la altura de la capa reflectante.
Todo lo que se había de hacer era enviar señales de una longitud de onda tal que
las directas anulasen por completo a las reflejadas, es decir, que ambas señales
llegasen en fases contrapuestas. Partiendo de la longitud de onda de la señal
empleada y de la velocidad conocida de las ondas de radio, pudo calcular la
diferencia en las distancias que habían recorrido los dos trenes de ondas. De este
modo determinó que la capa Kennelly-Heaviside estaba situada a unos 104 km de
altura.
El amortiguamiento de las señales de radio solía producirse durante la noche.
Appleton descubrió que, poco antes del amanecer, las ondas de radio eran
reflejadas por la capa Kennelly-Heaviside sólo a partir de capas situadas a mayores
alturas (denominadas hoy, a veces, «capas Appleton») que empezaban a los 225
km de altura.
Por todos estos descubrimientos, Appleton recibió, en 1947, el premio Nobel de
Física. Había definido la importante región de la atmósfera llamada «ionosfera»,
término introducido, en 1930, por el físico escocés Robert Alexander Watson-Watt.
Incluye la mesosfera y la termosfera, y hoy se la considera dividida en cierto
número de capas. Desde la estratopausa hasta los 104 km de altura
Imanes
da unos sonidos sibilantes y de «clic», que pueden ser detectados por medio de
amplificadores adecuados, lo cual se denomina «efecto Barkhausen», en honor a su
descubridor, el físico alemán Heinrich Barkhausen. En las «sustancias
antiferromagnéticas», como el manganeso, las regiones se alinean también, pero en
direcciones alternas, de modo que se anula la mayor parte del magnetismo. Por
encima de una determinada temperatura, las sustancias pierden su
antiferromagnetismo y se convierten en paramagnéticas.
Si el núcleo de hierro de la Tierra no constituye, en sí mismo, un imán permanente,
por haber sido sobrepasada su temperatura Curie, debe de haber otro modo de
explicar la propiedad que tiene la Tierra de afectar la situación de los extremos de la
aguja. La posible causa fue descubierta gracias a los trabajos del científico inglés
Michael Faraday, quien comprobó la relación que existe entre el magnetismo y la
electricidad.
En la década de 1820 Faraday comenzó un experimento que; había descrito por vez
primera Petrus Peregrinus, y que aún sigue atrayendo a los jóvenes estudiantes de
Física-. Consiste en esparcir finas limaduras de hierro sobre una hoja de papel
situada encima de un imán y golpear suavemente el papel. Las limaduras tienden a
alinearse alrededor de unos arcos que van del polo norte al polo sur del imán.
Según Faraday, estas «líneas magnéticas de fuerza» forman un «campo»
magnético.
Faraday, que sintióse atraído por el tema del magnetismo al conocer las
observaciones hechas, en 1820, por el físico danés Hans Christian Oersted, según
las cuales una corriente eléctrica que atraviese un cable desvía la aguja de una
brújula situada en su proximidad, llegó a la conclusión que la corriente debía de
formar líneas magnéticas de fuerza en torno al cable.
Estuvo aún más seguro de ello al comprobar que el físico francés André-Marie
Ampère había proseguido los estudios sobre los cables conductores de electricidad
inmediatamente después del descubrimiento de Oersted. Ampère demostró que dos
cables paralelos, por los cuales circulara la corriente en la misma dirección, se
atraían. En cambio, se repelían cuando las corrientes circulaban en direcciones
opuestas. Ello era muy similar a la forma en que se repelían dos polos norte
magnéticos (o dos polos sur magnéticos), mientras que un polo norte magnético
atraía a un polo sur magnético. Más aún, Ampère demostró que una bobina
cilíndrica de cable atravesada por una corriente eléctrica, se comportaba como una
barra imantada. En 1881, y en honor a él, la unidad de intensidad de una corriente
eléctrica fue denominada, oficialmente, «amperio».
Pero si todo esto ocurría así, pensó Faraday (quien tuvo una de las intuiciones más
positivas en la historia de la Ciencia), y si la electricidad puede establecer un
campo magnético tan parecido a uno real, que los cables que transportan una
corriente eléctrica pueden actuar como imanes, ¿no sería también cierto el caso
inverso? ¿No debería un imán crear una corriente de electricidad que fuese similar a
la producida por pilas?
En 1831, Faraday realizó un experimento que cambiaría la historia del hombre.
Enrolló una bobina de cable en torno a un segmento de un anillo de hierro, y una
segunda bobina, alrededor de otro segmento del anillo. Luego conectó la primera a
una batería. Su razonamiento era que si enviaba una corriente a través de la
primera bobina, crearía líneas magnéticas de fuerza, que se concentrarían en el
anillo de hierro, magnetismo inducido que produciría, a su vez, una corriente en la
segunda bobina. Para detectarla conectó la segunda bobina a un galvanómetro,
instrumento para medir corrientes eléctricas, que había sido diseñado, en 1820, por
el físico alemán Johann Salomo Christoph Schweigger.
El Sol posee también un campo magnético general, dos o tres veces más intenso
que el de la Tierra, así como campos locales, aparentemente relacionados con las
manchas solares, que son miles de veces más intensos. El estudio de estos campos,
que ha sido posible gracias a que el intenso magnetismo afecta a la longitud de
onda de la luz emitida, sugiere que en el interior del Sol existen corrientes circulares
de cargas eléctricas.
En realidad hay hechos verdaderamente chocantes en lo que se refiere a las
manchas solares, hechos a los cuales se podrá encontrar explicación cuando se
conozcan las causas de los campos magnéticos a escala astronómica. Por ejemplo,
el número de manchas solares en la superficie aumenta y disminuye en un ciclo de
11 años y medio. Esto lo estableció, en 1843, el astrónomo alemán Heinrich Samuel
Schwabe, quien estudió la superficie del Sol casi a diario durante 17 años. Más aún,
las manchas solares aparecen sólo en ciertas latitudes, las cuales varían a medida
que avanza el ciclo. Las manchas muestran cierta orientación magnética, que se
invierte en cada nuevo ciclo. Se desconoce aún la razón de todo ello.
Pero no es necesario examinar el Sol para hallar misterios relacionados con los
campos magnéticos. Ya tenemos suficientes problemas aquí en la Tierra. Por
ejemplo, ¿por qué los polos magnéticos no coinciden con los geográficos? El polo
norte magnético está situado junto a la costa norte del Canadá, a unos 1.600 km
del polo Norte geográfico. Del mismo modo, el polo sur magnético se halla cerca de
los bordes de la Antártica, al oeste del mar de Ross, también a unos 1.600 km del
polo Sur. Es más, los polos magnéticos no están exactamente opuestos el uno al
otro en el Globo. Una línea que atravesase nuestro planeta para unirlos (el «eje
magnético»), no pasaría a través del centro de la Tierra.
La desviación de la brújula respecto al «Norte verdadero» (o sea la dirección del
polo Norte) varía de forma irregular a medida que nos movemos hacia el Este o
hacia el Oeste. Así, la brújula cambió de sentido en el primer viaje de Colón, hecho
que éste ocultó a su tripulación, para no causar un pánico que lo hubiese obligado a
regresar.
Ésta es una de las razones por las que no resulta enteramente satisfactorio el
empleo de la brújula para de terminar una dirección. En 1911, el inventor
americano Elmer Ambrose Sperry introdujo un método no basado en el magnetismo
para indicar la dirección. Se trata de una rueda, de borde grueso, que gira a gran
velocidad (el «giroscopio», que estudió por vez primera Foucault, quien había
demostrado la rotación de la Tierra) y que tiende a resistir los cambios en su plano
de rotación. Puede utilizarse como una «brújula giroscópica», ya que es capaz de
mantener una referencia fija de dirección, lo cual permite guiar las naves o los
cohetes.
Pero aunque la brújula magnética es imperfecta, ha prestado un gran servicio
durante muchos siglos. Puede establecerse la desviación de la aguja magnética
respecto al Norte geográfico. Un siglo después de Colón, en 1581, el inglés Robert
Norman preparó el primer mapa que indicaba la dirección actual marcada por la
brújula («declinación magnética») en diversas partes del mundo. Las líneas que
unían todos los puntos del planeta que mostraban las mismas declinaciones («líneas
isogónicas») seguían una trayectoria curvilínea desde el polo norte al polo sur
magnéticos.
Por desgracia, tales mapas habían de ser revisados periódicamente, ya que, incluso
para un determinado lugar, la declinación magnética cambia con el tiempo. Por
ejemplo, la declinación, en Londres, se desvió 32º de arco en dos siglos; era de 8º
Nordeste en el año 1600, y poco a poco se trasladó, en sentido inverso a las agujas
del reloj, hasta situarse, en 1800, en los 24º Noroeste. Desde entonces se ha
desplazado en sentido inverso, y en 1950 era sólo de 8º Noroeste.
También la inclinación magnética cambia lentamente con el tiempo para cualquier
lugar de la Tierra, y, en consecuencia, debe ser también constantemente revisado el
mapa que muestra las líneas de la misma inclinación («líneas isóclinas»). Además,
la intensidad del campo magnético de la Tierra aumenta con la latitud, y es tres
veces más fuerte cerca de los polos magnéticos que en las regiones ecuatoriales.
Esta intensidad se modifica asimismo de forma constante, de modo que deben
someterse, a su vez, a una revisión periódica, los mapas de las «líneas
isodinámicas».
Tal como ocurre con todo lo referente al campo magnético, varía la intensidad total
del campo. Hace ya, bastante tiempo que tal intensidad viene disminuyendo. Desde
1670, el campo ha perdido el 15 % de su potencia absoluta; si esto sigue así,
alcanzará el cero alrededor del año 4.000. ¿Y qué sucederá entonces? ¿Seguirá
desde el centro del disco solar: con la luz de hidrógeno, tales llamaradas, ricas en
este elemento, aparecían como manchas de luz contra el fondo más oscuro del resto
del disco. Se comprobó, que las fulguraciones solares iban seguidas por tormentas
magnéticas en la Tierra, sólo cuando la fulguración apuntaba directamente hacia
nuestro planeta.
Así, pues, al parecer, las tormentas magnéticas eran el resultado de explosiones de
partículas cargadas, principalmente de electrones, disparadas hacia la Tierra por las
fulguraciones, a través de 150 millones de kilómetros de espacio. Ya en 1896, el
físico noruego Olaf Kristian Birkeland había sugerido tal posibilidad.
No cabía la menor duda de que, aunque se ignorase su procedencia, la Tierra estaba
rodeada por un halo de electrones, que se extendía muy lejos en el espacio. Se
había descubierto que las ondas de radio generadas por los relámpagos se
desplazaban, a través de las líneas de fuerza magnéticas de la Tierra, a grandes
alturas. (Estas ondas, llamadas «silbantes» en atención a que eran captadas por los
receptores en forma de sonidos de este carácter, habían sido descubiertas
accidentalmente por el físico alemán Heinrich Barkhausen durante la Primera Guerra
Mundial.) Las ondas de radio no podían seguir las líneas de fuerza, a menos que
hubiese electrones.
Sin embargo, no pareció que tales partículas cargadas emergiesen sólo a ráfagas.
Sydney Chapman, al estudiar la corona solar, allá por 1931, se mostró cada vez
más impresionado al comprobar su extensión. Todo cuanto podíamos ver durante
un eclipse total de Sol era su porción más interna. Las concentraciones mensurables
de partículas cargadas en la vecindad de la Tierra, pensó, deberían formar parte de
la corona. Esto significaba, pues, en cierto modo, que la Tierra giraba alrededor del
Sol dentro de la atmósfera externa y extremadamente tenue de nuestro astro. Así,
pues, Chapman imaginó que la corona se expandía hacia el espacio exterior y se
renovaba incesantemente en la superficie solar, donde las partículas cargadas
fluirían continuamente y perturbarían el campo magnético terrestre a su paso por la
zona.
Tal sugerencia resultó virtualmente irrefutable en la década de 1950 gracias a los
trabajos del astrofísico alemán Ludwig Franz Biermann. Durante medio siglo se
había creído que las colas de los cometas, que apuntaban siempre en dirección
demostraron que la intensidad de la radiación en aquella zona era mucho más alta
que la imaginada por los científicos. Era tan intensa, que suponía un peligro mortal
para los futuros astronautas.
Se comprobó que los satélites Explorer habían penetrado sólo en las regiones más
bajas de este inmenso campo de radiación. A finales de 1958, los dos satélites
lanzados por los Estados Unidos en dirección a la Luna (llamados por ello «sondas
lunares»), el Pioneer I, que llegó hasta los 112.000 km, y el Pioneer III, que alcanzó
los 104.000, mostraron que existían dos cinturones principales de radiación en
torno a la Tierra. Fueron denominados «cinturones de radiación de Van Allen». Más
tarde se les dio el nombre de «magnetosfera», para equipararlos con otros puntos
del espacio en los contornos de la Tierra.
Al principio se creyó que la magnetosfera estaba dispuesta simétricamente
alrededor de la Tierra, o sea, que era algo así como una inmensa rosquilla, igual
que las líneas magnéticas de fuerzas. Pero esta noción se vino abajo cuando los
satélites enviaron datos con noticias muy distintas. Sobre todo en 1963, los
satélites Explorer XIV e Imp-I describieron órbitas elípticas proyectadas con objeto
de traspasar la magnetosfera, si fuera posible.
Pues bien, resultó que la magnetosfera tenía un límite claramente definido, la
«magnetopausa», que era empujada hacia la Tierra por el viento solar en la parte
iluminada de nuestro planeta; pero ella se revolvía y contorneando la Tierra, se
extendía hasta enormes distancias en la parte ocupada por la oscuridad. La
magnetopausa está a unos 64.000 km de la Tierra en dirección al Sol, pero las colas
que se deslizan por el otro lado tal vez se extiendan en el espacio casi 2 millones de
kilómetros. En 1966, el satélite soviético Lunik X detectó, mientras orbitaba la Luna,
un débil campo magnético en torno a aquel mundo, que probablemente sería la cola
de la magnetosfera terrestre que pasaba de largo.
La captura, a lo largo de las líneas de fuerza magnéticas, de las partículas cargadas
había sido predicha, en la década de 1950, por un griego aficionado a la Ciencia,
Nicholas Christofilos, el cual envió sus cálculos a científicos dedicados a tales
investigaciones, sin que nadie les prestase demasiada atención. (En la Ciencia,
como en otros campos, los profesionales tienden a despreciar a los aficionados.)
Sólo cuando los profesionales llegaron por su cuenta a los mismos resultados que
puso en órbita un satélite cargado con 400 millones de agujas de cobre, cada una
de ellas de unos 18 mm de longitud y más finas que un cabello humano. Las agujas,
fueron proyectadas y se esparcieron lentamente en una faja en torno al Planeta, y,
tal como se esperaba, reflejaron las ondas de radio. Sin embargo, para que
resultara práctico se necesitaría un cinturón mucho más espeso, y creemos muy
poco probable que en este caso se pudiesen vencer las objeciones de los
radioastrónomos.
Naturalmente, los científicos sentían curiosidad por saber si había cinturones de
radiación en torno a otros cuerpos celestes, aparte la Tierra. Una de las formas para
determinarlo consistía en enviar satélites a una altura y velocidad suficientes como
para liberarlos de la atracción terrestre (11 km/seg, frente a los 8 km/seg a que se
desplaza un satélite en órbita en torno a la Tierra). El primero que rebasó la
velocidad de escape y consiguió liberarse de la gravedad terrestre, para colocarse
en órbita alrededor del Sol y convertirse así en el primer «planeta hecho por el
hombre», fue el satélite soviético Lunik I, lanzado el 2 de enero de 1959. El Lunik II
se estrelló en la luna en septiembre de 1959 (fue el primer objeto fabricado por el
hombre que consiguió llegar a la superficie de otro cuerpo celeste). Ninguno de los
dos encontró signos de cinturones radiactivos en torno a la Luna.
Ello no era sorprendente, ya que los científicos habían predicho que la Luna no tenía
un campo magnético importante. Según se sabe desde hace tiempo, la densidad de
la Luna es de 3,3 g/cm3) (aproximadamente, la de unos 3/5 de la de la Tierra),
densidad que no podría ser tan baja a menos que estuviese casi enteramente
formada por silicatos, sin núcleo alguno de hierro. Si las actuales teorías son
correctas, de ello se deduciría la falta de un campo magnético.
Pero, ¿qué decir de Venus? En tamaño y masa es casi gemelo de la Tierra, y no
parece haber duda alguna respecto a que posee un núcleo de hierro. ¿Tiene
también magnetosfera? Tanto la Unión Soviética como los Estados Unidos
intentaron enviar «sondas venusianas», que pasarían, en sus órbitas, cerca del
planeta y enviarían a la Tierra datos útiles. El primero de estos intentos que alcanzó
un éxito completo fue el del Mariner II, lanzado por los Estados Unidos el 27 de
agosto de 1962. El 14 de diciembre del mismo año pasó a unos 35.000 km de
Venus y no encontró signo alguno de magnetosfera.
Los cinturones de radiación de Van Allen, tal como fueron detectados por satélites.
Parecen estar compuestos de partículas cargadas atrapadas en el campo magnético
de la Tierra.
En cuanto al Sistema Solar más allá de Marte, hay pruebas suficientes que por lo
menos Júpiter y Saturno tienen cinturones de radiación más potentes y amplios aún
que los de la Tierra. En efecto, ondas de radio procedentes de Júpiter parecen
indicar que posee un campo magnético por lo menos de 12 a 16 veces más intenso
que el de la Tierra. En 1965 se detectaron ondas de radio procedentes de Urano y
Neptuno.
Una de las principales razones para justificar la gran curiosidad que existe en torno
a la magnetosfera es, por supuesto, la preocupación por la seguridad de los
pioneros del espacio exterior. En 1959, los Estados Unidos seleccionaron 7 hombres
(llamados popularmente «astronautas») para tomar parte en el «Proyecto
Mercurio», destinado a colocar seres humanos en órbita alrededor de la Tierra. Los
soviéticos iniciaron, también un programa de entrenamiento para los denominados
por ellos «cosmonautas».
El honor de alcanzar en primer lugar este objetivo correspondió al cosmonauta de la
Unión Soviética Yuri Alexéievich Gagarin, cuyo vehículo espacial (el Vostok I) fue
puesto en órbita el 12 de abril de 1961 (sólo tres años y medio después que se
iniciara la «Era espacial» con el viaje del Sputnik I). Regresó sano y salvo, después
de dar una vuelta a la Tierra, que duró más de hora y media. Fue el primer
«hombre del espacio».
La Unión Soviética colocó en órbita a otros seres humanos durante los años
siguientes. El 16 de junio de 1963 fue lanzada al espacio Valentina V. Tereshkova,
la primera «mujer del espacio», quien dio 49 vueltas a la Tierra.
El primer astronauta americano fue John Herschel Glenn, cuya cápsula fue lanzada
el 20 de febrero de 1962. Dio tres vueltas a la Tierra. El récord norteamericano de
permanencia en el espacio hasta ahora lo ostenta Gordon Leroy Coopero lanzado el
15 de mayo de 1963, el cual describió 22 órbitas en torno a nuestro planeta.
En 1964 y 1965, los Estados Unidos y la Unión Soviética lanzaron varias cápsulas,
tripuladas por dos y tres hombres. En el curso de uno de estos vuelos, el 18 de
marzo de 1965, el cosmonauta soviético Alexei A. Leonov salió de su cápsula y,
manteniéndose unido a ella por un cordón umbilical, llevó a cabo el primer «paseo
espacial» de la Historia.
Meteoros
Ya los griegos sabían que las «estrellas fugaces» no eran estrellas en realidad,
puesto que, sin importar cuántas cayesen, su número permanecía invariable.
Aristóteles creía que una estrella fugaz, como fenómeno temporal, debía de
producirse en el interior de la atmósfera (y esta vez tuvo razón). En consecuencia,
estos objetos recibieron el nombre de «meteoros», o sea, «cosas en el aire». Los
meteoros que llegan a alcanzar la superficie de la Tierra se llaman «meteoritos».
Los antiguos presenciaron algunas caídas de meteoritos y descubrieron que eran
masas de hierro. Se dice que Hiparco de Nicea informó sobre una de estas caídas.
Según los musulmanes, La Kaaba, la piedra negra de la Meca, es un meteorito que
debe su carácter sagrado a su origen celeste. Por su parte, La Ilíada menciona una
masa de hierro tosco, ofrecida como uno de los premios en los juegos funerarios en
honor de Patroclo. Debió de haber sido de origen meteórico, pues que en aquellos
tiempos se vivía aún en la Edad del Bronce y no se había desarrollado la metalurgia
del hierro. En realidad, en épocas tan lejanas como el año 3000 a. de J.C. debió de
emplearse hierro meteórico.
Durante el siglo XVIII, en pleno auge de la Ilustración, la Ciencia dio un paso atrás
en este sentido. Los que desdeñaban la superstición se reían de las historias de las
«piedras que caían del cielo». Los granjeros que se presentaron en la Academia
acerca al Sol, con lo cual libera polvo y partículas, que luego el viento solar arrastra
lejos del astro (como ha podido comprobarse). Ocasionalmente desaparecen todos
los carámbanos, y entonces el cometa subsiste como un núcleo rocoso, o bien se
desintegra en una nube de meteoros formada por sus antiguas guijas. Un cometa
puede perder hasta un 0,5 % de su masa cada vez que se acerca el Sol. Incluso, un
cometa que, en sus aproximaciones periódicas, no se acerque mucho al astro, dura,
como máximo, un millón de años. El hecho que los cometas sobrevivan aún, cuando
la antigüedad del Sistema Solar se calcula en casi 5.000 millones de años, se
explica sólo por la constante aparición, en el sistema interno, de cuerpos
pertenecientes a la enorme nube cometaria de la inmensidad espacial cuya
existencia propugnara Oort.
Antes se creía que eran de hierro la mayor parte de las meteoritos que resistían el
paso por las capas gaseosas y llegaban al suelo. (Hasta ahora se conoce la
existencia de unos 1.700 meteoritos, de los cuales, unos 35 pesarían más de 1
tonelada métrica.) Por tanto, su número sería mucho más elevado que el de los de
tipo rocoso. Más tarde se comprobó que esto no era cierto, ya que una masa de
hierro que yace, semienterrada, en un campo pedregoso, es muy visible, en tanto
que apenas se distingue una piedra entre otras piedras. Cuando los astrónomos
hicieron un recuento de los meteoritos recogidos tras su caída, descubrieron que el
número de los rocosos superaba al de los férricos en una proporción de 9 a 1.
(Durante algún tiempo, la mayor parte de los meteoritos rocosos fueron
descubiertos en el Estado de Kansas, lo cual puede parecer extraño si no se sabe
que en el suelo de Kansas, en modo alguno pedregoso y de tipo sedimentario, una
piedra es tan visible como lo sería una masa de hierro en cualquier otro lugar de la
Tierra.)
Muy raras veces causan daños los meteoritos. Aunque, según algunos cálculos, cada
año caen a la Tierra entre 150 y 500 meteoritos de cierto tamaño, la superficie del
Planeta es muy amplia y sólo pequeñas zonas de la misma están densamente
pobladas. Por lo que se sabe, hasta ahora no ha muerto ninguna persona víctima de
la caída de algún meteorito, aunque, el 30 de noviembre de 1955, una mujer de
Alabama informó que había resultado herida por uno de ellos.
Sin embargo, los meteoritos tienen realmente un poder devastador. Por ejemplo, en
1908, el impacto de uno de ellos en el norte de Siberia abrió un cráter de 45 m de
diámetro y derribó árboles en un radio de 32 km. Por fortuna cayó en una zona
desierta de la tundra. Si hubiese caído, a partir del mismo lugar del cielo, 5 horas
más tarde, teniendo en cuenta la rotación de la Tierra, podría haber hecho impacto
en San Petersburgo, a la sazón capital de Rusia. La ciudad habría quedado entonces
devastada como por una bomba de hidrógeno. Según uno de los cálculos hechos, el
meteorito tendría una masa de 40.000 toneladas métricas. Desde entonces, el
impacto más importante fue el registrado, en 1947, cerca de Vladivostok (como
vemos, otra vez en Siberia).
Hay señales de impactos aún más violentos, que se remontan a épocas
prehistóricas. Por ejemplo, en Coconino County (Arizona) existe un cráter, redondo,
de unos 1.260 m de diámetro y 180 m de profundidad, circuido por un reborde de
tierra de 30 a 45 m de altura. Tiene el aspecto de un cráter lunar en miniatura.
Hace tiempo se pensaba que quizá pudiera tratarse de un volcán extinguido; pero
un ingeniero de minas, Daniel Moreau Barringer, insistió en que era el resultado de
una colisión meteórica, por lo cual el agujero en cuestión lleva hoy el nombre de
«cráter Barringer». Está rodeado por masas de hierro meteórico, que pesan miles o
quizá millones de toneladas en total. A pesar que hasta ahora se ha extraído sólo
una pequeña parte, esa pequeña parte es superior al hierro meteórico extraído en
todo el mundo. El origen meteórico de este cráter fue confirmado, en 1960, por el
descubrimiento de formas de sílice que sólo pudieron producirse como consecuencia
de las enormes presiones y temperaturas que acompañaron al impacto meteórico.
El cráter Barringer, que se abriría en el desierto hace unos 25.000 años, se
conserva bastante bien. En otros lugares del mundo, cráteres similares hubiesen
quedado ocultos por la erosión del agua y el avance de la vegetación. Por ejemplo,
las observaciones realizadas desde el aire, han permitido distinguir formaciones
circulares, que al principio pasaron inadvertidas, llenas, en parte, de agua y maleza,
que son también casi con certeza, de origen meteórico. Algunas han sido
descubiertas en el Canadá, entre ellas, el cráter Brent, en el Ontario Central, y el
cráter Chubb, en el norte de Quebec, cada uno de ellos, con un diámetro de más de
3 km, así como el cráter Ashanti, en Ghana, cuyo diámetro mide más de 9 km.
Por otra parte, se disipó el cuadro de la Luna como «mundo muerto», donde no era
posible la acción volcánica. El 3 de noviembre de 1958, el astrónomo ruso N. A.
Kozyrev observó una mancha rojiza en el cráter Alphonsus. (Mucho antes, nada
menos que en 1780, William Herschel informó sobre la aparición de manchas rojizas
en la Luna.) Los análisis espectroscópicos de Kozyrev revelaron claramente, al
parecer, que aquello obedecía a una proyección de gas y polvo. Desde entonces se
han visto otras manchas rojas durante breves instantes, y hoy se tiene casi la
certeza que en la Luna se produce ocasionalmente actividad volcánica. Durante el
eclipse total de Luna, en diciembre de 1964, se hizo un significativo descubrimiento:
nada menos que 300 cráteres tenían una temperatura más alta que los parajes
circundantes, aunque no emitían el calor suficiente para llegar a la incandescencia.
Una vez puesto en órbita el primer satélite, en 1957, la exploración de la Luna a
corta distancia fue ya, simplemente, cuestión de tiempo. El primer «ensayo lunar»
realizado con éxito, es decir, el primer satélite artificial que pasó cerca de la Luna,
lo llevó a cabo la Unión Soviética el 2 de enero de 1959. El Lunik I fue el primer
objeto de invención humana que describió una órbita alrededor de la Luna. Dos
meses después, los Estados Unidos habían superado tal hazaña.
El 12 de septiembre de 1959, los soviéticos lanzaron el Lunik II, cuyo objetivo era el
de tocar la Luna. Por primera vez en la Historia, un objeto hecho por el hombre
cayó sobre la superficie de otro mundo. Al mes siguiente, el satélite soviético Lunik
III, provisto de una cámara de televisión, envió a la Tierra imágenes de la cara de la
Luna que jamás se había visto desde el globo terráqueo. Durante cuarenta minutos
tomó fotografías del lado oculto a nuestra vista, para transmitirlas a la Tierra desde
una distancia de 64.000 kilómetros. Aunque eran borrosas y de escasa calidad,
mostraron algo interesante. En el otro lado de la Luna apenas habían mares
semejantes a los que se observan en el paisaje de la cara que contemplamos
habitualmente, y aún no está muy claro el por qué de esa asimetría. Quizá los
mares se formaron en fechas tardías de la historia lunar, cuando el astro presentaba
ya definitivamente una sola cara a la Tierra y los grandes meteoros constitutivos de
esos mares se desviaban hacia dicha cara atraídos por la gravitación terrestre.
Pero estas exploraciones lunares fueron sólo el comienzo. En 1964, los Estados
Unidos lanzaron una sonda lunar, el Ranger VII, concebido para tocar la superficie
El otro lado de la Luna, que fotografió el Lunik III, ofreció una nueva oportunidad.
Los rusos se «posesionaron» de algunos de los relieves más importantes. De aquí
que los cráteres de esta cara lleven los nombres de Tsiolkovski, Lomonosov y
Popov, estos últimos, químicos rusos de fines del siglo XVIII. También bautizaron
algunos cráteres con los nombres de personalidades occidentales, como Maxwell,
Hertz, Edison, Pasteur y los Curie, todos los cuales son mencionados en este libro.
Un nombre muy oportuno y justo dado a un cráter de la cara oculta de la Luna es el
del escritor francés, pionero de la ciencia-ficción, Julio Verne.
En 1970 se conocía el otro lado de la Luna lo suficiente como para describir sus
peculiaridades estructurales con procedimientos sistemáticos. Un organismo
internacional, bajo la dirección del astrónomo americano Donald Howard Menzel,
asignó centenares de nombres a otros tantos lugares, perpetuando así la memoria
de grandes hombres que contribuyeron de alguna forma al progreso científico. Se
bautizaron varios cráteres importantes con los nombres de eminentes rusos, tales
como Mendeléiev, quien elaboró la tabla periódica que analizaremos en el capitulo
V, y Gagarin, el primer hombre que orbitó la Tierra y que murió poco después en un
accidente de aviación. Se utilizaron otros parajes lunares característicos para
perpetuar la memoria de muchos científicos, entre ellos, el astrónomo holandés
Hertzsprung, el matemático francés Galois, el físico italiano Fermi, el matemático
americano Wiener y el físico británico Cockcroft. En una zona pequeña aparecen
nombres como Nernst, Roentgen, Lorentz, Moseley, Einstein, Bohr y Dalton, todos
ellos de gran importancia, suprema, en el desarrollo de la teoría atómica y la
estructura subatómica.
El interés de Menzel por las narraciones científicas y la ciencia-ficción se refleja en
esa loable decisión de asignar a algunos cráteres los nombres de quienes supieron
despertar el entusiasmo de toda una generación por los vuelos espaciales,
precisamente cuando la ciencia ortodoxa los calificaba de quimera. Así, pues, hay
un cráter con el nombre de Hugo Gernsback, quien publicó en Estados Unidos las
primeras revistas dedicadas íntegramente a la ciencia-ficción, y otro consagrado a
Willy Ley, el escritor que describió como ningún otro los triunfos y potencialidades
de los cohetes. (Ley murió trágicamente seis días antes del primer alunizaje,
acontecimiento que había esperado con ansiedad toda su vida.)
esa serie tan irregular de inversiones no será el preludio de una nueva catástrofe
Tierra-Luna.
Sean lo que fueren, los meteoritos constituyen muestras de materia primitiva
formada en los comienzos de la historia del Sistema Solar. Como tales, nos
proporcionan un punto de referencia independiente para calcular la antigüedad de
nuestro Sistema. Sus edades pueden ser estimadas de diversas formas, incluyendo
la medida de los productos de la desintegración radiactiva. En 1959, John H.
Reynolds, de la Universidad de California, calculó en 5 mil millones de años la edad
de un meteorito hallado en Dakota del Norte, y que sería, por tanto, la edad mínima
del Sistema Solar.
Los meteoritos constituyen sólo una pequeña fracción de la materia que penetra en
la atmósfera de la Tierra procedente del espacio exterior. Los pequeños meteoros
que se queman en el aire y que, por tanto, no llegan al suelo, sumarían, en
conjunto, una cantidad de materia muy superior. Estos fragmentos de materia son
extremadamente pequeños; una estrella fugaz tan brillante como Venus penetra en
la atmósfera como una partícula de sólo 1 g de peso. Algunos meteoros cuya caída
puede observarse a simple vista tienen sólo una diezmilésima parte de gramo.
Puede calcularse el número total de meteoros que penetran en la atmósfera
terrestre, número que es increíblemente grande. Cada día atraviesan nuestra capa
gaseosa más de 20.000, con un peso de 1 g por lo menos: unos 200 millones de
tamaño suficiente como para originar un resplandor visible a simple vista, y muchos
miles de millones, más pequeños aún.
Conocemos la existencia de estos pequeñísimos «micrometeoros» porque se han
observado en el aire partículas de polvo de formas poco usuales y con un alto
contenido en níquel, muy distintas del polvo terrestre normal. Otra prueba de la
presencia de micrometeoros en grandes cantidades es el resplandor celeste llamado
«luz zodiacal» (descubierta hacia el 1700, por G. D. Cassini). Se le dio este nombre
porque es más visible en las proximidades del plano de la órbita de la Tierra donde
se encuentran las constelaciones del Zodíaco. La luz zodiacal es muy débil y no
puede distinguirse ni siquiera en una noche sin Luna, a menos que las condiciones
sean favorables. Es más brillante cerca del horizonte por donde el Sol se ha puesto,
o está a punto de salir, mientras que en el lado opuesto del cielo se observa un
Un dibujo esquemático de los radios de las órbitas de la mayor parte de los planetas
solares, indicando sus distancias desde el Sol y las posiciones de Eros y los
asteroides. Aproximadamente, cada planeta está a doble distancia del Sol y del
planeta más próximo.
Calixto) posean atmósferas más o menos tenues, pero hasta ahora no se han
podido detectar. Por lo pronto, Titán sigue representando un caso único entre los
satélites del sistema planetario.
El hecho que la Tierra tenga atmósfera constituye un poderoso argumento en contra
de la teoría que tanto ella como los demás planetas del Sistema Solar tuvieron su
origen a partir de alguna catástrofe cósmica, como la colisión entre otro sol y el
nuestro. Más bien argumenta en favor de la teoría de la nube de polvo y
planetesimal. A medida que el polvo y el gas de las nubes se condensaron para
formar planetesimales, y éstos, a su vez, se unieron para constituir un cuerpo
planetario, el gas quedó atrapado en el interior de una masa esponjosa, de la
misma forma que queda el aire en el interior de un montón de nieve. La
subsiguiente contracción de la masa por la acción de la gravedad pudo entonces
haber obligado a los gases a escapar de su interior. El que un determinado gas
quedase retenido en la Tierra se debió, en parte, a su reactividad química. El helio y
el neón, pese a que debían figurar entre los gases más comunes en la nube original,
son tan químicamente inertes, que no forman compuestos, por lo cual pudieron
escapar como gases. Por tanto, las concentraciones de helio y neón en la Tierra son
porciones insignificantes de sus concentraciones en todo el Universo. Se ha
calculado, por ejemplo, que la Tierra ha retenido sólo uno de cada 50.000 millones
de átomos de neón que había en la nube de gas original, y que nuestra atmósfera
tiene aún menos, si es que tiene alguno de los átomos de helio originales. Digo, si
es que tiene alguno, porque, aún cuando todavía se encuentra algo de helio en
nuestra atmósfera, éste puede proceder de la desintegración de elementos
radiactivos y de los escapes de dicho gas atrapado en cavidades subterráneas.
Por otra parte, el hidrógeno, aunque más ligero que el helio o el neón, ha sido
mejor captado por estar combinado con otras sustancias, principalmente con el
oxígeno, para formar agua. Se calcula que la Tierra sigue teniendo uno de cada 5
millones de átomos de hidrógeno de los que se encontraban en la nube original.
El nitrógeno y el oxígeno ilustran con mayor claridad este aspecto químico. A pesar
que las moléculas de estos gases tienen una masa aproximadamente igual, la Tierra
ha conservado 1 de cada 6 de los átomos originales del oxígeno (altamente
reactivo), pero sólo uno de cada 500.000 del inerte nitrógeno. Al hablar de los
ultravioleta emitida por el Sol introduciría ciertos cambios, cambios que serían
ínfimos para los planetas externos, que, por una parte, reciben una radiación
comparativamente escasa del lejano Sol, y, por otra, poseen vastas atmósferas,
capaces de absorber una radiación muy considerable sin experimentar cambios
perceptibles. Quiere ello decir que los planetas exteriores seguirán conservando su
compleja atmósfera de hidrógeno-helio-amoníaco-metano.
Pero no ocurre lo mismo en los mundos interiores, como Marte, la Tierra, la Luna,
Venus y Mercurio. Entre éstos, la Luna y Mercurio son demasiado pequeños, o
demasiado cálidos, o ambas cosas, para retener una atmósfera perceptible. Por otro
lado, tenemos a Marte, la Tierra y Venus, todos ellos con tenues atmósferas,
integradas, principalmente, por amoníaco, metano y agua. ¿Qué habrá ocurrido
aquí?
La radiación ultravioleta atacaría la atmósfera superior de la Tierra primigenia,
desintegrando las moléculas de agua en sus dos componentes: hidrógeno y oxígeno
(«fotodisociación»). El hidrógeno escaparía, y quedaría el oxígeno: Ahora bien,
como sus moléculas son reactivas, reaccionaría frente a casi todas las moléculas
vecinas. Así, pues, se produciría una acción recíproca con el metano (CH4), para
formar el anhídrido carbónico (CO2) y el agua (H2O); asimismo, se originaría otra
acción recíproca con el amoníaco (NH3), para producir nitrógeno libre (N2) y agua.
Lenta, pero firmemente, la atmósfera pasaría del metano y el amoníaco al nitrógeno
y el anhídrido carbónico. Más tarde, el nitrógeno tendería a reaccionar poco a poco
con los minerales de la corteza terrestre, para formar nitrato, cediendo al anhídrido
carbónico la mayor parte de la atmósfera.
Pero ahora podemos preguntamos: ¿Proseguirá la fotodisociación del oxígeno en la
atmósfera? Y si el oxígeno se concentra sin encontrar ningún reactivo (pues no
puede haber una reacción adicional con el anhídrido carbónico), ¿no se agregará
cierta proporción de oxígeno molecular al anhídrido carbónico existente? La
respuesta es: ¡No!
Cuando el anhídrido carbónico llega a ser el principal componente de la atmósfera,
la radiación ultravioleta no puede provocar más cambios mediante la disociación de
la molécula de agua. Tan pronto como empieza a concentrarse el oxígeno libre, se
forma una sutil capa de ozono en la atmósfera superior, capa que absorbe los rayos
Capítulo 5
Los Elementos
La Tabla Periódica
Los primeros filósofos griegos, cuyo método de planteamiento de la mayor parte de
los problemas era teórico y especulativo, llegaron a la conclusión que la Tierra
estaba formada por unos cuantos «elementos» o sustancias básicas. Empédocles de
Agerigento, alrededor del 430 a. de J.C., estableció que tales elementos eran
cuatro: tierra, aire, agua y fuego. Un siglo más tarde, Aristóteles supuso que el cielo
constituía un quinto elemento: el «éter». Los sucesores de los griegos en el estudio
de la materia, los alquimistas medievales, aunque sumergidos en la magia y la
charlatanería, llegaron a conclusiones más razonables y verosímiles que las de
aquéllos, ya que por lo menos manejaron los materiales sobre los que especulaban.
Tratando de explicar las diversas propiedades de las sustancias, los alquimistas
atribuyeron dichas propiedades a determinados elementos, que añadieron a la lista.
Identificaron el mercurio como el elemento que confería propiedades metálicas a las
sustancias, y el azufre, como el que impartía la propiedad de la combustibilidad.
Uno de los últimos y mejores alquimistas, el físico suizo del siglo XVI, Theophrastus
Bombast von Hohenheim, más conocido por Paracelso, añadió la sal como el
elemento que confería a los cuerpos su resistencia al calor.
Según aquellos alquimistas, una sustancia puede transformarse en otra
simplemente añadiendo y sustrayendo elementos en las proporciones adecuadas.
Un metal como el plomo, por ejemplo, podía transformarse en oro añadiéndole una
cantidad exacta de mercurio. Durante siglos prosiguió la búsqueda de la técnica
adecuada para convertir en oro un «metal base». En este proceso, los alquimistas
descubrieron sustancias mucho más importantes que el oro, tales como los ácidos
minerales y el fósforo.
Los ácidos minerales, nítrico, clorhídrico y especialmente, sulfúrico, introdujeron
una verdadera revolución en los experimentos de la alquimia. Estas sustancias eran
ácidos mucho más fuertes que el más fuerte conocido hasta entonces (el ácido
acético, o sea, el del vinagre), y con ellos podían descomponerse las sustancias, sin
necesidad de emplear altas temperaturas ni recurrir a largos períodos de espera.
dichos átomos de forma distinta. Si tenemos en cuenta que esto es sólo una sutil
hipótesis, no podemos por menos de sorprendernos ante la exactitud de su
intuición. Pese a que la idea pueda parecer hoy evidente, estaban muy lejos de
serlo en la época en que Platón y Aristóteles la rechazaron.
Sin embargo, sobrevivió en las enseñanzas de Epicuro de Samos, quien escribió sus
obras hacia el año 300 a. de J.C., y en la escuela filosófica creada por él: el
epicureísmo. Un importante epicúreo fue el filósofo romano Lucrecio, quien, sobre el
año 60 a. de J.C., plasmó sus ideas acerca del átomo en un largo poema titulado
Sobre la naturaleza de las cosas. Este poema sobrevivió a través de la Edad Media y
fue uno de los primeros trabajos que se imprimieron cuando lo hizo posible el arte
de Gutenberg.
La noción de los átomos nunca fue descartada por completo de las escuelas
occidentales. Entre los atomistas más destacados en los inicios de la ciencia
moderna figuran el filósofo italiano Giordano Bruno y el filósofo trances Pierre
Gassendi. Muchos puntos de vista científicos de Bruno no eran ortodoxos, tales
como la creencia en un Universo infinito sembrado de estrellas, que serían soles
lejanos, alrededor de los cuales evolucionarían planetas, y expresó temerariamente
sus teorías. Fue quemado, por hereje, en 1600 lo cual hizo de él un mártir de la
Ciencia en la época de la revolución científica. Los rusos han dado su nombre a un
cráter de la cara oculta de la Luna.
Las teorías de Gassendi impresionaron a Boyle, cuyos experimentos, reveladores
que los gases podían ser fácilmente comprimidos y expandidos, parecían demostrar
que estos gases debían de estar compuestos por partículas muy espaciadas entre sí.
Por otra parte, tanto Boyle como Newton figuraron entre los atomistas más
convencidos del siglo XVII.
Dalton demostró que las diversas normas que regían el comportamiento de los
gases podían explicarse tomando como base la naturaleza atómica de la materia.
(Reconoció la prioridad de Demócrito, al emplear la voz «átomo».) Según Dalton,
cada elemento representaba un tipo particular de átomos, y cualquier cantidad de
este elemento estaba formada por átomos idénticos de esta clase. Lo que distinguía
a un elemento de otro era la naturaleza de sus átomos. Y la diferencia física básica
entre los átomos radicaba en su peso. Así, los átomos de azufre eran más pesados
que los de oxígeno, los cuales, a su vez, eran más pesados que los de nitrógeno;
éstos, más que los de carbono, y éstos más que los de hidrógeno.
El químico italiano Amedeo Avogadro aplicó a los gases la teoría atómica y demostró
que volúmenes iguales de un gas, fuese cual fuese su naturaleza, estaban formados
por el mismo número de partículas. Es la llamada «hipótesis de Avogadro». Al
principio se creyó que estas partículas eran átomos; pero luego se demostró que
estaban compuestas, en la mayor parte de los casos, por pequeños grupos de
átomos, llamados «moléculas». Si una molécula contiene átomos de distintas clases
(como la molécula de agua, que tiene un átomo de oxígeno y dos de hidrógeno), es
una molécula de un «compuesto químico». Naturalmente, era importante medir los
pesos relativos de los distintos átomos, para hallar los «pesos atómicos» de los
elementos. Pero los pequeños átomos se hallaban muy lejos de las posibilidades
ponderables del siglo XIX. Mas, pesando la cantidad de cada elemento separado de
un compuesto y haciendo deducciones a partir del comportamiento químico de los
elementos, se pudieron establecer los pesos relativos de los átomos. El primero en
realizar este trabajo de forma sistemática fue el químico sueco Jöns Jacob Berzelius.
En 1828 publicó una lista de pesos atómicos basados en dos patrones de referencia:
uno, el obtenido al dar al peso atómico del oxígeno el valor 100, y el otro, cuando el
peso atómico del hidrógeno se hacía igual a 1.
El sistema de Berzelius no alcanzó inmediata aceptación; pero en 1860, en el I
Congreso Internacional de Química, celebrado en Karlsruhe (Alemania), el químico
italiano Stanislao Cannizzaro presentó nuevos métodos para determinar los pesos
atómicos con ayuda de la hipótesis de Avogadro, menospreciada hasta entonces.
Describió sus teorías de forma tan convincente, que el mundo de la Química quedó
conquistado inmediatamente. Se adoptó como unidad de medida el peso del
oxígeno en vez del de hidrógeno, puesto que el oxígeno podía ser combinado más
fácilmente con los diversos elementos, y tal combinación era el punto clave del
método usual para determinar los pesos atómicos-. El peso atómico del oxígeno fue
medido convencionalmente, en 1850, por el químico belga Jean Servais Stas, quien
lo fijó en 16, de modo que el peso atómico del hidrógeno, el elemento más ligero
conocido hasta ahora, sería, aproximadamente, de 1; para ser más exactos:
1,0080.
Desde la época de Cannizzaro, los químicos han intentado determinar los pesos
atómicos cada vez con mayor exactitud. Por lo que se refiere a los métodos
puramente químicos, se llegó al punto culminante con los trabajos del químico
norteamericano Theodore William Richards, quien, desde 1904, se dedicó a
determinar los pesos atómicos con una exactitud jamás alcanzada. Por ello se le
concedió el premio Nobel de Química en 1914. En virtud de los últimos
descubrimientos sobre la constitución física de los átomos, las cifras de Richards
han sido corregidas desde entonces y se les han dado valores aún más exactos. A lo
largo del siglo XIX y pese a realizar múltiples investigaciones que implicaban la
aceptación de las nociones de átomos y moléculas y a que, por lo general, los
científicos estaban convencidos de su existencia, no se pudo aportar ninguna prueba
directa que fuesen algo más que simples abstracciones convenientes. Algunos
destacados científicos, como el químico alemán Wilhelm Ostwald, se negaron a
aceptarlos. Para él eran conceptos útiles, pero no «reales».
La existencia real de las moléculas la puso de manifiesto el «movimiento
browniano», que observó por vez primera, en 1827, el botánico escocés Robert
Brown, quien comprobó que los granos de polen suspendidos en el agua aparecían
animados de movimientos erráticos. Al principio se creyó que ello se debía a que los
granos de polen tenían vida; pero, de forma similar, se observó que también
mostraban movimiento pequeñas partículas de sustancias colorantes totalmente
inanimadas.
En 1863 se sugirió por vez primera que tal movimiento sería debido a un
bombardeo desigual de las partículas por las moléculas de agua circundantes. En los
objetos macroscópicos no tendría importancia una pequeña desigualdad en el
número de moléculas que incidieran de un lado u otro. Pero en los objetos
microscópicos, bombardeados quizá por sólo unos pocos centenares de moléculas
por segundo, un pequeño exceso, por uno u otro lado, podría determinar una
agitación perceptible. El movimiento al azar de las pequeñas partículas constituye
una prueba casi visible que el agua, y la materia en general, tiene «partículas».
Einstein elaboró un análisis teórico del movimiento browniano y demostró cómo se
podía averiguar el tamaño de las moléculas de agua considerando la magnitud de
los pequeños movimientos en zigzag de las partículas de colorantes. En 1908, el
científico francés Jean Perrin estudió la forma en que las partículas se posaban,
como sedimento, en el agua, debido a la influencia de la gravedad. A esta
sedimentación se oponían las colisiones determinadas por las moléculas
procedentes de niveles inferiores, de modo que el movimiento browniano se oponía
a la fuerza gravitatoria. Perrin utilizó este descubrimiento para calcular el tamaño de
las moléculas de agua mediante la ecuación formulada por Einstein, e incluso
Oswald tuvo que ceder en su postura. Estas investigaciones le valieron a Perrin, en
1926, el premio Nobel de Física.
Así, pues, los átomos se convirtieron, de abstracciones semimísticas, en objetos casi
tangibles. En realidad, hoy podemos decir que, al fin, el hombre ha logrado «ver» el
átomo. Ello se consiguió con el llamado «microscopio de campo iónico», inventado
en 1955 por Erwin W. Mueller, de la Universidad de Pennsylvania. El aparato
arranca iones de carga positiva a partir de la punta de una aguja finísima, iones que
inciden contra una pantalla fluorescente, la cual da una imagen, ampliada 5 millones
de veces, de la punta de la aguja. Esta imagen permite que se vea como un
pequeño puntito brillante cada uno de los átomos que componen la punta. La
técnica alcanzaría su máxima perfección cuando pudieran obtenerse imágenes de
cada uno de los átomos por separado. En 1970, el físico americano Albert Victor
Crewe informó que había detectado átomos sueltos de uranio y torio con ayuda del
microscopio electrónico.
A medida que, durante el siglo XIX, fue aumentando la lista de los elementos, los
químicos empezaron a verse envueltos en una intrincada maleza. Cada elemento
tenía propiedades distintas, y no daban con ninguna fórmula que permitiera ordenar
aquella serie de elementos. Puesto que la Ciencia tiene como finalidad el tratar de
hallar un orden en un aparente desorden, los científicos buscaron la posible
existencia de caracteres semejantes en las propiedades de los elementos.
En 1862, después de haber establecido Cannizzaro el peso atómico como una de las
más importantes herramientas de trabajo de la Química, un geólogo francés
(Alexandre-Émile Beguyer de Chancourtois) comprobó que los elementos se podían
disponer en forma de tabla por orden creciente, según su peso atómico, de forma
que los de propiedades similares se hallaran en la misma columna vertical. Dos
años más tarde, un químico británico (John Alexander Reina Newlands) llegó a
2
En honor a su descubridor, que, por humildad, dio a estos rayos el nombre incógnito de «X», cada día se tiende
más a denominarlos rayos Roentgen (por Wilhelm Konrad Roentgen, físico alemán). (N. del T.)
Tabla periódica de los elementos. Las tablas adicionales representan las dos series
de tierras raras: los lantánidos y los actínidos, denominados según sus primeros
miembros respectivos.
que el peso atómico. Por ejemplo, los datos proporcionados por los rayos X de
mostraron que Mendeléiev había tenido razón al colocar el telurio (de número
atómico 52) antes del yodo (53), pese a ser mayor el peso atómico del telurio.
El nuevo sistema de Moseley demostró su valor casi inmediatamente. El químico
francés Georges Urbain, tras descubrir el «lutecio» (por el nombre latino de Paris,
Lutecia); anunció que acababa de descubrir otro elemento, al que llamó «celtio». De
acuerdo con el sistema de Moseley, el lutecio era el elemento 71, y el celtio debía
ser el 72. Pero cuando Moseley analizó los rayos X característicos del celtio, resultó
que se trataba del mismo lutecio. El elemento 72 no fue descubierto realmente
hasta 1923, cuando el físico danés Dirk Coster y el químico húngaro Georg von
Hevesy lo detectaron en un laboratorio de Copenhague. Lo denominaron «hafnio»,
por el nombre latinizado de Copenhague.
Pero Moseley no pudo comprobar la exactitud de su método, pues había muerto en
Gallípoli, en 1915, a los veintiocho dos de edad. Fue uno de los cerebros más
valiosos perdidos en la Primera Guerra Mundial. Ello le privó también, sin duda, del
premio Nobel. El físico sueco Karl Manne George Siegbahn amplió el trabajo de
Moseley, al descubrir nuevas series de rayos X y determinar con exactitud el
espectro de rayos X de los distintos elementos. En 1924 fue recompensado con el
premio Nobel de Física.
En 1925, Walter Noddack, Ida Tacke y Otto Berg, de Alemania, llenaron otro vacío
en la tabla periódica. Después de tres años de investigar los minerales que
contenían elementos relacionados con el que estaban buscando, descubrieron el
elemento 75, al que dieron el nombre de «renio», en honor del río Rin. De este
modo se reducían a cuatro los espacios vacíos: correspondían a los elementos 43,
61, 85 y 87.
Fueron necesarias dos décadas para encontrarlos. A pesar que los químicos de
entonces no se percataron de ello, habían hallado el último de los elementos
estables. Los que faltaban eran especies inestables tan raras hoy en la Tierra, que
todas menos una tuvieron que ser creadas en el laboratorio para identificarlas. Y
este descubrimiento va asociado a una historia.
Elementos Radiactivos
descubrimiento no se considera como tal hasta que haya sido confirmado, como
mínimo, por un investigador independiente.
En 1926, dos químicos de la Universidad de Illinois anunciaron que habían
encontrado el elemento 61 en menas que contenían los elementos vecinos (60 y
62), y lo llamaron «illinio». El mismo año, dos químicos italianos de la Universidad
de Florencia creyeron haber aislado el mismo elemento, que bautizaron con el
nombre de «florencio». Pero el trabajo de ambos grupos no pudo ser confirmado
por ningún otro.
Años más tarde, un físico del Instituto Politécnico de Alabama, utilizando un nuevo
método analítico de su invención, informó haber encontrado indicios de los
elementos 87 y 85, a los que llamó «virginio» y «alabaminio», en honor,
respectivamente, de sus estados natal y de adopción. Pero tampoco pudieron ser
confirmados estos descubrimientos.
Los acontecimientos demostrarían que, en realidad, no se habían descubierto los
elementos 43, 61, 85 y 87.
El primero en ser identificado con toda seguridad fue el elemento 43. El físico
estadounidense Ernest Orlando Lawrence, quien más tarde recibiría el premio Nobel
de Física como inventor del ciclotrón (véase capitulo VI), obtuvo el elemento en su
acelerador mediante el bombardeo de molibdeno (elemento 42) con partículas a alta
velocidad. El material bombardeado mostraba radiactividad, y Lawrence lo remitió al
químico italiano Emilio Gino Segrè, quien estaba interesado en el elemento 43, para
que lo analizase. Segrè y su colega C. Perrier, tras separar la parte radiactiva del
molibdeno, descubrieron que se parecía al renio en sus propiedades. Y decidieron
que sólo podía ser el elemento 43, elemento que contrariamente a sus vecinos de la
tabla periódica, era radiactivo. Al no ser producidos por desintegración de un
elemento de mayor número atómico, apenas quedan indicios del mismo en la
corteza terrestre, por lo cual, Noddack y su equipo estaban equivocados al creer
que lo habían hallado. Segrè y Perrier tuvieron el honor de bautizar el elemento 43;
lo llamaron «tecnecio», tomado de la voz griega que significa «artificial», porque
éste era el primer elemento fabricado por el hombre. Hacia 1960 se había
acumulado ya el tecnecio suficiente para determinar su punto de fusión: cercano a
los 2.200º C. (Segrè recibió posteriormente el premio Nobel por otro
elemento en el de número atómico superior más próximo. ¿Era posible que el uranio
se transformase en el elemento 93, completamente sintético, que no existía en la
Naturaleza? El equipo de Fermi procedió a bombardear el uranio con neutrones y
obtuvo un producto que al parecer, era realmente el elemento 93. Se le dio el
nombre de «uranio X».
En 1938, Fermi recibió el premio Nobel de Física por sus estudios sobre el
bombardeo con neutrones. Por aquella fecha, ni siquiera podía sospecharse la
naturaleza real de su descubrimiento, ni sus consecuencias para la Humanidad. Al
igual que Cristóbal Colón, había encontrado, no lo que estaba buscando, sino algo
mucho más valioso, pero de cuya importancia no podía percatarse.
Baste decir, por ahora, que, tras seguir una serie de pistas que no condujeron a
ninguna parte, descubrióse, al fin, que lo que Fermi había conseguido no era la
creación de un nuevo elemento, sino la escisión del átomo de uranio en dos partes
casi iguales. Cuando, en 1940, los físicos abordaron de nuevo el estudio de este
proceso, el elemento 93 surgió como un resultado casi fortuito de sus experimentos.
En la mezcla de elementos que determinaba el bombardeo del uranio por medio de
neutrones aparecía uno que, de principio, resistió todo intento de identificación.
Entonces, Edwin McMillan, de la Universidad de California, sugirió que quizá los
neutrones liberados por fisión hubiesen convertido algunos de los átomos de uranio
en un elemento de número atómico más alto, como Fermi había esperado que
ocurriese. McMillan y Philip Abelson, un físicoquímico, probaron que el elemento no
identificado era, en realidad, el número 93. La prueba de su existencia la daba la
naturaleza de su radiactividad, lo mismo que ocurriría en todos los descubrimientos
subsiguientes.
McMillan sospechaba que pudiera estar mezclado con el número 93 otro elemento
transuránico. El químico Glenn Theodore Seaborg y sus colaboradores Arthur
Charles Wahl y J.W. Kennedy no tardaron en demostrar que McMillan tenía razón y
que dicho elemento era el número 94.
De la misma forma que el uranio, elemento que se suponía el último de la tabla
periódica, tomó su nombre de Urano, el planeta recientemente descubierto a la
sazón, los elementos 93 y 94 fueron bautizados, respectivamente como «neptunio»
y «plutonio», por Neptuno y Plutón, planetas descubiertos después de Urano. Y
resultó que existía en la Naturaleza, pues más tarde se encontraron indicios de los
mismos en menas de uranio. Así, pues, el uranio no era el elemento natural de
mayor peso atómico.
Seaborg y un grupo de investigadores de la Universidad de California, entre los
cuales destacaba Albert Ghiorso, siguieron obteniendo, uno tras otro, nuevos
elementos transuránicos. Bombardeando plutonio con partículas subatómicas,
crearon, en 1944, los elementos 95 y 96, que recibieron, respectivamente, los
nombres de «americio» (por América) y «curio» (en honor de los Curie). Una vez
obtenida una cantidad suficiente de americio y curio, bombardearon estos
elementos y lograron obtener, en 1949, el número 97, y, en 1950, el 98. Estos
nuevos elementos fueron llamados «berkelio» y «californio» (por Barkeley y
California). En 1951, Seaborg y McMillan compartieron el premio Nobel de Química
por esta serie de descubrimientos. El descubrimiento de los siguientes elementos
fue el resultado de unas investigaciones y pruebas menos pacíficas. Los elementos
99 y 100 surgieron en la primera explosión de una bomba de hidrógeno, la cual se
llevó a cabo en el Pacífico, en noviembre de 1952. Aunque la existencia de ambos
fue detectada en los restos de la explosión, no se confirmó ni se les dio nombre
basta después que el grupo de investigadores de la Universidad de California obtuvo
en su laboratorio, en 1955, pequeñas cantidades de ambos. Fueron denominados,
respectivamente, «einstenio» y «fermio», en honor de Albert Einstein y Enrico
Fermi, ambos, muertos unos meses antes. Después, los investigadores
bombardearon una pequeña cantidad de «einstenio» y obtuvieron el elemento 101,
al que denominaron «mendelevio», por Mendeléiev.
El paso siguiente llegó a través de la colaboración entre California y el Instituto
Nobel de Suecia. Dicho instituto llevó a cabo un tipo muy complicado de bombardeo
que produjo, aparentemente, una pequeña cantidad del elemento 102. Fue llamado
«nobelio» en honor del Instituto; pero el experimento no ha sido confirmado. Se
había obtenido con métodos distintos de los descritos por el primer grupo de
investigadores. Mas, pese a que el «nobelio» no ha sido oficialmente aceptado como
el nombre del elemento, no se ha propuesto ninguna otra denominación.
En 1961 se detectaron algunos átomos del elemento 103 en la Universidad de
California, a los cuales se les dio el nombre de «laurencio» (por E. O. Lawrence, que
Electrones
Cuando Mendeléiev y sus contemporáneos descubrieron que podían distribuir los
elementos en una tabla periódica compuesta por familias de sustancias de
propiedades similares, no tenían noción alguna acerca del porqué los elementos
pertenecían a tales grupos o del motivo por el que estaban relacionadas las
propiedades. De pronto surgió una respuesta simple y clara, aunque tras una larga
serie de descubrimientos, que al principio no parecían tener relación con la Química.
Todo empezó con unos estudios sobre la electricidad, Faraday realizó con la
electricidad todos los experimentos imaginables; incluso trató de enviar una
1906, Thomson fue galardonado con el premio Nobel de Física por haber establecido
la existencia del electrón.)
El descubrimiento del electrón sugirió inmediatamente que debía de tratarse de una
subpartícula del átomo. En otras palabras, que los átomos no eran las unidades
últimas indivisibles de la materia que habían descrito Demócrito y John Dalton.
Aunque costaba trabajo creerlo, las pruebas convergían de manera inexorable. Uno
de los datos más convincentes que la demostración, hecha por Thomson, que las
partículas con carga negativa emitidas por una placa metálica al ser incidida por
radiaciones ultravioleta (el llamado «efecto fotoeléctrico»), eran idénticas a los
electrones de los rayos catódicos. Los electrones fotoeléctricos debían de haber sido
arrancados de los átomos del metal.
Puesto que los electrones podían separarse fácilmente de los átomos, tanto por el
efecto fotoeléctrico como por otros medios, era natural llegar a la conclusión que se
hallaban localizados en la parte exterior del átomo. De ser así, debía de existir una
zona cargada positivamente en el interior del átomo, que contrarrestaría las cargas
negativas de los electrones, puesto que el átomo, globalmente considerado, era
neutro. En este momento, los investigadores empezaron a acercarse a la solución
del misterio de la tabla periódica.
Separar un electrón de un átomo requiere una pequeña cantidad de energía. De
acuerdo con el mismo principio, cuando un electrón ocupa un lugar vacío en el
átomo, debe ceder una cantidad igual de energía. (La Naturaleza es generalmente
simétrica, en especial cuando se trata de energía.) Esta energía es liberada en
forma de radiación electromagnética. Ahora bien, puesto que la energía de la
radiación se mide en términos de longitud de onda, la longitud de onda de la
radiación emitida por un electrón que se une a un determinado átomo indicará la
fuerza con que el electrón es sujetado por este átomo. La energía de la radiación
aumenta al acortarse la longitud de onda: cuanto mayor es la energía, más corta es
la longitud de onda.
Y con esto llegamos al descubrimiento, hecho por Moseley, que los metales, es
decir, los elementos más pesados, producen rayos X, cada uno de ellos con su
longitud de onda característica, que disminuye de forma regular, a medida que se
va ascendiendo en la tabla periódica. Al parecer, cada elemento sucesivo retenía sus
electrones con más fuerza que el anterior, lo cual no es más que otra forma de decir
que cada uno de ellos tiene una carga positiva más fuerte en su región interna, que
el anterior.
Suponiendo que, en un electrón, a cada unidad de carga positiva le corresponde una
de carga negativa, se deduce que el átomo de cada elemento sucesivo de la tabla
periódica debe tener un electrón más. Entonces, la forma más simple de formar la
tabla periódica consiste en suponer que el primer elemento, el hidrógeno, tiene 1
unidad de carga positiva y un electrón; el segundo elemento, el helio, 2 careas
positivas y 2 electrones; el tercero, el litio, 3 cargas positivas y 3 electrones, y así,
hasta llegar al uranio, con 92 electrones. De este modo, los números atómicos de
los elementos han resultado ser el número de electrones de sus átomos.
Una prueba más, y los científicos atómicos tendrían la respuesta a la periodicidad de
la tabla periódica. Se puso de manifiesto que la radiación de electrones de un
determinado elemento no estaba necesariamente restringida a una longitud de onda
única; podía emitir radiaciones de dos, tres, cuatro e incluso más longitudes de
onda distintas. Estas series de radiaciones fueron denominadas K, L, M, etc. Los
investigadores interpretaron esto como una prueba que los electrones estaban
dispuestos en «capas» alrededor del núcleo del átomo de carga positiva. Los
electrones de la capa más interna eran sujetados con mayor fuerza, y para
conseguir su separación se necesitaba la máxima energía. Un electrón que cayera
en esta capa emitiría la radiación de mayor energía, es decir, de longitudes de onda
más corta, o de la serie K. Los electrones de la capa siguiente emitían la serie L de
radiaciones; la siguiente capa producía la serie M, etc. En consecuencia, estas capas
fueron denominadas K, L, M, etcétera.
Hacia 1925, el físico austriaco Wolfgang Pauli enunció su «principio de exclusión», el
cual explicaba la forma en que los electrones estaban distribuidos en el interior de
cada capa, puesto que, según este principio, dos electrones no podían poseer
exactamente la misma energía ni el mismo spin. Por este descubrimiento, Pauli
recibió el premio Nobel de Física en 1945.
En 1916, el químico americano Gilbert Newton Lewis determinó las similitudes de
las propiedades y el comportamiento químico de algunos de los elementos más
simples sobre la base de su estructura en capas. Para empezar, había pruebas
suficientes que la capa más interna estaba limitada a dos electrones. El hidrógeno
sólo tiene un electrón; por tanto, la capa está incompleta. El átomo tiende a
completar esta capa K, y puede hacerlo de distintas formas. Por ejemplo, dos
átomos de hidrógeno pueden compartir sus respectivos electrones y completar así
mutuamente sus capas K. Ésta es la razón que el hidrógeno se presente casi
siempre en forma de un par de átomos: la molécula de hidrógeno. Se necesita una
gran cantidad de energía para separar los dos átomos y liberarlos en forma de
«hidrógeno atómico». Irving Langmuir, de la «General Electric Company», quien,
independientemente, llegó a un esquema similar, que implicaba los electrones y el
comportamiento químico, llevó a cabo una demostración práctica de la intensa
tendencia del átomo de hidrógeno a mantener completa su capa de electrones.
Obtuvo una «antorcha de hidrógeno atómico» soplando gas de hidrógeno a través
de un arco eléctrico, que separaba los tomos de las moléculas; cuando los átomos
se recombinaban, tras pasar el arco, liberaban la energía que habían absorbido al
separarse, lo cual bastaba para alcanzar temperaturas superiores a los 3.400º C.
En el helio (elemento 2), la capa K está formada por dos electrones. Por tanto, los
átomos de helio son estables y no se combinan con otros átomos. Al llegar al litio
(elemento 3), vemos que dos de sus electrones completan la capa K y que el
tercero empieza la capa L. Los elementos siguientes añaden electrones a esta capa,
uno a uno: el berilio tiene 2 electrones en la capa L; el boro, 3; el carbono, 4; el
nitrógeno, 5; el oxígeno, 6; el flúor, 7; y el neón 8. Ocho es el límite para la capa L,
por lo cual el neón, lo mismo que el helio, tiene su capa exterior de electrones
completa, y, desde luego, es también un gas inerte, con propiedades similares a las
del helio.
Cada átomo cuya capa exterior no está completa, tiende a combinarse con otros
átomos, de forma que pueda completarla. Por ejemplo, el átomo de litio cede
fácilmente su único electrón en la capa L de modo que su capa exterior sea la K,
completa, mientras que el flúor tiende a captar un electrón, que añade a los siete
que ya tiene, para completar su capa L. Por tanto, el litio y el flúor tienen afinidad el
uno por el otro; y cuando se combinan, el litio cede su electrón L al flúor, para
completar la capa L exterior de este ultimo. Dado que no cambian las cargas
positivas del interior del átomo, el litio, con un electrón de menos, es ahora
portador de una carga positiva, mientras que el flúor, con un electrón de más, lleva
una carga negativa. La mutua atracción de las cargas opuestas mantiene unidos a
los dos iones. El compuesto se llama fluoruro de litio.
Los electrones de la capa L pueden ser compartidos o cedidos. Por ejemplo, uno de
cada dos átomos de flúor puede compartir uno de sus electrones con el otro, de
modo que cada átomo tenga un total de ocho en su capa L, contando los dos
electrones compartidos. De forma similar, dos átomos de oxígeno compartirán un
total de cuatro electrones para completar sus capas L; y dos átomos de nitrógeno
compartirán un total de 6. De este modo, el flúor, el oxígeno y el nitrógeno forman
moléculas de dos átomos.
El átomo de carbono, con sólo cuatro electrones en su capa L compartirá cada uno
de ellos con un átomo distinto de hidrógeno, para completar así las capas K, de los
cuatro átomos de hidrógeno. A su vez, completa su propia capa L al compartir sus
electrones. Esta disposición estable es la molécula de metano CH4.
Del mismo modo, un átomo de nitrógeno compartirá los electrones con tres átomos
de hidrógeno para formar el amoníaco; un átomo de oxígeno compartirá sus
electrones con de átomos de hidrógeno para formar el agua; un átomo de carbono
compartirá sus electrones con dos átomos de oxígeno para formar anhídrido
carbónico; etc. Casi todos los compuestos formados por elementos de la primera
parte de la tabla periódica pueden ser clasificados de acuerdo con esta tendencia a
completar su capa exterior cediendo electrones, aceptando o compartiendo
electrones.
El elemento situado después del neón, el sodio, tiene 11 electrones, y el
decimoprimero debe empezar una tercera capa. Luego sigue el magnesio, con 2
electrones en la capa M; el aluminio, con 3; el silicio, con 4; el fósforo, con 5; el
azufre, con 6; el cloro, con 7, y el argón, con 8.
Ahora bien, cada elemento de este grupo corresponde a otro de la serie anterior. El
argón, con 8 electrones en la capa M, se asemeja al neón (con 8 electrones en la
capa L) y es un gas inerte. El cloro, con 7 electrones en su capa exterior, se parece
mucho al flúor en sus propiedades químicas. Del mismo modo, el silicio se parece al
carbono; el sodio, al litio, etc.
Por ejemplo, cada uno de los gases inertes, helio, neón, argón, criptón, xenón y
radón, tiene ocho electrones en la capa exterior (a excepción del helio, que tiene
dos en su única capa), situación que es la más estable posible. Los átomos de estos
elementos tienen una tendencia mínima a perder o ganar electrones, y, por tanto, a
tomar parte en reacciones químicas. Estos gases, tal como indica su nombre, serían
«inertes».
Sin embargo, una «tendencia mínima» no es lo mismo que «sin tendencia alguna»;
pero la mayor parte de los químicos lo olvidó, y actuó como si fuese realmente
imposible para los gases inertes formar compuestos. Por supuesto que ello no
ocurría así con todos. Ya en 1932, el químico americano Linus Pauling estudió la
facilidad con que los electrones podían separarse de los distintos elementos, y
observó que todos los elementos sin excepción, incluso los fases inertes, podían ser
desprovistos de electrones. La única diferencia estribaba en que, para que ocurriese
esto, se necesitaba más energía en el caso de los gases inertes que en el de los
demás elementos situados junto a ellos en la tabla periódica.
La cantidad de energía requerida para separar los electrones en los elementos de
una determinada familia, disminuye al aumentar el peso atómico, y los gases
inertes más pesados, el xenón y el radón, no necesitan cantidades excesivamente
elevadas. Por ejemplo, no es más difícil extraer un electrón a partir de un átomo de
xenón que de un átomo de oxígeno.
Por tanto, Pauling predijo que los gases inertes más pesados podían formar
compuestos químicos con elementos que fueran particularmente propensos a
aceptar electrones. El elemento que más tiende a aceptar electrones es el flúor, y
éste parecía ser el que naturalmente debía elegirse.
Ahora bien, el radón, el gas inerte más pesado, es radiactivo y sólo puede obtenerse
en pequeñísimas cantidades. Sin embargo, el xenón, el siguiente gas más pesado,
es estable, y se encuentra en pequeñas cantidades en la atmósfera. Por tanto, lo
mejor sería intentar formar un compuesto entre el xenón y el flúor. Sin embargo,
durante 30 años no se pudo hacer nada a este respecto, principalmente porque el
xenón era caro, y el flúor, muy difícil de manejar, y los químicos creyeron que era
mejor dedicarse a cosas menos complicadas.
Desconcertados por este estado de cosas, lo único que pudieron hacer los químicos
fue agrupar todos los elementos de tierras raras en un espacio situado debajo del
itrio, y alineados uno por uno, en una especie de nota al pie de la tabla.
Finalmente, la respuesta a este rompecabezas llegó como resultado de detalles
añadidos al esquema de Lewis Langmuir sobre la estructura de las capas de
electrones en los elementos.
En 1921, .C. R. Bury sugirió que el número de electrones de cada capa no estaba
limitado necesariamente a ocho. El ocho era el número que bastaba siempre para
satisfacer la capacidad de la capa exterior. Pero una capa podía tener un mayor
número de electrones si no estaba en el exterior. Como quiera que las capas se iban
formando sucesivamente, las más internas podían absorber más electrones, y cada
una de las siguientes podía retener más que la anterior. Así, la capacidad total de la
capa K sería de 2 electrones; la de la L, de 8; la de la M, de 18; la de la N, de 32, y
así sucesivamente. Este escalonamiento se ajusta al de una serie de sucesivos
cuadrados multiplicados por 2 (por ejemplo, 2 x l, 2 x 4, 2 x 8, 2 x 16, etc.).
Este punto de vista fue confirmado por un detenido estudio del espectro de los
elementos. El físico danés Niels Henrik David Bohr demostró que cada capa de
electrones estaba constituida por subcapas de niveles de energía ligeramente
distintos. En cada capa sucesiva, las subcapas se hallan más separadas entre sí, de
tal modo que pronto se imbrican las capas. En consecuencia, la subcapa más
externa de una capa interior (por ejemplo, la M), puede estar realmente más lejos
del centro que la subcapa más interna de la capa situada después de ella (por
ejemplo, la. N). Por tanto, la subcapa interna de la capa N puede estar llena de
electrones, mientras que la subcapa exterior de la capa M puede hallarse aún vacía.
Un ejemplo aclarará esto. Según esta teoría, la capa M está dividida en tres
subcapas, cuyas capacidades son de 2, 6 y 10 electrones, respectivamente, lo cual
da un total de 18. El argón, con 8 electrones en su capa M, ha completado sólo 2
subcapas internas. Y, de hecho, la tercera subcapa, o más externa, de la capa M, no
conseguirá el próximo electrón en el proceso de formación de elementos, al hallarse
por debajo de la subcapa más interna de la capa N. Así, en el potasio, elemento que
sigue al argón, el electrón decimonoveno no se sitúa en la subcapa más exterior de
M, sino en la subcapa más interna de N. El potasio, con un electrón en su capa N, se
Las capas de electrones del lantano. Nótese que la cuarta subcapa de la capa N ha
sido omitida y está vacía.
Lo más importante de este proceso es que los elementos 21 al 30, los cuales
adquieren una configuración parecida para completar una subcapa que había sido
omitida temporalmente, son «de transición». Nótese que el calcio se parece al
magnesio, y el galio, al aluminio. El magnesio y el aluminio están situados uno junto
a otro en la tabla periódica (números 12 y 13). En cambio, no lo están el calcio (20)
ni el galio (31). Entre ellos se encuentran los elementos de transición, lo cual hace
aún más compleja la tabla periódica.
La capa N es mayor que la M y está dividida en cuatro subcapas, en vez de tres:
puede tener 2, 6, 10 y 14 electrones, respectivamente. El criptón (elemento 36)
completa las dos subcapas más internas de la capa N; pero aquí interviene la
subcapa más interna de la capa O, que está superpuesta, y antes que los electrones
se sitúen en las dos subcapas más externas de la N, deben llenar dicha subcapa. El
elemento que sigue al criptón, el rubidio (37), tiene su electrón número 37 en la
capa O. El estroncio (38) completa la subcapa O con dos electrones. De aquí en
adelante, nuevas series de elementos de transición rellenan la antes omitida tercera
subcapa de la capa N. Este proceso se completa en el cadmio (48); se omite la
subcapa cuarta y más exterior de N, mientras los electrones pasan a ocupar la
segunda subcapa interna de O, proceso que finaliza en el xenón (54).
El problema fue resuelto en breve plazo con ayuda de una técnica química creada,
en 1906, por el botánico ruso Mijail Seménovich Tswett, quien la denominó
«cromatografía» («escritura en color»). Tswett descubrió que podía separar
pigmentos vegetales químicamente muy parecidos haciéndolos pasar, en sentido
descendente, a través de una columna de piedra caliza en polvo, con ayuda de un
disolvente. Tswett disolvió su mezcla de pigmentos vegetales en éter de petróleo y
vertió esta mezcla sobre la piedra caliza. Luego incorporó disolvente puro. A medida
que los pigmentos eran arrastrados por el líquido a través del polvo de piedra caliza,
cada uno de ellos se movía a una velocidad distinta, porque su grado de adherencia
al polvo era diferente. El resultado fue que se separaron en una serie de bandas,
cada una de ellas de distinto color.
Al seguir lavando las sustancias separadas, iban apareciendo aisladas en el extremo
inferior de la columna, de la que eran recogidas.
Durante muchos años, el mundo de la Ciencia ignoró el descubrimiento de Tswett,
quizá porque se trataba sólo de un botánico y, además, ruso, cuando, a la sazón,
eran bioquímicos alemanes las máximas figuras de la investigación sobre técnicas
para separar sustancias difíciles de individualizar. Pero en 1931, un bioquímico, y
precisamente alemán, Richard Willstätter, redescubrió el proceso, que entonces sí
se generalizó. (Willstätter había recibido el premio Nobel de Química en 1915 por su
excelente trabajo sobre pigmentos vegetales, y, por lo que sabemos, Tswett no ha
recibido honor alguno.)
La cromatografía a través de columnas de materiales pulverizados mostróse como
un procedimiento eficiente para toda clase de mezclas, coloreadas o no. El óxido de
aluminio y el almidón resultaron mejores que la piedra caliza para separar
moléculas corrientes. Cuando se separan iones, el proceso se llama «intercambio de
iones», y los compuestos conocidos con el nombre de zeolitas fueron los primeros
materiales aplicados con este fin. Los iones de calcio y magnesio podrían ser
extraídos del agua «dura», por ejemplo, vertiendo el agua a través de una columna
de zeolita. Los iones de calcio y magnesio se adhieren a ella y son remplazados, en
solución, por los iones de sodio que contiene la zeolita, de modo que al pie de la
columna van apareciendo gotas de agua «blanda». Los iones de sodio de la zeolita
deben ser remplazados de vez en cuando vertiendo en la columna una solución
Esta serie de elementos pesados empieza con el actinio, número 89. En la tabla está
situado debajo del lantano. El actinio tiene 2 electrones en la capa Q, del mismo
modo que el lantano tiene otros 2 en la capa P. El electrón 89 y último del actinio
pasa a ocupar la capa P, del mismo modo que el 57 y último del lantano ocupa la
capa O. Ahora se plantea este interrogante: Los elementos situados detrás del
actinio, ¿siguen añadiendo electrones a la capa P y convirtiéndose así en elementos
usuales de transición? ¿O, por el contrario, se comportan como los elementos
situados detrás del lantano, cuyos electrones descienden para completar la subcapa
omitida situada debajo? Si ocurre esto, el actinio puede ser el comienzo de una
nueva serie de «metales de tierras raras».
Los elementos naturales de esta serie son el actinio, el torio, el protactinio y el
uranio. No fueron ampliamente estudiados hasta 1940. Lo poco que se sabía sobre
su química sugería que se trataba de elementos usuales de transición. Pero cuando
se añadieron a la lista los elementos neptunio y plutonio, elaborados por el hombre,
y se estudiaron detenidamente, mostraron un gran parecido químico con el uranio.
Ello indujo a Glenn Seaborg a proponer la teoría que los elementos pesados se
comportaban, en realidad, como las tierras raras y completaban la enterrada
subcapa incompleta. A medida que se fueron añadiendo a la lista más elementos
transuránicos el estudio de su química confirmó este punto de vista, que hoy es
generalmente aceptado.
La capa que se va completando es la cuarta subcapa de la capa O. En el laurencio
(elemento número 103) se completa la subcapa. Todos los elementos, desde el
actinio al laurencio, comparten casi las mismas propiedades químicas y se parecen
al lantano y a los lantánidos. En el elemento 104, el electrón número 104 se añadirá
a la capa P, y sus propiedades deberían ser como las de hafnio. Ésta sería la prueba
final que confirmase la existencia de una segunda serie de tierras raras, y la razón
que los químicos busquen tan afanosamente la obtención y estudio del elemento
104.
De momento tienen ya una prueba directa. La cromatografía de intercambio de
iones separa con claridad los elementos transuránicos, de una manera totalmente
análoga a la empleada para los lantánidos.
Para subrayar aún más este paralelismo, los «metales de tierras raras» más
pesados se llaman hoy «actínidos», del mismo modo que los miembros de la
primera serie se denominan lantánidos.
Los Gases
Desde los comienzos de la Química se reconoció que podían existir muchas
sustancias en forma de gas, líquido o sólidos, según la temperatura. El agua es el
ejemplo más común: a muy baja temperatura se transforma en hielo sólido, y si se
calienta mucho, en vapor gaseoso. Van Helmont, el primero en emplear la palabra
«gas», recalcó la diferencia que existe entre las sustancias que son gases a
temperaturas usuales, como el anhídrido carbónico, y aquellas que, al igual que el
vapor, son gases sólo a elevadas temperaturas. Llamó «vapores» a estos últimos,
por lo cual seguimos hablando «de vapor de agua», no de «gas de agua».
El estudio de los gases o vapores siguió fascinando a los químicos, en parte porque
les permitía dedicarse a estudios cuantitativos. Las leyes que determinan su
conducta son más simples y fáciles de establecer que las que gobiernan el
comportamiento de los líquidos y los sólidos.
En 1787, el físico francés Jacques-Alexandre-César Charles descubrió que, cuando
se enfriaba un gas, cada grado de enfriamiento determinaba una contracción de su
volumen aproximadamente igual a 1/273 del volumen que el mismo gas tenía a 0º
C, y, a la inversa, cada grado de calentamiento provocaba dificultades lógicas; pero
si continuaba la disminución de volumen de acuerdo con la ley de Charles (tal como
se la conoce hoy), al llegar a los –273º C, el gas desaparecería. Esta paradoja no
pareció preocupar demasiado a los químicos, pues se daban cuenta que la ley de
Charles no podía permanecer inmutable hasta llegar a temperaturas tan bajas, y,
por otra parte, no tenían medio alguno de conseguir temperaturas lo
suficientemente bajas como para ver lo que sucedía.
El desarrollo de la teoría atómica, que describía los gases como grupos de
moléculas, presentó la situación en unos términos completamente nuevos. Entonces
empezó a considerarse que el volumen dependía de la velocidad de las moléculas.
Cuanto más elevada fuese la temperatura, a tanto mayor velocidad se moverían,
más «espacio necesitarían para moverse». Y mayor sería el volumen. Por el
El agua no resulta apropiada por este objeto, ya que el hielo que se forma obturaría
los tubos. En 1834, un inventor norteamericano, Jacob Perkins, patentó (en Gran
Bretaña) el uso del éter como refrigerante. También se utilizaron otros gases, tales
como el amoníaco y el anhídrido sulfuroso. Todos estos refrigerantes tenían la
desventaja de ser tóxicos o inflamables. En 1930, el químico norteamericano
Thomas Midgley descubrió el dicloro-difluorometano (Cl2CF2), más conocido por su
nombre comercial de «Freón». Se trata de un gas no tóxico e ininflamable, que se
adapta perfectamente a este propósito. Gracias al «Freón», la refrigeración casera
se convirtió en una técnica de uso común.
Aplicada con moderación a grandes volúmenes, la refrigeración es el «aire
acondicionado», llamado así porque el aire se halla en realidad acondicionado, es
decir, filtrado y deshumidificado. La primera unidad de aire acondicionado con fines
prácticos fue diseñada, en 1902 por el inventor americano Willis H. Carrier (cuyo
nombre tomó: «clima Carrier»). A partir de la Segunda Guerra Mundial, el aire
acondicionado se convirtió en algo muy corriente en las principales ciudades
americanas, y hoy es de empleo casi universal.
Pero el principio de la refrigeración puede ser también llevado a sus extremos. Si se
encierra un gas licuado en un recipiente bien aislado, de modo que al evaporarse
extraiga calor sólo a partir del propio líquido, pueden obtenerse temperaturas muy
bajas. Ya en 1835, los físicos habían alcanzado temperaturas de hasta –100º C.
Sin embargo, el hidrógeno, el oxígeno, el nitrógeno, el monóxido de carbono y otros
gases corrientes resistieron la licuefacción a estas temperaturas, aún con el empleo
de altas presiones. Durante algún tiempo resultó imposible su licuefacción, por lo
cual se llamaron «gases permanentes».
Sin embargo, en 1839, el físico irlandés Thomas Andrews dedujo, a partir de sus
experimentos, que cada gas tenía una «temperatura crítica», por encima de la cual
no podía ser licuado, ni siquiera sometiéndolo a presión. Esto fue expresado más
tarde, con una base teórica firme, por el físico holandés Johannes Diderik van der
Waals, quien, por ello, se hizo acreedor al premio Nobel de Física en 1910.
A partir de este momento, para licuar cualquier gas, se había de operar a una
temperatura inferior a la crítica del gas en cuestión, pues, de lo contrario, el
esfuerzo era inútil. Se intentó alcanzar temperaturas aún más bajas, a fin de
precedentes con sólo una fracción de la fuerza, que se consume en general. Sin
embargo, hay un inconveniente.
En relación con el magnetismo, se ha de tener en cuenta otra característica, además
de la superconductividad. En el momento en que una sustancia se transforma en
superconductora, se hace también perfectamente «diamagnética», es decir, excluye
las líneas de fuerza de un campo magnético. Esto fue descubierto por W. Meissner
en 1933, por lo cual se llama desde entonces «efecto Meissner». No obstante, si se
hace el campo magnético lo suficientemente fuerte, puede destruirse la
superconductividad de la sustancia, incluso a temperaturas muy por debajo de su
punto de transición. Es como si, una vez concentradas en los alrededores las
suficientes líneas de fuerza, algunas de ellas lograran penetrar en la sustancia y
desapareciese la superconductividad.
Se han realizado varias pruebas con objeto de encontrar sustancias
superconductoras que toleren potentes campos magnéticos. Por ejemplo, hay una
aleación de estaño y niobio con una elevada temperatura de transición, 255º C.
Puede soportar un campo magnético de unos 250.000 gauss, lo cual, sin duda, es
una intensidad elevada. Aunque este descubrimiento se hizo en 1954, hasta 160 no
se perfeccionó el procedimiento técnico para fabricar alambres con esta aleación,
por lo general, quebradiza, Todavía más eficaz es la combinación de vanadio y galio,
y se han fabricado electroimanes superconductores con intensidades de hasta
500.000 gauss. En el helio se descubrió también otro sorprendente fenómeno a
bajas temperaturas: la «superfluidez».
El helio es la única sustancia conocida que no puede ser llevada a un estado sólido,
ni siquiera a la temperatura del cero absoluto. Hay un pequeño contenido de
energía irreductible, incluso al cero absoluto, que, posiblemente, no puede ser
eliminado (ya que, de hecho, su contenido en energía es «cero»); sin embargo,
basta para mantener libres entre sí los extremadamente «no adhesivos» átomos de
helio y, por tanto, líquidos. En 1905, el físico alemán Hermann Walther Nernst
demostró que no es la energía de la sustancia la que se convierte en cero en el cero
absoluto, sino una propiedad estrechamente vinculada a la misma: la «entropía».
Esto valió a Nernst el premio Nobel de Química en 1920. Sea como fuere, esto no
significa que no exista helio sólido en ninguna circunstancia. Puede obtenerse a
Metales
La mayor parte de los elementos de la tabla periódica son metales. En realidad, sólo
20 de los 102 pueden considerarse como no metálicos. Sin embargo, el empleo de
los metales se introdujo relativamente tarde. Una de las causas es la de que, con
raras excepciones, los elementos metálicos están combinados en la Naturaleza con
otros elementos y no son fáciles de reconocer o extraer. El hombre primitivo empleó
al principio sólo materiales que pudieran manipularse mediante tratamientos
simples como cincelar, desmenuzar, cortar y afilar. Ello limitaba a huesos, piedras y
madera los materiales utilizables.
Su iniciación al uso de los metales se debió al descubrimiento de los meteoritos, o
de pequeños núcleos de oro, o del cobre metálico presente en las cenizas de los
fuegos hechos sobre rocas que contenían venas de cobre. En cualquier caso se
trataba de gentes lo bastante curiosas (y afortunadas) como para encontrar las
extrañas y nuevas sustancias y tratar de descubrir las formas de manejarlas, lo cual
supuso muchas ventajas. Los metales diferían de la roca por su atractivo brillo una
vez pulimentados. Podían ser golpeados hasta obtener de ellos láminas, o ser
transformados en varillas. Podían ser fundidos y vertidos en un molde para
solidificarlos. Eran mucho más hermosos y adaptables que la piedra, e ideales para
ornamentación. Probablemente se emplearon para esto mucho antes que para otros
usos.
Al ser raros, atractivos y no alterarse con el tiempo, los metales llegaron a valorarse
hasta el punto de convertirse en un medio reconocido de intercambio. Al principio,
las piezas de metal (oro, plata o cobre) tenían que ser pesadas por separado en las
transacciones comerciales, pero hacia el 700 a. de J.C. fabricaron ya patrones de
metal algunas entidades oficiales en el reino de Lidia, en Asia Menor y en la isla
egea de Egina. Aún hoy seguimos empleando las monedas.
Lo que realmente dio valor a los metales por sí mismos fue el descubrimiento que
algunos de ellos podían ser transformados en una hoja más cortante que la de la
piedra, hoja que se mantenía sometida a pruebas que estropearían un hacha de
piedra. Más aún, el metal era duro. Un golpe que pudiera romper una porra de
madera o mellar un hacha de piedra, sólo deformaba ligeramente un objeto
metálico de tamaño similar. Estas ventajas compensaban el hecho que el metal
fuera más pesado que la piedra y más difícil de obtener.
El primer metal obtenido en cantidad razonable fue el cobre, que se usaba ya hacia
el 4000 a. de J.C. Por sí solo, el cobre era demasiado blando para permitir la
fabricación de armas o armaduras (si bien se empleaba para obtener bonitos
ornamentos), pero a menudo se encontraba en la mena aleado con una pequeña
cantidad de arsénico o antimonio, lo cual daba por resultado una sustancia más
dura que el metal puro. Entonces se encontrarían algunas menas de cobre que
contendrían estaño. La aleación de cobre-estaño (bronce) era ya lo suficientemente
dura como para utilizarla en la obtención de armas. El hombre aprendió pronto a
añadir el estaño. La Edad del Bronce remplazó a la de la Piedra, en Egipto y Asia
Occidental, hacia el 3500 a. de J.C., y en el sudeste de Europa, hacia el 2000 a. de
J.C. La Ilíada y La Odisea, de Homero, conmemoran este período de la cultura.
Aunque el hierro se conoció tan pronto como el bronce, durante largo tiempo los
meteoritos fueron su única fuente de obtención. Fue, pues, sólo un metal precioso,
limitado a empleos ocasionales, hasta que se descubrieron métodos para fundir la
mena de hierro y obtener así éste en cantidades ilimitadas. La fundición del hierro
se inició, en algún lugar del Asia Menor, hacia el 1400 a. de J.C., para desarrollarse
y extenderse lentamente.
Un ejército con armas de hierro podía derrotar a otro que empleara sólo las de
bronce, ya que las espadas de hierro podían cortar las de bronce. Los hititas de Asia
Menor fueron los primeros en utilizar masivamente armas de hierro por lo cual
vivieron un período de gran poder en el Asia Occidental. Los asirios sucedieron a los
hititas. Hacia el 800 a. de J.C. tenían un ejército completamente equipado con
armas de hierro, que dominaría el Asia Occidental y Egipto durante dos siglos y
medio. Hacia la misma época, los dorios introdujeron la Edad del Hierro en Europa,
al invadir Grecia y derrotar a los aqueos, que habían cometido el error de seguir en
Ya estaba en marcha la «Edad del Acero». El nombre no es una simple frase. Sin
acero, serían casi inimaginables los rascacielos, los puentes colgantes, los grandes
barcos, los ferrocarriles y muchas otras construcciones modernas, y, a pesar del
reciente empleo de otros metales, el acero sigue siendo el metal preferido para
muchos objetos, desde el bastidor de los automóviles hasta los cuchillos.
(Desde luego, es erróneo pensar que un solo paso adelante puede aportar cambios
trascendentales en la vida de la Humanidad. El progreso ha sido siempre el
resultado de numerosos adelantos relacionados entre sí, que forman un gran
complejo. Por ejemplo, todo el acero fabricado en el mundo no permitiría levantar
los rascacielos sin la existencia de ese artefacto cuya utilidad se da por descontada
con excesiva frecuencia: el ascensor. En 1861, el inventor americano Elisha Graves
Otis patentó un ascensor hidráulico, y en 1889, la empresa por él fundada instaló
los primeros ascensores eléctricos en un edificio comercial neoyorquino.)
Una vez obtenido con facilidad acero barato, se pudo experimentar con la adición de
otros metales («aleaciones de acero»), para ver si podía mejorarse aún más el
acero. El británico Robert Abbott Hadfield, experto en metalurgia, fue el primero en
trabajar en este terreno. En 1882 descubrió que añadiendo al acero un 13 % de
manganeso, se obtenía una aleación más sólida, que podía utilizarse en la
maquinaria empleada para trabajos muy duros, por ejemplo, el triturado de
metales. En 1900, una aleación de acero que contenía tungsteno y cromo siguió
manteniendo su dureza a altas temperaturas, incluso al rojo vivo y resultó excelente
para máquinas-herramientas que hubieran de trabajar a altas velocidades. Hoy
existen innumerables aceros de aleación para determinados trabajos, que incluyen,
por ejemplo, molibdeno, níquel, cobalto y vanadio.
La principal dificultad que plantea el acero es su vulnerabilidad y la corrosión,
proceso que devuelve el hierro al estado primitivo de mena del que proviene. Un
modo de combatirlo consiste en proteger el metal pintándolo o recubriéndolo con
planchas de un metal menos sensible a la corrosión, como el níquel, cromo, cadmio
o estaño. Un método más eficaz aún es el de obtener una aleación que no se corroa.
En 1913, el británico Harry Brearley, experto en metalurgia, descubrió casualmente
esta aleación. Estaba investigando posibles aleaciones de acero que fueran
especialmente útiles para los cañones de fusil. Entre las muestras descartó como
inadecuadas una aleación de níquel y cromo. Meses más tarde advirtió que dicha
muestra seguía tan brillante como al principio, mientras que las demás estaban
oxidadas. Así nació el «acero inoxidable». Es demasiado blando y caro para
emplearlo en la construcción a gran escala, pero de excelentes resultados en
cuchillería y en otros objetos donde la resistencia a la corrosión es más importante
que su dureza.
Puesto que en todo el mundo se gastan algo así como mil millones de dólares al año
en el casi inútil esfuerzo de preservar de la corrosión el hierro y el acero,
prosiguieron los esfuerzos en la búsqueda de un anticorrosivo. En este sentido es
interesante un reciente descubrimiento: el de los pertecnenatos, compuestos que
contienen tecnecio y protegen el hierro contra la corrosión. Como es natural, este
elemento, muy raro, fabricado por el hombre, nunca será lo bastante corriente
como para poderlo emplear a gran escala, pero constituye una valiosa herramienta
de trabajo. Su radiactividad permite a los químicos seguir su destino y observar su
comportamiento en la superficie del hierro. Si esta aplicación del tecnecio conduce a
nuevos conocimientos que ayuden a resolver el problema de la corrosión, ya sólo
este logro bastaría para amortizar en unos meses todo el dinero que se ha gastado
durante los últimos 25 años en la investigación de elementos sintéticos.
Una de las propiedades más útiles del hierro es su intenso ferromagnetismo. El
hierro mismo constituye un ejemplo de «imán débil». Queda fácilmente imantado
bajo la influencia de un campo eléctrico o magnético, o sea, que sus dominios
magnéticos (véase capítulo IV), son alineados con facilidad. También puede
desimantarse muy fácilmente cuando se elimina el campo magnético, con lo cual los
dominios vuelven a quedar orientados al azar. Esta rápida pérdida de magnetismo
puede ser muy útil, al igual que en los electroimanes, donde el núcleo de hierro es
imantado con facilidad al dar la corriente; pero debería quedar desimantado con la
misma facilidad cuando cesa el paso de la corriente.
Desde la Segunda Guerra Mundial se ha conseguido desarrollar una nueva clase de
imanes débiles: las «ferritas», ejemplos de las cuales son la ferrita de níquel
(Fe2O4Ni) y la ferrita de manganeso (Fe2O4Mn), que se emplean en las
computadoras como elementos que pueden imantarlas o desimantarlas con la
máxima rapidez y facilidad.
Los «imanes duros», cuyos dominios son difíciles de orientar o, una vez orientados,
difíciles de desorientar, retienen esta propiedad durante un largo período de tiempo,
una vez imantados. Varias aleaciones de acero son los ejemplos más comunes, a
pesar de haberse encontrado imanes particularmente fuertes y potentes entre las
aleaciones que contienen poco o ningún hierro. El ejemplo más conocido es el del
«alnico», descubierto en 1931 y una de cuyas variedades está formada por
aluminio, níquel y cobalto, más una pequeña cantidad de cobre. (El nombre de la
aleación está compuesto por la primera sílaba de cada una de las sustancias.)
En la década de 1950 se desarrollaron técnicas que permitían emplear como imán el
polvo de hierro; las partículas eran tan pequeñas, que consistían en dominios
individuales; éstos podían ser orientados en el seno de una materia plástica fundida,
que luego se podía solidificar, sin que los dominios perdieran la orientación que se
les había dado. Estos «imanes plásticos» son muy fáciles de moldear, aunque
pueden obtenerse también dotados de gran resistencia.
En las últimas décadas se han descubierto nuevos metales de gran utilidad, que
eran prácticamente desconocidos hace un siglo o poco más y algunos de los cuales
no se han desarrollado hasta nuestra generación. El ejemplo más sorprendente es el
del aluminio, el más común de todos los metales (un 60 % más que el hierro). Pero
es también muy difícil de extraer de sus menas. En 1825, Hans Christian Oersted,
quien había descubierto la relación que existe entre electricidad y magnetismo,
separó un poco de aluminio en forma impura. A partir de entonces, muchos
químicos trataron, sin éxito, de purificar el metal, hasta que al fin, en 1854, el
químico francés Henri-Étienne Sainte-Clair Deville ideó un método para obtener
aluminio en cantidades razonables. El aluminio es químicamente tan activo, que se
vio obligado a emplear sodio metálico (elemento más activo aún) para romper la
sujeción que ejercía el metal sobre los átomos vecinos. Durante un tiempo, el
aluminio se vendió a centenares de dólares el kilo, lo cual lo convirtió prácticamente
en un metal precioso. Napoleón III se permitió el lujo de tener una cubertería de
aluminio, e hizo fabricar para su hijo un sonajero del mismo metal; en los Estados
Unidos, y como prueba de la gran estima de la nación hacia George Washington, su
monumento fue coronado con una plancha de aluminio sólido.
En 1886, Charles Martin Hall, joven estudiante de Química del «Oberlin College»,
quedó tan impresionado al oír decir a su profesor que quien descubriese un método
barato para fabricar aluminio se haría inmensamente rico, que decidió intentarlo. En
un laboratorio casero, instalado en su jardín, se dispuso a aplicar la teoría de
Humphry Davy, según la cual el paso de una corriente eléctrica a través de metal
fundido podría separar los iones metálicos y depositarlos en el cátodo. Buscando un
material que pudiese disolver el aluminio, se decidió por la criolita, mineral que se
encontraba en cantidades razonables sólo en Groenlandia. (Actualmente se puede
conseguir criolita sintética.) Hall disolvió el óxido de aluminio en la criolita, fundió la
mezcla e hizo pasar a través de la misma una corriente eléctrica. Como es natural,
en el cátodo se recogió aluminio puro, Hall corrió hacia su profesor con los primeros
lingotes del metal. (Hoy se conservan en la «Aluminum Company of America».)
Mientras sucedía esto, el joven químico francés Paul-Louis Toussaint Héroult, de la
misma edad que Hall (veintidós años), descubrió un proceso similar en el mismo
año. (Para completar la serie de coincidencias, Hall y Héroult murieron en 1914.)
El proceso Hall-Héroult convirtió el aluminio en un metal barato, a pesar que nunca
lo sería tanto como el acero, porque la mena de aluminio es menos común que la
del hierro, y la electricidad (clave para la obtención de aluminio) es más cara que el
carbón (clave para la del acero). De todas formas, el aluminio tiene dos grandes
ventajas sobre el acero. En primer lugar, es muy liviano (pesa la tercera parte del
acero). En segundo lugar, la corrosión toma en él la forma de una capa delgada y
transparente, que protege las capas más profundas, sin afectar el aspecto del
metal.
El aluminio puro es más bien blando, lo cual se soluciona aleándolo con otro metal.
En 1906 el metalúrgico alemán Alfred Wilm obtuvo una aleación más fuerte
añadiéndole un poco de cobre y una pequeñísima cantidad de magnesio. Vendió sus
derechos de patente a la metalúrgica «Durener», de Alemania, compañía que dio a
la aleación el nombre de «Duraluminio».
Los ingenieros comprendieron en seguida lo valioso que resultaría en la aviación un
metal ligero, pero resistente. Una vez que los alemanes hubieron empleado el
«Duraluminio» en los zeppelines durante la Primera Guerra Mundial, y los ingleses
se enteraron de su composición al analizar el material de un zeppelín que se había
estrellado, se extendió por todo el mundo el empleo de este nuevo metal. Debido a
que el «Duraluminio» no era tan resistente a la corrosión como el aluminio, los
metalúrgicos lo recubrieron con delgadas películas de aluminio puro, obteniendo así
el llamado «Alclad».
Hoy existen aleaciones de aluminio que, a igualdad de pesos, son más resistentes
que muchos aceros. El aluminio tiende a remplazar el acero en todos los usos en
que la ligereza y la resistencia a la corrosión son más importantes que la simple
dureza. Como todo el mundo sabe, hoy es de empleo universal, pues se utiliza en
aviones, cohetes, trenes, automóviles, puertas, pantallas, techos, pinturas,
utensilios de cocina, embalajes, etc.
Tenemos también el magnesio, metal más ligero aún que el aluminio. Se emplea
principalmente en la aviación, como era de esperar. Ya en 1910, Alemania usaba
aleaciones de magnesio y cinc para estos fines. Tras la Primera Guerra Mundial, se
utilizaron cada vez más las aleaciones de magnesio y aluminio.
Sólo unas cuatro veces menos abundante que el aluminio, aunque químicamente
más activo, el magnesio resulta más difícil de obtener a partir de las menas. Mas,
por fortuna, en el océano existe una fuente muy rica del mismo. Al contrario que el
aluminio o el hierro, el magnesio se halla presente en grandes cantidades en el
agua de mar. El océano transporta materia disuelta, que forma hasta un 3,5 % de
su masa. De este material en disolución, el 3,7 % es magnesio. Por tanto, el
océano, considerado globalmente, contiene unos dos mil billones
(2.000.000.000.000.000» de toneladas de magnesio, o sea, todo el que podamos
emplear en un futuro indefinido.
El problema consistía en extraerlo. El método escogido fue el de bombear el agua
del mar hasta grandes tanques y añadir óxido de cal (obtenido también del agua del
mar, es decir, de las conchas de las ostras). El óxido de cal reacciona con el agua y
el ion del magnesio para formar hidróxido de magnesio, que es insoluble y, por
tanto, precipita en la solución. El hidróxido de magnesio se convierte en cloruro de
magnesio mediante un tratamiento con ácido clorhídrico, y luego se separa el
magnesio del cloro por medio de una corriente eléctrica.
Capítulo 6
LAS PARTÍCULAS
El Átomo Nuclear
Como ya hemos indicado en el capítulo anterior, hacia 1900 se sabía que el átomo
no era una partícula simple e indivisible, pues contenía, por lo menos, un corpúsculo
subatómico: el electrón, cuyo descubridor fue J. J. Thomson, el cual supuso que los
electrones se arracimaban como uvas en el cuerpo principal del átomo con carga
positiva.
Poco tiempo después resultó evidente que existían otras subpartículas en el interior
del átomo. Cuando Becquerel descubrió la radiactividad, identificó como
emanaciones constituidas por electrones algunas de las radiaciones emitidas por
sustancias radiactivas. Pero también quedaron al descubierto otras emisiones. Los
Curie en Francia y Ernest Rutherford en Inglaterra, detectaron una emisión bastante
menos penetrante que el flujo electrónico. Rutherford la llamó «rayos alfa», y
denominó «rayos beta» a la emisión de electrones. Los electrones volantes
constitutivos de esta última radiación son, individualmente, «partículas beta».
Asimismo se descubrió que los rayos alfa estaban formados por partículas, que
fueron llamadas «partículas alfa». Como ya sabemos, «alfa» y «beta» son las
primeras letras del alfabeto griego.
Entretanto, el químico francés Paul Ulrich Villard descubría una tercera forma de
emisión radiactiva, a la que dio el nombre de «rayos gamma», es decir, la tercera
letra del alfabeto griego. Pronto se identificó como una radiación análoga a los rayos
X, aunque de menor longitud de onda.
Mediante sus experimentos, Rutherford comprobó que un campo magnético
desviaba las partículas alfa con mucha menos fuerza que las partículas beta. Por
añadidura, las desviaba en dirección opuesta, lo cual significaba que la partícula alfa
tenía una carga positiva, es decir, contraria a la negativa del electrón. La intensidad
de tal desviación permitió calcular que la partícula alfa tenía, como mínimo, una
masa dos veces mayor que la del hidrogenión cuya carga positiva era la más
pequeña conocida hasta entonces. Así, pues, la masa y la carga de la partícula
influían a la vez sobre la intensidad de la desviación. Si la carga positiva de la
partícula alfa era igual a la del hidrogenión, su masa sería dos veces mayor que la
de éste; si su carga fuera el doble, la partícula sería cuatro veces mayor que el
hidrogenión; etcétera.
En 1909, Rutherford solucionó el problema aislando las partículas alfa. Puso
material radiactivo en un tubo de vidrio fino rodeado por vidrio grueso e hizo el
vacío entre ambas superficies. Las partículas alfa pudieron atravesar la pared fina,
pero no la gruesa. Rebotaron, por decirlo así, contra la pared externa, y al hacerlo
perdieron energía, o sea, capacidad para atravesar incluso la pared delgada. Por
consiguiente quedaron aprisionadas entre ambas. Rutherford recurrió entonces a la
descarga eléctrica para excitar las partículas alfa, hasta llevarlas a la
incandescencia. Entonces mostraron las rayas espectrales del helio. (Hay pruebas
que las partículas alfa producidas por sustancias radiactivas en el suelo constituyen
el origen del helio en los pozos de gas natural.)
Si la partícula alfa es helio, su masa debe ser cuatro veces mayor que la del
hidrógeno. Ello significa que la carga positiva de este último, equivale a dos
unidades, tomando como unidad la carga del hidrogenión.
Más tarde, Rutherford identificó otra partícula positiva en el átomo. A decir verdad,
había sido detectada y reconocida ya muchos años antes. En 1886, el físico alemán
Eugen Goldstein, empleando un tubo catódico con un cátodo perforado, descubrió
una nueva radiación, que fluía por los orificios del cátodo en dirección opuesta a la
de los rayos catódicos. La denominó Kanalstrahlen («rayos canales»). En 1902, esta
radiación sirvió para detectar por vez primera el efecto Doppler-Fizeau (véase
capítulo 1) respecto a las ondas luminosas de origen terrestre. El físico alemán
Johannes Stark orientó un espectroscopio de tal forma que los rayos cayeron sobre
éste, revelando la desviación hacia el violeta. Por estos trabajos se le otorgó el
premio Nobel de Física en 1919.
Puesto que los rayos canales se mueven en dirección opuesta a los rayos catódicos
de carga negativa, Thomson propuso que se diera a esta radiación el nombre de
«rayos positivos». Entonces se comprobó que las partículas de los «rayos positivos»
podían atravesar fácilmente la materia. De aquí, que fuesen considerados, por su
volumen, mucho más pequeños que los iones corrientes o átomos. La desviación
determinada, en su caso, por un campo magnético, puso de relieve que la más
ínfima de esas partículas tenía carga y masa similares a las del hidrogenión,
suponiendo que este ion contuviese la mínima unidad posible de carga positiva. Por
consiguiente, se dedujo que la partícula del rayo positivo era la partícula positiva
elemental, o sea, el elemento contrapuesto al electrón. Rutherford la llamó
«protón» del neutro griego proton. («lo primero»).
Desde luego, el protón y el electrón llevan cargas eléctricas iguales, aunque
opuestas; ahora bien, la masa del protón, referida al electrón, es 1.836 veces
mayor. Parecía probable, pues, que el átomo estuviese compuesto por protones y
electrones, cuyas cargas se equilibraran entre sí. También parecía claro que los
protones se hallaban en el interior del átomo y no se desprendían, como ocurría
fácilmente con los electrones. Pero entonces se planteó el gran interrogante: ¿cuál
era la estructura de esas partículas en el átomo?
El propio Rutherford empezó a vislumbrar la respuesta. Entre 1906 y 1908 realizó
constantes experimentos disparando partículas alfa contra una lámina sutil de metal
(como oro o platino), para analizar sus átomos. La mayor parte de los proyectiles
atravesaron la barrera sin desviarse (como balas a través de las hojas de un árbol).
El helio, que posee dos electrones, no cede uno con tanta facilidad. Como ya dijimos
en el capítulo anterior, sus dos electrones forman un caparazón hermético, por lo
cual el átomo es inerte. No obstante, si se despoja al helio de ambos electrones, se
convierte en una partícula alfa, es decir, una partícula subatómica portadora de dos
unidades de carga positiva.
Hay un tercer elemento, el litio, cuyo átomo tiene tres electrones. Si se despoja de
uno o dos, se transforma en ion. Y si pierde los tres, queda reducido a un núcleo
desnudo... con una carga positiva de tres unidades.
Las unidades de una carga positiva en el núcleo atómico deben ser numéricamente
idénticas a los electrones que contiene como norma, pues el átomo suele ser un
cuerpo neutro. Y, de hecho, los números atómicos de sus elementos se basan en
sus unidades de carga positiva, no en las de carga negativa, porque resulta fácil
hacer variar el número de electrones atómicos dentro de la formación iónica, pero,
en cambio, se encuentran grandes dificultades si se desea alterar el número de sus
protones.
Apenas esbozado el esquema de la construcción atómica, surgieron nuevos
enigmas. El número de unidades con carga positiva en un núcleo no equilibró, en
ningún caso, el peso nuclear ni la masa, exceptuando el caso del átomo de
hidrógeno. Para citar un ejemplo, se averiguó que el núcleo de helio tenía una carga
positiva dos veces mayor que la del núcleo de hidrógeno; pero, como ya se sabía,
su masa era cuatro veces mayor que la de este último. Y la situación empeoró
progresivamente a medida que se descendía por la tabla de elementos, e incluso
cuando se alcanzó el uranio, se encontró un núcleo con una masa igual a 238
protones, pero una carga que equivalía sólo a 92 ¿Cómo era posible que un núcleo
que contenía cuatro protones, según se suponía del núcleo helio- tuviera sólo dos
unidades de carga positiva? Según la primera y más simple conjetura emitida, la
presencia en el núcleo de partículas cargadas negativamente y con un peso
despreciable, neutralizaba las dos unidades de su carga. Como es natural, se pensó
también en el electrón. Se podría componer el rompecabezas si se suponía que el
núcleo de helio estaba integrado por cuatro protones y dos electrones
neutralizadores, lo cual dejaba libre una carga positiva neta de dos, y así
sucesivamente, hasta llegar al uranio, cuyo núcleo tendría, pues, 238 protones y
146 electrones, con 92 unidades libres de carga positiva. El hecho que los núcleos
radiactivos emitieran electrones, según se había comprobado ya, por ejemplo, con
las partículas beta- reforzó esta idea general.
Dicha teoría prevaleció durante más de una década, hasta que, por caminos
indirectos, llegó una respuesta mejor, como resultado de otras investigaciones. Pero
entre tanto se habían presentado algunas objeciones rigurosas contra dicha
hipótesis. Por lo pronto, si el núcleo estaba constituido esencialmente de protones,
mientras que los ligeros electrones no aportaban prácticamente ninguna
contribución a la masa, ¿cómo se explicaba que las masas relativas de varios
núcleos no estuvieran representadas por números enteros? Según los pesos
atómicos conocidos, el núcleo del átomo cloro, por ejemplo, tenía una masa 35,5
veces mayor que la del núcleo de hidrógeno. ¿Acaso significaba esto que contenía
35,5 protones? Ningún científico, ni entonces ni ahora- podía aceptar la existencia
de medio protón.
Este singular interrogante encontró una respuesta incluso antes de solventar el
problema principal, y ello dio lugar a una interesante historia.
Isótopos
Allá por 1816, el físico inglés William Prout había insinuado ya que el átomo de
hidrógeno debía de entrar en la constitución de todos los átomos. Con el tiempo se
fueron desvelando los pesos atómicos, y la teoría de Prout quedó arrinconada, pues
se comprobó que muchos elementos tenían pesos fraccionarios (para lo cual se
tomó el oxígeno, tipificado a 16). El cloro, según hemos dicho- tiene un peso
atómico aproximado de 35,5, o para ser exactos, de 35,457. Otros ejemplos son el
antimonio, con 121,75; el bario, con 137,34; el boro, con 10,811, y el cadmio, con
112,41.
Hacia principios de siglo se hizo una serie de observaciones desconcertantes, que
condujeron al esclarecimiento. El inglés William Crookes (el del «tubo Crookes»)
logró disociar del uranio una sustancia cuya ínfima cantidad resultó ser mucho más
radiactiva que el propio uranio. Apoyándose en su experimento, afirmó que el
uranio no tenía radiactividad, y que ésta procedía exclusivamente de dicha
impureza, que él denominó «uranio X». Por otra parte, Henri Becquerel descubrió
En 1913, Soddy esclareció esta idea y le dio más amplitud. Demostró que cuando
un átomo emitía una partícula alfa, se transformaba en un elemento que ocupaba
dos lugares más abajo en la lista de elementos, y que cuando emitía una partícula
beta, ocupaba, después de su transformación, el lugar inmediatamente superior.
Con arreglo a tal norma, el «radiotorio» descendería en la tabla hasta el lugar del
torio, y lo mismo ocurriría con las sustancias denominadas «uranio X» y «uranio Y»,
es decir, que las tres serían variedades del elemento 90. Asimismo, el «radio D», el
«radio B», el «torio B» y el «actinio B» compartirían el lugar del plomo como
variedades del elemento 82.
Soddy dio el nombre de «isótopos» (del griego iso y topos, «el mismo lugar») a
todos los miembros de una familia de sustancias que ocupaban el mismo lugar en la
tabla periódica. En 1921 se le concedió el premio Nobel de Química.
El modelo protón-electrón del núcleo concordó perfectamente con la teoría de Soddy
sobre los isótopos. Al retirar una partícula alfa de un núcleo, se reducía en dos
unidades la carga positiva de dicho núcleo, exactamente lo que necesitaba para
bajar dos lugares en la tabla periódica. Por otra parte, cuando el núcleo expulsaba
un electrón (partícula beta), quedaba sin neutralizar un protón adicional, y ello
incrementaba en una unidad la carga positiva del núcleo, lo cual era como agregar
una unidad al número atómico, y, por tanto, el elemento pasaba a ocupar la
posición inmediatamente superior en la tabla periódica.
¿Cómo se explica que cuando el torio se descompone en «radiotorio» después de
sufrir no una, sino tres desintegraciones, el producto siga siendo torio? Pues bien,
en este proceso el átomo de torio pierde una partícula alfa, luego una partícula beta
y, más tarde, una segunda partícula beta. Si aceptamos la teoría sobre el bloque
constitutivo de los protones, ello significa que el átomo ha perdido cuatro electrones
(dos de ellos, contenidos presuntamente en la partícula alfa) y cuatro protones. (La
situación actual difiere bastante de este cuadro, aunque, en cierto modo, esto no
afecta al resultado.) El núcleo de torio constaba inicialmente (según se suponía) de
232 protones y 142 electrones. Al haber perdido cuatro protones y otros cuatro
electrones, quedaba reducido a 228 protones y 138 electrones. No obstante,
conservaba todavía el número atómico 90, es decir, el mismo de antes. Así, pues, el
«radiotorio», a semejanza del torio, posee 90 electrones planetarios, que giran
alrededor del núcleo. Puesto que las propiedades químicas de un átomo están
sujetas al número de sus electrones planetarios, el torio y el «radiotorio» tienen el
mismo comportamiento químico, sea cual fuere su diferencia en peso atómico (232
y 228, respectivamente).
Los isótopos de un elemento se identifican por su peso atómico, o «número
másico». Así, el torio corriente se denomina torio 232, y el «radiotorio», torio 228.
Los isótopos radiactivos del plomo se distinguen también por estas denominaciones:
plomo 210 («radio D»), plomo 214 («radio B»), plomo 212 («torio B») y plomo 211
(«actinio B»).
Se descubrió que la noción de isótopos podía aplicarse indistintamente tanto a los
elementos estables como a los radiactivos. Por ejemplo, se comprobó que las tres
series radiactivas anteriormente mencionadas terminaban en tres formas distintas
de plomo. La serie del uranio acababa en el plomo 206; la del torio, en el plomo
208, y la del actinio, en el plomo 207. Cada uno de éstos era un isótopo estable y
«corriente» del plomo, pero los tres plomos diferían por su peso atómico.
Mediante un dispositivo inventado por cierto ayudante de J. J. Thomson, llamado
Francis William Aston, se demostró la existencia de los isótopos estables. Se trataba
de un mecanismo que separaba los isótopos con extremada sensibilidad
aprovechando la desviación de sus iones bajo la acción de un campo magnético;
Aston lo llamó «espectrógrafo de masas». En 1919, Thomson, empleando la versión
primitiva de dicho instrumento, demostró que el neón estaba constituido por dos
variedades de átomos: una, cuyo número de masa era 20, y otra, 22. El neón 20
era el isótopo común; el neón 22 lo acompañaba en la proporción de un átomo por
cada diez. (Más tarde se descubrió un tercer isótopo, el neón 21, cuyo porcentaje
en el neón atmosférico era de un átomo por cada 400.)
Entonces fue posible, al fin, razonar el peso atómico fraccionario de los elementos.
El peso atómico del neón (20,183) representaba el peso conjunto de los tres
isótopos, de pesos diferentes, que integraban el elemento en su estado natural.
Cada átomo individual tenía un número entero de masa, pero el promedio de sus
masas, el peso atómico- era un número fraccionario.
Aston procedió a mostrar que varios elementos estables comunes eran, en realidad,
mezclas de isótopos. Descubrió que el cloro, con un peso atómico fraccionario de
Entre los fructíferos experimentos realizados por Rutherford y sus ayudantes, hubo
uno que consistía en bombardear con partículas alfa una pantalla revestida de
sulfato de cinc. Cada impacto producía un leve destello, Crookes fue quien descubrió
este efecto en 1903, de forma que se podía percibir a simple vista la llegada de las
distintas partículas, así como contarlas. Para ampliar esta técnica, los
experimentadores colocaron un disco metálico que impidiera a las partículas alfa
alcanzar la pantalla revestida de sulfato de cinc, con lo cual se interrumpieran los
destellos. Cuando se introdujo hidrógeno en el aparato, reaparecieron los destellos
en la pantalla, pese al bloqueo del disco metálico. Sin embargo, los nuevos destellos
no se asemejaron a los producidos por las partículas alfa. Puesto que el disco
metálico detenía las partículas alfa, parecía lógico pensar que penetraba hasta la
pantalla otra radiación, que debía de consistir en protones rápidos. Para expresarlo
de otra forma: las partículas alfa chocarían ocasionalmente contra algún núcleo de
átomo de hidrógeno, y lo impulsarían hacia delante como una bola de billar a otra.
Como quiera que los protones así golpeados eran relativamente ligeros, saldrían
disparados a tal velocidad, que perforarían el disco metálico y chocarían contra la
pantalla revestida de sulfato de cinc.
Esta detección de las diversas partículas mediante el destello constituye un ejemplo
del «recuento por destellos». Rutherford y sus ayudantes hubieron de permanecer
sentados en la oscuridad durante quince minutos para poder acomodar su vista a la
misma y hacer los prolijos recuentos. Los modernos contadores de destellos no
dependen ya de la mente ni de la vista humana. Convierten los destellos en
vibraciones eléctricas, que son contadas por medios electrónicos. Luego basta leer
el resultado final de los distintos cuadrantes. Cuando los destellos son muy
numerosos, se facilita su recuento mediante circuitos eléctricos, que registran sólo
uno de cada dos o cada cuatro destellos (e incluso más). Tales «escardadores» (así
pueden llamarse, ya que «escardan» el recuento) los ideó, en 1931, el físico inglés
C. E. Wynn-Williams. Desde la Segunda Guerra Mundial, el sulfato de cinc fue
sustituido por sustancias orgánicas, que dan mejores resultados.
Entretanto se produjo una inesperada evolución en las experimentaciones iniciales
de Rutherford con los destellos. Cuando se realizaba el experimento con nitrógeno
en lugar de hidrógeno como blanco para el bombardeo de las partículas alfa, en la
pantalla revestida de sulfato de cinc aparecían destellos idénticos a los causados por
los protones. Inevitablemente, Rutherford llegó a una conclusión: bajo aquel
bombardeo, los protones habían salido despedidos del núcleo de nitrógeno.
Deseando averiguar lo que había pasado, Rutherford recurrió a la «cámara de
ionización Wilson». En 1895, el físico escocés Charles Thomson Rees Wilson había
concebido este artificio: un recipiente de cristal, provisto de un émbolo y que
contenía aire con vapor sobresaturado. Al reducirse la presión a causa del
movimiento del émbolo, el aire se expande súbitamente, lo cual determina un
enfriamiento inmediato. A una temperatura muy baja se produce una saturación de
humedad, y entonces cualquier partícula cargada origina la condensación del vapor.
Cuando una partícula atraviesa velozmente la cámara e ioniza los átomos que hay
en su interior, deja como secuela una nebulosa línea de gotas condensadas.
La naturaleza de esa estela puede revelamos muchas cosas sobre la partícula. Las
leves partículas beta dejan un rastro tenue, ondulante, y se desvanecen al menor
roce, incluso cuando pasan cerca de los electrones. En cambio, las partículas alfa,
mucho más densas, dejan una estela recta y bien visible; si chocan contra un
núcleo y rebotan, su trayectoria describe una clara curvatura. Cuando la partícula
recoge dos electrones, se transforma en átomo neutro de helio, y su estela se
desvanece. Aparte de los caracteres y dimensiones de ese rastro, existen otros
medios para identificar una partícula en la cámara de ionización. Su respuesta a la
aplicación de un campo magnético nos dice si lleva carga positiva o negativa, y la
intensidad de la curvatura indica cuáles son su masa y su energía. A estas alturas,
los físicos están ya tan familiarizados con las fotografías de estelas en toda su
diversidad, que pueden interpretarlas como si leyeran letra impresa. El invento de la
cámara de ionización, permitió a Wilson compartir el premio Nobel de Física en 1927
(con Compton).
La cámara de ionización ha experimentado varias modificaciones desde que fue
inventada, y de entonces acá se han ideado otros instrumentos similares. La cámara
de ionización de Wilson quedaba inservible tras la expansión, y para utilizarla de
nuevo había que recomponer su interior. En 1939, A. Langsdorf, de los Estados
Unidos, ideó una «cámara de difusión» donde el vapor de alcohol, caldeado, se
difundía hacia una parte más fría, de tal forma que siempre había una zona
17 pertenece al isótopo del oxígeno 17. Para expresarlo de otra forma: En 1919,
Rutherford transmutó el nitrógeno en oxígeno. Fue la primera transmutación hecha
por el hombre. Se hizo realidad el sueño de los alquimistas, aunque ninguno de
ellos podía preverlo así.
Las partículas alfa de fuentes radiactivas mostraron ciertas limitaciones como
proyectiles: no poseían la energía suficiente para penetrar en los núcleos de
elementos más pesados, cuyas altas cargas positivas ofrecían gran resistencia a las
partículas cargadas positivamente. Pero se había abierto brecha en la fortaleza
nuclear, y aún eran de esperar nuevos y más enérgicos ataques.
Nuevas Partículas
El tema de los ataques contra el núcleo nos remite de nuevo a la pregunta sobre la
constitución de éste. En 1930, dos físicos alemanes, Walther Bothe y H. Becker,
anunciaron que habían conseguido liberar del núcleo una misteriosa radiación, cuyo
poder de penetración era inmenso. Un año antes, Bothe había ideado ciertos
métodos para utilizar, a la vez, dos o más contadores: los llamados «contadores
coincidentes». Se aplicarían para identificar los acontecimientos nucleares
desarrollados en una millonésima de segundo. Este trabajo y otros más le
permitieron compartir el premio Nobel de Física en 1954 (con Born).
Dos años después del descubrimiento de Bothe-Becker, se habían dado a conocer
los físicos franceses Frédéric e Irène Joliot-Curie. (Irène era hija de Pierre y Marie
Curie, y Joliot había fundido ambos apellidos al casarse con ella.) La pareja utilizó la
radiación del berilio, recién descubierta, para bombardear la parafina, sustancia
cerosa compuesta por carbono e hidrógeno. Dicha radiación expulsó los protones de
la parafina.
El físico inglés James Chadwick apuntó inmediatamente que dicha radiación
constaba de partículas. Para determinar su tamaño, bombardeó con ellas átomos de
boro, y tomando como base la masa acrecentada del nuevo núcleo, calculó que la
partícula agregada tenía una masa aproximadamente igual a la del protón. Sin
embargo, no se pudo detectar la partícula en la cámara de ionización. Chadwick
explicó este hecho diciendo que la partícula no tenía carga eléctrica (porque una
Estructura nuclear del oxígeno 16, el oxígeno 17 y el oxígeno 18. Los tres contienen
ocho protones y, por añadidura, ocho, nueve y diez neutrones respectivamente.
Así, pues, Chadwick llegó a la conclusión que había aparecido una partícula inédita,
equivalente, por su masa, al protón, pero sin carga alguna, o, dicho con otras
palabras, eléctricamente neutra. Ya se había previsto la posible aparición de dicha
partícula, e incluso se había propuesto un nombre para ella: «neutrón» que fue
aceptado por Chadwick. Por este descubrimiento, se le concedió el premio Nobel de
Física en 1935.
La nueva partícula disipó al instante ciertas dudas que habían tenido los físicos
teoréticos sobre el modelo fotón-electrón del núcleo. El físico teorético alemán
Werner Heisenberg manifestó que el concepto de un núcleo consistente en protones
y neutrones, más bien que en protones y electrones, ofrecía un cuadro mucho más
satisfactorio y concordaba mejor con lo que debería ser el núcleo según las
Matemáticas aplicadas.
Por añadidura, el nuevo modelo se ajustaba con tanta exactitud como el antiguo a
los datos de la tabla periódica de elementos. Por ejemplo, el núcleo de helio
constaba de 2 protones y 2 neutrones, lo cual daba razón de su masa de 4 unidades
y su carga nuclear de 2. Y el concepto explicaba los isótopos con gran simplicidad.
Por ejemplo, el núcleo de cloro 35 debería tener 17 protones y 18 neutrones; el
núcleo de cloro 37, 17 protones y 20 neutrones. Ello concedería a ambos la misma
carga nuclear, y la carga extra del isótopo, más pesado, estribaría en sus 2
Durante muchos años, los físicos han estudiado los misteriosos «rayos cósmicos»
del espacio, descubiertos, en 1911, por el físico austriaco Victor Francis Hess con
ayuda de globos lanzados a la alta atmósfera.
Se detectó la presencia de tal radiación con un instrumento lo suficientemente
simple como para alentar a quienes suelen creer que la Ciencia sólo parece capaz de
progresar cuando emplea artificios increíblemente complejos. Dicho instrumento era
un «electroscopio», que consistía en dos laminillas de oro, pendientes de una varilla
metálica vertical, en el interior de un recipiente metálico provisto de ventanillas.
(Nada menos que en 1706, el físico inglés Hauksbee construyó el precursor de este
artificio.)
Si se carga la varilla metálica con electricidad estática, se separan las laminillas de
oro. Lo ideal sería que permanecieran separadas de manera indefinida; pero en la
atmósfera circundante, los iones conducen lentamente la carga eléctrica hacia el
exterior, hasta que las laminillas se van acercando una a otra. Las radiaciones
energéticas, tales como los rayos X, los rayos gamma o los flujos de partículas
cargadas eléctricamente- producen los iones necesarios para ese escape de la
carga. Aún cuando el electroscopio esté bien protegido, no podrá evitarse un lento
escape, que será revelado por la presencia de una radiación muy penetrante, sin
relación directa con la radiactividad. Esa penetrante radiación de creciente
intensidad fue la que percibió Hess al elevarse en la atmósfera, y que le valió
compartir el premio Nobel de Física en 1936 (con Anderson).
El físico americano Robert Andrews Millikan, quien recopiló numerosos informes
sobre esa radiación, a la que dio el nombre de «rayos cósmicos»- pensó que se
trataría de alguna variedad de radiación electromagnética. Tenía tal poder de
penetración, que en ocasiones atravesaba planchas de varios centímetros de plomo.
Millikan dedujo de ello que la radiación era similar a los penetrantes rayos gamma,
pero de una longitud de onda aún más corta.
Otros, particularmente el físico americano Arthur Holly Compton- adujeron que los
rayos cósmicos eran partículas. Pero esto era algo que podía investigarse. Si, en
realidad, eran partículas cargadas, el campo magnético terrestre las haría desviarse
cuando se acercaran a la Tierra desde el espacio exterior. Compton estudió las
mediciones de la radiación cósmica en diversas latitudes y descubrió que, en efecto,
se curvaba bajo la acción del campo magnético. Tal influjo era débil junto al
ecuador magnético, mientras que se incrementaba cerca de los polos, donde las
fuerzas magnéticas se intensifican y profundizan hacia la Tierra.
Cuando las partículas cósmicas «primarias» penetran en la atmósfera, traen consigo
una energía de fantástica intensidad. Muchas de ellas son protones, aunque a veces
se trata de núcleos de elementos más pesados. En general, cuanto más pesado es
el núcleo, tanto más rara es su presencia entre las partículas cósmicas. No tardaron
en detectarse núcleos tan complejos como los que componen los átomos del hierro,
y en 1968 se descubrieron núcleos de la complejidad de los del uranio. Diez
millones de núcleos de uranio forman sólo una partícula. También se incluyen
algunos electrones de elevada energía.
Al chocar con átomos y moléculas del aire, las partículas primarias fragmentan esos
núcleos y producen toda clase de partículas «secundarias». Precisamente esta
radiación secundaria (todavía muy energética) es la que detectamos cerca de la
Tierra, si bien los globos enviados a la atmósfera superior registran la radiación
primaria.
Ahora bien, la siguiente partícula inédita, después del neutrón- se descubrió en los
rayos cósmicos. A decir verdad, cierto físico teorético había predicho ya este
descubrimiento. Paul Adrien Maurice Dirac había aducido, fundándose en un análisis
matemático de las propiedades inherentes a las partículas subatómicas, que cada
partícula debería tener su «antipartícula». (Los científicos desean no sólo que la
Naturaleza sea simple, sino también simétrica.) Así, pues, debería haber un
«antielectrón» idéntico al electrón, salvo por su carga, que sería positiva, y no
negativa, y un «antiprotón» con carga negativa en vez de positiva.
En 1930, cuando Dirac expuso su teoría, no impresionó mucho al mundo de la
Ciencia. Pero, fiel a la cita, dos años después apareció el «antielectrón». Por
entonces, el físico americano Carl David Anderson trabajaba con Millikan, en un
intento por averiguar si los rayos cósmicos eran radiación electromagnética o
partículas. Por aquellas fechas, casi todo el mundo estaba dispuesto a aceptar las
pruebas presentadas por Compton, según las cuales, se trataría de partículas
cargadas; pero Millikan no acababa de darse por satisfecho con tal solución.
Anderson se propuso averiguar si los rayos cósmicos que penetraban en una cámara
Poco después, los Joliot-Curie detectaron el positrón por otros medios, y, al hacerlo
así, realizaron, de paso, un importante descubrimiento. Al bombardear los átomos
de aluminio con partículas alfa, descubrieron que con tal sistema no sólo se
obtenían protones, sino también positrones. Esta novedad era interesante, pero no
extraordinaria. Sin embargo, cuando suspendieron el bombardeo, el aluminio siguió
emitiendo positrones, emisión que se debilitó sólo con el tiempo. Aparentemente
habían creado, sin proponérselo, una nueva sustancia radiactiva.
He aquí la interpretación de lo ocurrido, según los Joliot-Curie: cuando un núcleo de
aluminio absorbe una partícula alfa, la adición de los dos protones transforma el
aluminio (número atómico, 13) en fósforo (número atómico 15). Puesto que la
partícula alfa contiene un total de 4 nucleones, el número másico se eleva 4
unidades es decir, del aluminio 27, al fósforo 31. Ahora bien, si al reaccionar se
expulsa un protón de ese núcleo, la reducción en una unidad de sus números
atómicos y másico hará surgir otro elemento, o sea, el silicio 30.
Puesto que la partícula alfa es el núcleo del helio, y un protón, el núcleo del
hidrógeno, podemos escribir la siguiente ecuación de esta «reacción nuclear»:
3
El punto de fusión del óxido de tritio incluido en el original resultaba incorrecto y fue reemplazado por el de la
Tercera Edición de Plaza & Janés (N. de Xixoxux)
Aceleradores de Partículas
Dirac predijo no sólo la existencia del antielectrón (el positrón), sino también la del
antiprotón. Mas para obtener el antiprotón se necesitaba mucha más energía, ya
que la energía requerida es proporcional a la masa de la partícula. Como el protón
tenía 1.836 veces más masa que el electrón, para obtener un antiprotón se
necesitaba, por lo menos, 1.836 veces más energía que para un positrón. Este logro
Principio del acelerador lineal. Una carga alterna de alta frecuencia impulsa y atrae
alternativamente las partículas cargadas en los sucesivos tubos conductores,
acelerándolas en una dirección.
Principio del ciclotrón visto desde arriba (parte superior) y en su sección transversal
(parte inferior). Las partículas inyectadas por la fuente reciben el impulso de cada
«de» mediante la carga alterna, mientras la magneto las hace curvarse en su
trayectoria espiral.
El funcionamiento del ciclotrón hubo de limitarse a los 29 MeV, porque con esta
energía las partículas viajaban ya tan aprisa, que se podía apreciar el incremento de
la masa bajo el impulso de la velocidad (efecto ya implícito en la teoría de la
relatividad). Este acrecentamiento de la masa determinó el desfase de las partículas
con los impulsos eléctricos. Pero a esto pusieron remedio en 1945,
aún mayor, que ha sobrepasado ampliamente los 30 BeV, y la URSS dispone ahora
de una cuyo diámetro es de 1.600 m y que alcanzó los 70 BeV cuando se puso en
marcha, en 1967. Los físicos americanos están supervisando la construcción de una
cuyo diámetro será de 4.800 m y que podrá alcanzar los 300 BeV, y se sueña con
otras que lleguen a los 1.000 BeV.
Mientras tanto, el acelerador lineal, o «linac», ha experimentado cierto
resurgimiento. Algunas mejoras técnicas han eliminado los inconvenientes de los
primeros modelos. Para energías extremadamente elevadas, el acelerador lineal
tiene varias ventajas sobre el tipo cíclico. Puesto que los electrones no pierden
energía cuando viajan en línea recta, un linac puede acelerar los electrones con más
potencia y dirigir bien las corrientes hacia los blancos. La Universidad de Stanford
proyecta un acelerador lineal de 3.218 m de longitud, que tal vez desarrolle
energías de 45 BeV.
El tamaño no es lo único que se necesita para conseguir más energía. Repetidas
veces se ha sugerido la conveniencia de emplear dos aceleradores juntos, de modo
que un rayo de partículas energéticas choque de frente con otro que se mueva en
dirección opuesta. Esto cuadruplicaría las energías obtenidas al producirse la
colisión de uno de tales rayos con un objeto estacionario. Esta combinación de
aceleradores puede ser el próximo paso.
Con los bevatrones, el hombre poseyó, al fin, los medios para crear el antiprotón.
Los físicos californianos se aprestaron a detectarlo y producirlo. En 1955, Owen
Chamberlain y Emilio G. Segrè captaron definitivamente el antiprotón después de
bombardear el cobre hora tras hora con protones de 6,2 BeV: lograron retener
sesenta. No fue nada fácil identificarlos. Por cada antiprotón producido, se formaron
40.000 partículas de otros tipos. Pero mediante un elaborado sistema de detectores,
concebido y diseñado para que sólo un antiprotón pudiera tocar todas las bases, los
investigadores reconocieron la partícula sin lugar a dudas. El éxito proporcionó a
Chamberlain y Segrè el premio Nobel de Física en 1959.
El antiprotón es tan evanescente como el positrón, por lo menos en nuestro
Universo. En una ínfima fracción de segundo después de su creación, la partícula
desaparece, arrastrada por algún núcleo normal cargado positivamente. Entonces se
Enrico Fermi dio a esta partícula putativa el nombre de «neutrino», palabra italiana
que significa «pequeño neutro».
El neutrón dio a los físicos otra prueba palpable de la existencia del neutrino. Como
ya hemos dicho, casi todas las partículas describen un movimiento rotatorio. Esta
rotación se expresa, más o menos, en múltiplos de una mitad según la dirección del
giro. Ahora bien, el protón el neutrón y el electrón tienen rotación de una mitad. Por
tanto, si el neutrón con rotación de una mitad origina un protón y un electrón, cada
uno con rotación de una mitad, ¿qué sucede respecto a la ley sobre conservación
del momento angular? Aquí hay algún error. El protón y el electrón totalizan una
unidad con sus rotaciones (si ambas rotaciones siguen la misma dirección) o cero (si
sus rotaciones son apuestas); pero sus rotaciones no pueden sumar jamás una
mitad. Sin embargo, por otra parte, el neutrino viene a solventar la cuestión.
Supongamos que la rotación del neutrón sea +½, y admitamos también que la
rotación del protón sea +½, y la del electrón, ½, para dar un resultado neto de 0.
Demos ahora al neutrino una rotación de +½, y la balanza quedará equilibrada.
Pero aún queda algo por equilibrar. Una sola partícula (el neutrón) ha formado dos
partículas (el protón y el electrón), y, si incluimos el neutrino, tres partículas.
Parece más razonable suponer que el neutrón se convierte en dos partículas y una
antipartícula. En otras palabras: lo que realmente necesitamos equilibrar no es un
neutrino, sino un antineutrino.
El propio neutrino surgiría de la conversión de un protón en un neutrón. Así, pues,
los productos serían un neutrón (partícula), un positrón (antipartícula) y un neutrino
(partícula). Esto también equilibra la balanza.
Las más importantes conversiones protón-neutrón son las relacionadas con las
reacciones nucleares que se desarrollan en el Sol y en otros astros. Por
consiguiente, las estrellas emiten radiaciones rápidas de neutrinos, y se calcula que
tal vez pierdan a causa de esto el 6 u 8 % de su energía. Sin embargo, esto es
cierto sólo para estrellas tales como nuestro Sol. En 1961, el físico americano Hong
Yee Chiu manifestó que cuando se elevan las temperaturas centrales de un astro,
los fenómenos o leyes de la Naturaleza. Pero, ¿cómo detectar una entidad tan
nebulosa cual el neutrino, un objeto sin masa ni carga prácticamente sin tendencia
alguna a la interacción con la materia corriente?
Sin embargo, aún quedaba una leve esperanza, y si bien parecen extremadamente
reducidas, no son nulas las probabilidades que un neutrino reaccione ante cualquier
partícula. El atravesar cien años luz de plomo sin experimentar modificación, se
considera como un promedio; pero ciertos neutrinos reaccionarán con una partícula
antes de alcanzar semejante distancia, y algunos, una proporción ínfima, casi
inconcebible, del número total detendrán su carrera ante el equivalente de 2,5 mm
de plomo.
En 1953, un equipo de físicos dirigido por Clyde L. Cowan y Frederick Reines, del
«Los Alamos Scientific Laboratory», intentaron abordar lo «casi imposible».
Instalaron los aparatos para detectar neutrinos junto a un inmenso reactor de fisión
de la «Atomic Energy Commission», a orillas del río Savannah, en Georgia. El
reactor proporcionaría corrientes de neutrones, que liberarían aludes de
antineutrinos, o al menos así se esperaba. Para capturarlos, los investigadores
emplearon grandes tanques de agua.
El plan consistió en dejar que los antineutrinos bombardearan los protones (núcleos
de hidrógeno) dentro del agua, al objeto de poder detectar así los resultados
cuando un protón capturara un antineutrino.
¿Qué sucedería? Cuando el neutrón se desintegra, desprende un protón, un electrón
y un antineutrino. Ahora bien, la absorción del antineutrino por el protón debería
originar, fundamentalmente, lo contrario. Es decir, el protón debería convertirse en
neutrón al emitir un positrón en el proceso. Así, pues, sería preciso estar atento a
dos acontecimientos: 1º La creación de neutrones, 2º La creación de positrones.
Para detectar los neutrones, se disolvería un compuesto de cadmio en el agua, pues
cuando el cadmio absorbe los neutrones, emite rayos gamma de energía
característica. Y los positrones se podrían identificar por su interacción aniquiladora
con los electrones, lo cual originaría otra especie de rayos gamma. Si los
instrumentos de los investigadores detectaran esos rayos gamma de energías tan
reveladoras, con el intervalo exacto, se podría tener la certeza que habrían captado
los antineutrinos.
37. En 1968 se detectaron los neutrinos solares, pero en una cantidad inferior a la
mitad de lo que se había supuesto, según las teorías actuales acerca de lo que
ocurre en el interior del Sol. Ahora bien, para esto se requieren unas técnicas
experimentales enormemente laboriosas, y, además, en este sentido nos hallamos
todavía en los comienzos.
Así, pues, nuestra lista de partículas abarca ya ocho elementos: protón, neutrón,
electrón, neutrino; y sus respectivas antipartículas. Sin embargo, esto no
representó el fin de la lista. A los físicos les parecían necesarias otras partículas si
querían explicar concretamente cómo se agrupaban éstas en el núcleo.
Las atracciones habituales entre protones y electrones, entre un átomo y otro, entre
una molécula y otra, se explicaban mediante las fuerzas electromagnéticas: la
mutua atracción de cargas eléctricas opuestas. Pero eso no bastaba para el núcleo,
en el cual los protones eran las únicas partículas cargadas. Si recurriéramos a los
razonamientos electromagnéticos, cabría suponer que los protones, todos con carga
positiva- se repelerían violentamente unos a otros, y que todo núcleo atómico
estallaría apenas formado (suponiendo que se pudiera formar).
Evidentemente, aquí debía intervenir otra fuerza, algo de mayor potencia que la
fuerza electromagnética y capaz de dominarla. La potencialidad superior de esa
«fuerza nuclear» se puede demostrar con facilidad mediante la siguiente
consideración: Los átomos de una molécula muy compacta, como el monóxido de
carbono, pueden disociarse si se les aplican sólo 11 eV de energía. Tal energía basta
para obtener una poderosa manifestación de fuerza electromagnética.
Por otra parte, el protón y el neutrón integrantes de un deuterón, uno de los
núcleos menos compactos- requieren 2 millones de electronvolts para la disociación.
A decir verdad, las partículas del interior del núcleo están mucho más apelotonadas
que los átomos dentro de la molécula; pero, aún admitiendo esto, se puede afirmar,
sin vacilación, que la fuerza nuclear es 130 veces más potente que la
electromagnética.
Ahora bien, ¿cuál es la naturaleza de esa fuerza nuclear? El primer indicio cierto se
tuvo en 1932, cuando Werner Heisenberg señaló que el «intercambio de fuerzas»
mantenía los protones unidos. Heisenberg describió los protones y neutrones en el
núcleo como un continuo intercambio de identidades. Así, pues, según este
investigador, una determinada partícula fue, primero, protón; luego, neutrón; más
tarde, protón, etc. De esta forma se conservaba la estabilidad del núcleo a
semejanza de como nosotros podemos sostener una patata caliente pasándola sin
cesar de una mano a otra. Cuando el protón aún no «se había dado cuenta» que era
protón, e intentaba reunirse con los protones vecinos, se transformaba en neutrón y
podía permanecer donde estaba. Naturalmente, sólo se «saldría con la suya» si se
produjera esa transformación con increíble rapidez, digamos en una trillonésima de
trillonésima de segundo.
Otra forma de enfocarlo consiste en imaginar dos partículas que se intercambian
una tercera. Cada vez que la partícula A emite la partícula intercambiable, retrocede
para conservar su momento. Y cada vez que la partícula B acepta la partícula
intercambiable recibe un impulso hacia atrás, por idéntica razón. Mientras la
partícula intercambiable va de un lado a otro, las partículas A y B se distancian
entre sí cada vez más, como si estuvieran sometidas a una repulsión. Si, por otro
lado, la partícula intercambiable se mueve como un bumerang desde la parte
posterior de la partícula A hasta la posterior de la B, ambas partículas se acercarán
como si obedecieran a una fuerza de atracción.
Según la teoría de Heisenberg, parece ser que todas las fuerzas de atracción y
repulsión derivan de las partículas intercambiables. En el caso de la atracción y
repulsión electromagnética, la partícula intercambiable será el fotón, que, como
veremos en el capítulo siguiente- es una partícula sin masa, generalmente asociada
a la luz y a la radiación electromagnética. Aquí cabría aducir que, precisamente
porque el fotón no tiene masa, la atracción y repulsión electromagnéticas son de
largo alcance, pierden intensidad sólo con el cuadrado de la distancia y, por tanto,
tienen importancia para las distancias interestelares e incluso intergalácticas.
Según dicho razonamiento, la gravitación, también de largo alcance y qué
asimismo, pierde intensidad con el cuadrado de la distancia, debe implicar un
continuo intercambio de partículas sin masa. Esta partícula fue denominada
«gravitón» por los físicos.
La gravitación es mucho más débil que la fuerza electromagnética. Cuando un
protón y un electrón se atraen mutuamente por medio de la gravitación, lo hacen
sólo con una fuerza equivalente al 1/1039 del impulso que los uniría mediante
fotón, partícula de masa y carga cero, pero de spin igual a 1. Por esto último, el
fotón difiere de varios neutrinos, cuyas cargas y masas son también nulas, pero
cuyo spin es de media unidad.) Se considera que el fotón es, al mismo tiempo, su
propia antipartícula. También se incluye el gravitón, que difiere de otras partículas
sin masa ni carga por tener un spin de 2 El hecho que los fotones y los gravitones
sean sus propias antipartículas contribuye a explicar por qué resulta tan difícil
averiguar si una galaxia distante es materia o antimateria. Mucho de lo que
recibimos desde galaxias remotas son fotones y gravitones; una galaxia de
antimateria emite exactamente los mismos fotones y gravitones que una galaxia de
materia. No hay antifotones ni antigravitones que puedan dejar huellas perceptibles
de la antimateria. Sin embargo, deberíamos recibir neutrinos... o antineutrinos. El
predominio de neutrinos revelaría la materia; el de antineutrinos, la antimateria.
Con el desarrollo de técnicas para detectar neutrinos o antineutrinos del espacio
exterior, algún día será posible determinar la existencia y localización de
antigalaxias.
Algunos leptones no tienen carga eléctrica ni masa. Todas estas partículas sin carga
ni masa son estables. Abandonadas a sus propios medios, subsisten inalterables
(por lo menos, que nosotros sepamos) hasta el infinito.
Por alguna razón ignorada, sólo puede haber carga si hay masa; pero las partículas
con masa tienden a desintegrar a las de menos masa. Así, pues, un muon, por
ejemplo, tiende a desintegrar el electrón; y el electrón (o positrón) es, de acuerdo
con nuestros conocimientos actuales, la partícula de menos masa entre todas las
conocidas. Para éste, la progresiva desintegración implica la pérdida total de masa,
lo cual significa también la pérdida de carga eléctrica. Ahora bien, puesto que la ley
de conservación de la carga eléctrica niega toda pérdida de carga eléctrica, el
electrón no puede desintegrarse. Un electrón y un positrón están expuestos al
mutuo aniquilamiento, porque las cargas opuestas se neutralizan recíprocamente;
pero cualquiera de ellos, abandonado a sus propios medios, puede tener una
existencia ilimitada.
Los leptones tienen menos masa que los «mesones», cuya familia no incluye ya el
muon, aún cuando ésta partícula fuera el mesón original. Entre los mesones se
incluyen hoy los piones y una nueva variedad: el «mesón K», o «kayón». Fue
detectado, en 1952, _por dos físicos polacos: Marian Danysz y Jerzy Pniewski. Es el
más pesado de todos los mesones conocidos: tiene 970 veces más masa que un
electrón; así, pues, equivale a medio protón o neutrón. El kayón presenta dos
variedades: el positivo y el neutro, cada uno asociado a su correspondiente
antipartícula. Desde luego, es inestable y se desintegra en un microsegundo, para
formar piones.
Por encima del mesón está el «barión» (de la voz griega que significa «pesado»).
Hasta la década de los cincuenta, el protón y el neutrón fueron las únicas especies
conocidas. Hacia 1954 se descubrió una serie de partículas de mayor masa aún
(llamadas, por algunos, «hiperones»). Estas partículas barión, se han multiplicado
de un modo particular en años recientes; el protón y el electrón son los más ligeros
de una larga serie.
Según han descubierto los físicos, hay una «ley de conservación del número
barión», pues en todas las desintegraciones de partículas, el número neto de
bariones (es decir, bariones menos antibariones) permanece inalterable. La
desintegración se produce siempre para pasar de una partícula de cierta masa a
otra de masa menor, lo cual explica la estabilidad del protón y por qué es el único
barión estable. No hay ningún barión tan ligero como él. Si se desintegrara, dejaría
de ser barión, lo cual quebrantaría la ley de conservación del número barión. El
antiprotón es estable por el mismo motivo, ya que se trata del antibarión más
ligero. Desde luego, un protón y un antineutrón pueden aniquilarse mutuamente,
puesto que, unidos, forman un barión más un antibarión, para un número neto
barión igual a cero.
Los primeros bariones que se descubrieron, aparte el protón y el neutrón, recibieron
nombres griegos. Así, tenemos la «partícula lambda», la «partícula sigma» y la
«partícula xi». La primera mostró una sola variedad: una partícula neutra; la
segunda, tres variedades: positiva, negativa y neutra; y la tercera, dos: negativa y
neutra. Cada una de éstas tenía una antipartícula asociada, lo cual daba un total de
doce partículas. Todas eran extremadamente inestables; ninguna vivía más de una
centésima de microsegundo, y algunas, como la partícula sigma neutra- se
desintegraban al cabo de cien billonésimas de microsegundo.
agruparlas en familias integradas por uno o varios miembros básicos, junto con
otras partículas que representen los diversos grados de excitación de ese miembro o
miembros básicos.
En 1961, el físico americano Murray Gell-Mann y el físico israelí Yuval Ne’emen,
independientemente, propusieron algo parecido. En un esquema de simetría
perfecta se reunieron las partículas para formar grupos de acuerdo con sus distintas
propiedades. Gell-Mann lo denominó «método óctuple», pero hoy se le llama
universalmente «SU ≠ 3». Por lo pronto, dicha agrupación necesitó una partícula
más para estar completa. Si esta partícula hubiera de encajar perfectamente en el
grupo, habría de tener una masa y un conjunto característicos de propiedades. Era
poco probable que se encontrara una partícula con semejante combinación. Sin
embargo, en 1964 se detectó una (la «omega-minus») que reunía las propiedades
anunciadas, y en años sucesivos se volvió a detectar unas doce veces. En 1971 se
localizó su antipartícula: la «antiomega-minus».
Aunque los bariones estuviesen ya divididos en grupos y se hubiese ideado una
tabla periódica subatómica, quedaba aún el suficiente número de partículas distintas
como para que los físicos sintiesen la necesidad de encontrar algo más simple y
fundamental aún. En 1964, Gell-Mann, quien se había esforzado por hallar el
sistema más sencillo para relacionar todos los bariones con un número mínimo de
las «partículas subbariónicas» más importantes- propuso la voz «quark» y calculó
que serían necesarios sólo tres quarks diferentes. Según este investigador, las
distintas combinaciones con tales quarks bastarían para constituir todos los bariones
conocidos. Esto le recordó un pasaje de la obra Finnegans Wake, de James Joyce,
en que se dice: «Three quarks for Musther Mark».
Para confirmar las propiedades conocidas de los bariones, esos tres quarks
diferentes deberían tener propiedades específicas. Entre ellas, la más sorprendente
era la carga eléctrica fraccionaria. A este respecto, todas las partículas conocidas
poseían una de las siguientes cualidades: o carecían de carga eléctrica, o dicha
carga era exactamente igual a la del electrón (o positrón), o igual a un múltiplo
exacto del electrón (o positrón). Dicho de otra forma: las cargas conocidas eran 0,
+ 1, 1, +2, 2, etc. Sin embargo, un quark (el «quark p») tenía una carga de +2/3,
mientras que la carga de los otros dos (el «quark n» y el «quark lambda») era de,
1/3. Los quarks n y lambda se distinguían entre sí por algo denominado «número de
rareza». Mientras el quark n (y el p) tenía un número de rareza 0, el del quark
lambda era, 1.
Cada quark tenía su «antiquark». Había un antiquark p, con una carga de, 2/3 y un
número de rareza 0; el antiquark n, con una carga de +1/3 y un número de rareza
0; y el antiquark lambda, con una carga de + 1/3 y un número de rareza +1.
Ahora bien, se puede imaginar un protón integrado por dos quarks p y un quark n,
mientras que, por otra parte dos quarks n y un quark p formarían un neutrón (por
lo cual añadimos a los quarks los sufijos p y n). Una partícula lambda está
constituida por un quark p, un quark n y un quark lambda (de aquí el sufijo
lambda), una partícula omega-minus está compuesta por tres quarks lambda, etc.
Incluso se pueden combinar los quarks por parejas para formar diferentes mesones.
No obstante, la cuestión consiste en saber hasta qué punto convienen
matemáticamente los quarks. ¿Existen en realidad? Es decir, podemos admitir que
un dólar está compuesto por cuatro cuartos; pero, ¿acaso significa esto que haya
cuatro cuartos metálicos en un billete de dólar? Una forma de esclarecer tales
incógnitas podría consistir en golpear con tal energía un protón, neutrón o cualquier
otra partícula, que quedara desintegrado en sus quarks constitutivos. Por desgracia,
las fuerzas aglutinantes que mantienen unidos a los quarks son muy superiores a
las que unen a los bariones (de la misma forma que éstas superan ampliamente a
las de los átomos), y por ahora no se posee la energía suficiente para desintegrar el
barión. Ciertas partículas del rayo cósmico poseen sobrada energía para hacerlo (si
se pudiera hacer), pero aunque se tengan ya noticias sobre algunas partículas
semejantes a los quarks y presentes en los productos del rayo cósmico, esto no se
ha aceptado aún generalmente.
A la hora de escribir estas líneas, la hipótesis del quark puede considerarse como
una suposición interesante, pero sólo especulativa.
Los mesones K y los hiperones introdujeron a los físicos en un cuarto campo de
fuerza cuyos rasgos característicos lo diferenciaban de los tres ya conocidos:
gravitatorio, electromagnético y nuclear.
De estos tres, la fuerza nuclear es, con mucho, la más poderosa, aunque actúa sólo
a distancias extremadamente cortas. Mientras que las fuerzas electromagnética y
4
Tomado de una tabla de The World of Elementary Particles, de K. W. Ford. Reproducida por cortesía de «Blaisdell
Publishing Company», perteneciente a «Ginn & Company».
Por tanto, fue preciso observar una serie de partículas que emitieran electrones en
una interacción débil (por ejemplo, unas partículas que se debilitan por la emisión
beta), para comprobar si los electrones escapaban en una determinada dirección.
Para realizar este experimento, Lee y Yang solicitaron la ayuda de una doctora en
Física experimental, de la Universidad de Columbia: Chien-Shiung Wu.
La doctora hizo los preparativos para establecer las condiciones requeridas. Todos
los átomos emisores de electrones deberían estar alineados en la misma dirección,
si se quería detectar un sentido uniforme de emisión. Se hizo así por medio de un
campo magnético, y se mantuvo el material a una temperatura cercana al cero
absoluto.
Al cabo de cuarenta y ocho horas, el experimento dio su respuesta. Sin duda
alguna, los electrones habían sido emitidos de forma asimétrica. La conservación de
la paridad no se cumplía en las interacciones débiles. El «mesón theta» y el «mesón
tau» eran una misma partícula y se desintegraban a veces con la paridad par y, en
ocasiones, con la impar. Nuevos experimentadores confirmaron el fracaso de la
paridad en este sentido. Los citados físicos, Lee y Yang, recibieron el premio Nobel
de Física en 1957.
Si la simetría falla en las interacciones débiles, quizá lo haga también en otras
circunstancias. Al fin y al cabo, el Universo, como un todo, puede ser diestro o
zurdo. Como alternativa; puede haber dos universos: uno zurdo, y otro, diestro;
uno, compuesto de materia, y otro, de antimateria.
Los físicos miran hoy con nuevo escepticismo las leyes de conservación en general.
A semejanza de la paridad, cualquiera de ellas podría ser aplicable en ciertas
condiciones y no en otras.
Una vez comprobado este fallo, se combinó la paridad con la «conjugación de
carga», otra propiedad matemática asignada a las partículas subatómicas, que
definía su estado como partículas o antipartículas, pues se creyó que podían
conservarse juntas. Se agregó también otra simetría, la cual implicaba lo siguiente:
La ley que rige los acontecimientos subatómicos es siempre la misma, tanto si el
tiempo marcha hacia delante como hacia atrás. El conjunto se podría denominar
«conservación CPT». Sin embargo, en 1964 se descubrió que las reacciones
nucleares violan esa conservación CPT. Ello afecta a la «inversión del tiempo». Esto
significa que puede uno distinguir entre el tiempo que marcha hacia delante (según
la escala subatómica) y el que marcha hacia atrás, lo cual es imposible, a juicio de
ciertos físicos. Para soslayar tal dilema, se abogó por la probable existencia de una
quinta fuerza, más débil incluso que la gravitación. Sin embargo, esa quinta fuerza
debería producir ciertos efectos perceptibles. En 1965 se buscaron dichos efectos y
no se encontraron. Los físicos se quedaron con su dilema del tiempo. Pero no hay
razón para desesperar. Tales problemas parecen conducir siempre, cuando llega el
momento, a un conocimiento nuevo y cada vez más profundo del Universo.
ser un cuerpo tan pequeño, tan repleto de neutrones y protones, los físicos
suponen, lógicamente, que debe ser esférica. A juzgar por los finos detalles
observados en el espectro del átomo, muchos núcleos tienen una distribución
esferoidal de la carga. Y los que no la tienen se comportan como si poseyeran dos
pares de polos magnéticos; se dice que tales núcleos tienen «momentos
cuadripolares». Pero su desviación de la forma esférica no es muy considerable. El
caso más extremo lo representa el núcleo de los lantánidos, en el que la distribución
de cargas tiene cierto parecido con un esferoide alargado por los polos (en otras
palabras, como un balón de rugby). Pero aún en este caso, el eje mayor es un 20 %
más largo que el menor.
Respecto a la estructura interna del núcleo, el modelo más simple lo representa
como un núcleo compacto de partículas, muy parecido a una gota líquida, donde las
partículas (moléculas) están arracimadas con muy poco espacio entre sí. La
densidad es virtualmente uniforme y los límites periféricos son muy manifiestos.
Allá por 1936, Niels Bohr esquematizó detalladamente por primera vez este
«modelo de gota líquida», lo cual permite entrever una posible explicación de la
absorción y emisión de partículas por ciertos núcleos. Cuando una partícula penetra
en el núcleo, cabe suponer que distribuye su energía cinética entre todas las
partículas apiñadas, de tal modo que ninguna partícula recibe enseguida la
suficiente energía para desprenderse. Transcurrido, como máximo, una
cuatrillonésima de segundo, cuando ya ha habido tiempo para que se produzcan
miles de millones de colisiones accidentales, alguna partícula acumulará la energía
suficiente para volar fuera del núcleo.
Dicho modelo podría explicar también la emisión de partículas alfa por los núcleos
pesados, es decir, los elementos inestables con números atómicos superiores a 83.
En estos grandes núcleos, las fuerzas nucleares de corto alcance tal vez no puedan
ejercer su acción sobre todo el núcleo; de aquí que se produzca la repulsión entre
partículas positivas, y, como resultado, ciertas porciones del núcleo en forma de
partículas alfa con dos protones y dos neutrones (combinación muy estable), se
desprenderán espontáneamente de la superficie nuclear. Cuando el núcleo se
reduce a un tamaño tal que, la fuerza nuclear predomina sobre la repulsión, ese
núcleo adquirirá estabilidad.
Este modelo de «gota líquida» sugiere otra forma de inestabilidad nuclear. Cuando
una gota grande de líquido suspendida en otro líquido se deja arrastrar por
corrientes del fluido circundante, tiende a desintegrarse en esferas más pequeñas y,
a menudo, semiesferas de dimensiones más o menos similares. Creemos que la
fisión del uranio sigue un proceso casi análogo. Cuando un neutrón golpea al núcleo
fisionable, éste se bambolea, por decirlo así, y tal vez se alargue, para adoptar la
forma de un halterio (como haría una gota de líquido). En tal caso, las fuerzas
nucleares de atracción no alcanzarán desde un extremo del halterio al otro, y
entonces la fuerza repelente separará las dos porciones. Bohr dio esta explicación
cuando se descubrió la fisión nuclear.
Además del uranio 235, otros núcleos podrían ser sometidos a la fisión (ya se han
hecho pruebas positivas) si recibiesen las suficientes aportaciones de energía. En
realidad, si un núcleo es lo bastante grande como para dejar que actúen las fuerzas
repelentes, debería ceder a la fisión, aún cuando no hubiese entrada de energía.
(Esto es como decir que el núcleo semejante a la gota está siempre vibrando y
bamboleándose, de modo que algunas veces la vibración es lo bastante intensa
como para formar el halterio y ocasionar la rotura.)
En 1940, dos físicos rusos, G. N. Flerov y K. A. Petriak, descubrieron que el isótopo
más pesado del uranio, el U-238, se somete espontáneamente a la fisión sin
intervención de partícula alguna. El uranio exterioriza principalmente su
inestabilidad emitiendo partículas alfa, pero en 0,5 kg de uranio se producen cuatro
fisiones espontáneas por segundo, mientras que ocho millones de núcleos
aproximadamente emiten partículas alfa.
La fisión espontánea se produce también en el uranio 235, el protactinio y el torio,
y, con más frecuencia, en los elementos transuranianos. Al agrandarse
progresivamente el núcleo, aumentan las probabilidades de una fisión espontánea.
En los elementos más pesados conocidos, einstenio, fermio y mendelevio, éste es
el método de desintegración, muy superior a la emisión de partículas alfa.
Otro modelo popular del núcleo lo asemeja al átomo en su conjunto, coloca los
nucleones dentro del núcleo, y los electrones, en tomo a éste, como si ocuparan
celdas y subceldas e influyendo unos sobre otros muy ligeramente. Este modelo se
llama «de celdas».
¿Cómo puede haber espacio para las células independientes de los nucleones en tan
minúsculo y compacto núcleo? No lo sabemos, pero las pruebas indican que allí
queda algún «espacio vacío». Por ejemplo, en un átomo mesónico puede girar
durante algún tiempo a lo largo de una órbita dentro del núcleo. Y Robert Hofstadter
ha descubierto que el núcleo consiste en un «corazón» muy denso, rodeado por una
«piel», en la que decrece gradualmente la densidad. El grosor de dicha piel
equivale, más o menos, a la mitad del radio nuclear, de modo que representa siete
octavas partes del volumen total.
Por analogía con la situación en las celdas electrónicas del átomo, cabría suponer
que los núcleos con celdas nucleónicas rellenas deberían ser más estables que
aquellos cuyas celdas no estuviesen rellenas. Según la teoría más elemental, en
este caso, los núcleos con 2, 8, 20, 40, 70 o 112 protones o neutrones serían
singularmente estables. Sin embargo, esto no coincidió con las observaciones
hechas. La física germano americana Maria Goeppert-Mayer observó
particularmente el giro de los protones y neutrones, y demostró cómo podría afectar
ello a toda la situación. Resultó que los núcleos con 2, 8, 20, 50, 82 ó 126 protones
o neutrones deberían ser especialmente estables, y las observaciones así lo
confirmaron. Los núcleos con 28 o 40 protones o neutrones tendrían una estabilidad
intermedia. Todos los demás serían menos estables o no lo serían en absoluto.
Algunos han llamado «números mágicos» a estos «números envueltos en la celda»
(ocasionalmente se ha hecho referencia al 28 o 40 con la denominación de
«números semimágicos»).
Entre los núcleos de numero mágico figuran el helio 4 (2 protones y 2 neutrones), el
oxígeno 16 (8 protones y 8 neutrones) y el calcio 40 (20 protones y 20 neutrones),
todos los cuales son excepcionalmente estables y abundan en el Universo más que
cualquier otro núcleo de tamaño similar.
En cuanto a los números mágicos superiores, el estaño tiene 10 isótopos estables,
cada uno, con 50 protones, y el plomo, 4, cada uno con 82 protones. Hay 5 isótopos
estables (cada cual, de un elemento distinto) con 50 neutrones por unidad, y 7
isótopos estables, con 82 neutrones por unidad. En general, las predicciones
detalladas de la teoría sobre la celda nuclear dan mejor resultado junto a los
números mágicos. Entremedias (como ocurre con los actínidos y los lantánidos), el
Capítulo 7
LAS ONDAS
Luz
Entre todos los felices atributos de la Naturaleza, el que probablemente aprecie más
el hombre es la luz. Según el Génesis, las primeras palabras de Dios fueron: «Haya
luz», y creó el Sol y la Luna: «Hizo Dios los dos grandes luminares, el mayor para
presidir al día, y el menor para presidir a la noche.» Los eruditos de los tiempos
antiguo y medieval no llegaron a saber nada sobre la naturaleza de la luz.
Sugirieron, especulativamente, que podría consistir en partículas emitidas por el
objeto radiante o, tal vez, por el propio ojo. Los únicos hechos que pudieron
establecer acerca de la cuestión fueron éstos: la luz sigue una trayectoria recta, se
refleja en un espejo con un ángulo igual al formado por el rayo incidente, y el rayo
luminoso se quiebra («refracta») cuando pasa del aire al interior de un vaso, un
depósito de agua o cualquier otra sustancia transparente.
Los primeros experimentos importantes sobre la naturaleza de la luz los realizó
Isaac Newton en 1666. Este investigador hizo entrar un rayo de luz solar en una
habitación oscurecida; agujereó la persiana para que el rayo cayera oblicuamente
sobre la cara de un prisma cristalino triangular. El rayo se dobló al penetrar en el
vidrio, y siguió doblándose en la misma dirección cuando emergió por la segunda
cara del prisma. Newton captó el rayo emergente en una pantalla blanca, para
comprobar el efecto de la doble refracción. Entonces descubrió que en vez de
formar una mancha de luz blanca, el rayo se extendía para constituir una banda de
colores: rojo, anaranjado, amarillo, verde, azul y violado, por este orden.
Newton dedujo de ello que la luz blanca corriente era una mezcla de varias luces
que excitaban por separado nuestros ojos para producir las diversas sensaciones de
colores. La amplia banda de sus componentes se denominó spectrum (palabra latina
que significa «espectro»).
Newton llegó a la conclusión que la luz se componía de diminutas partículas
(«corpúsculos»), que viajaban a enormes velocidades. Así se explicaba que la luz se
moviera en línea recta y proyectara sombras recortadas. Asimismo, se reflejaba en
un espejo porque las partículas rebotaban contra la superficie, y se doblaba al
al campo opuesto. Proyectó un fino rayo luminoso sobre una pantalla, haciéndolo
pasar antes por dos orificios casi juntos. Si la luz estuviera compuesta por
partículas, cuando los dos rayos emergieran de ambos orificios, formarían
presuntamente en la pantalla una región más luminosa donde se superpusieran, y,
regiones menos brillantes, donde no se diera tal superposición. Pero no fue esto lo
que descubrió Young. La pantalla mostró una serie de bandas luminosas, separadas
entre sí por bandas oscuras. Pareció incluso que, en esos intervalos de sombra, la
luz de ambos rayos contribuía a intensificar la oscuridad.
Sería fácil explicarlo mediante la teoría ondulatoria. La banda luminosa
representaba el refuerzo prestado por las ondas de un rayo a las ondas del otro.
Dicho de otra forma: Entraban «en fase» dos trenes de ondas, es decir, ambos
nodos, al unirse, se fortalecían el uno al otro. Por otra parte, las bandas oscuras
representaban puntos en que las ondas estaban «desfasadas» porque el vientre de
una neutralizaba el nodo de la otra. En vez de aunar sus fuerzas, las ondas se
interferían mutuamente, reduciendo la energía luminosa neta a las proximidades del
punto cero.
Considerando la anchura de las bandas y la distancia entre los dos orificios por los
que surgen ambos rayos, se pudo calcular la longitud de las ondas luminosas, por
ejemplo, de la luz roja o la violeta o los colores intermedios. Las longitudes de onda
resultaron ser muy pequeñas. Así, la de la luz roja era de unos 0,000075 cm. (Hoy
se expresan las longitudes de las ondas luminosas mediante una unidad muy
práctica ideada por Ångström. Esta unidad, denominada, en honor a su autor,
angström, abreviatura, Å, es la cienmillonésima parte de 1 cm. Así, pues, la
longitud de onda de la luz roja equivale más o menos a 7.500 Å, y la de la luz
violeta, a 3.900 Å, mientras que las de los colores visibles en el espectro oscilan
entre ambas cifras.)
La cortedad de estas ondas es muy importante. La razón que las ondas luminosas
se desplacen en línea recta y proyecten sombras recortadas se debe a que todas
son incomparablemente más pequeñas que cualquier objeto; pueden contornear un
obstáculo sólo si éste no es mucho mayor que la longitud de onda. Hasta las
bacterias, por ejemplo, tienen un volumen muy superior al de una onda luminosa y,
por tanto, la luz puede definir claramente sus contornos bajo el microscopio. Sólo
compuestos por isótopos diferentes, cada uno de los cuales aportaba una raya cuya
longitud de onda difería ligeramente de las restantes. En la década dé 1930 se
midieron las rayas del criptón 86. Como quiera que este isótopo era gaseoso, se
podía abordar con bajas temperaturas, para frenar el movimiento atómico y reducir
el consecutivo engrosamiento de la raya.
En 1960, el Comité Internacional de Pesos y Medidas adoptó la raya del criptón 86
como unidad fundamental de longitud. Entonces se restableció la longitud del metro
como 1.650.763,73 veces la longitud de onda de dicha raya espectral. Ello aumentó
mil veces la precisión de las medidas de longitud. Hasta entonces se había medido
el antiguo metro patrón con un margen de error equivalente a una millonésima,
mientras que en lo sucesivo se pudo medir la longitud de onda con un margen de
error equivalente a una mil millonésima.
Evidentemente, la luz se desplaza a enormes velocidades. Si apagamos una luz,
todo queda a oscuras instantáneamente. No se puede decir lo mismo del sonido, por
ejemplo. Si contemplamos a un hombre que está partiendo leña en un lugar
distante, sólo oiremos los golpes momentos después que caiga el hacha. Así, pues,
el sonido tarda cierto tiempo en llegar a nuestros oídos. En realidad es fácil medir la
velocidad de su desplazamiento: unos 1.206 km/h en el aire y a nivel del mar.
Galileo fue el primero en intentar medir la velocidad de la luz. Se colocó en
determinado lugar de una colina, mientras su ayudante se situaba en otro; luego
sacó una linterna encendida; tan pronto como su ayudante vio la luz, hizo una señal
con otra linterna. Galileo repitió el experimento a distancias cada vez mayores,
suponiendo que el tiempo requerido por su ayudante para responder mantendría
una uniformidad constante, por lo cual, el intervalo entre la señal de su propia
linterna y la de su ayudante representaría el tiempo empleado por la luz para
recorrer cada distancia. Aunque la idea era lógica, la luz viajaba demasiado aprisa
como para que Galileo pudiera percibir las sutiles diferencias con un método tan
rudimentario.
En 1676, el astrónomo danés Olaus Roemer logró cronometrar la velocidad de la luz
a escala de distancias astronómicas. Estudiando los eclipses de Júpiter en sus cuatro
grandes satélites, Roemer observó que el intervalo entre eclipses consecutivos era
más largo cuando la Tierra se alejaba de Júpiter, y más corto cuando se movía en
su órbita hacia dicho astro. Al parecer, la diferencia entre las duraciones del eclipse
reflejaba la diferencia de distancias entre la Tierra y Júpiter. Y trataba, pues, de
medir la distancia partiendo del tiempo empleado por la luz para trasladarse desde
Júpiter hasta la Tierra. Calculando aproximadamente el tamaño de la órbita
terrestre y observando la máxima discrepancia en las duraciones del eclipse que,
según Roemer, representaba el tiempo que necesitaba la luz para atravesar el eje
de la órbita terrestre, dicho astrónomo computó la velocidad de la luz. Su resultado,
de 225.000 km/seg, parece excelente si se considera que fue el primer intento, y
resultó lo bastante asombroso como para provocar la incredulidad de sus coetáneos.
Dispositivo de Fizeau para medir la velocidad de la luz. La luz reflejada por el espejo
diagonal junto a la fuente luminosa pasa por una muesca de la rueda dentada
giratoria hasta un espejo distante (a la derecha) donde se refleja para alcanzar el
siguiente diente o la siguiente muesca.
acuerdo con los cambios de la trayectoria terrestre. Mediante ese desvío aparente
de los astros («aberración de la luz»), Bradley pudo evaluar la velocidad de la luz y
calcularla con más precisión que Roemer.
A su debido tiempo, los científicos fueron obteniendo medidas más exactas aún,
conforme se fue perfeccionando la idea original de Galileo. En 1849, el físico francés
Armand-Hippolyte-Louis Fizeau ideó un artificio mediante el cual se proyectaba la
luz sobre un espejo situado a 8 km de distancia, que devolvía el reflejo al
observador.
Durante el siglo XIX quedó ya bien claro que el Sol, la Tierra, las estrellas y,
prácticamente todos los cuerpos del Universo, estaban en movimiento. ¿Dónde
encontrar, pues un punto inamovible de referencia, un punto que estuviera en
«reposo absoluto», para poder determinar el «movimiento absoluto», o sea, hallar
el fundamento de los axiomas newtonianos? Quedaba una posibilidad. Newton había
aducido que la propia trama del espacio (presuntamente, el éter) estaba en reposo,
y, por tanto, se podía hablar de «espacio absoluto». Si el éter permanecía inmóvil,
tal vez se podría especificar el «movimiento absoluto» de un objeto determinando
su movimiento en relación con el éter.
Durante la década de 1880, Albert Michelson ideó un ingenioso esquema para hacer
precisamente eso. Si la Tierra se movía a través de un éter inmóvil, razonó este
científico, un rayo luminoso proyectado en la dirección de su movimiento, con la
consiguiente reflexión, recorrería una distancia menor que otro proyectado en
ángulo recto. Para realizar este experimento, Michelson inventó el «interferómetro»,
artificio dotado con un prisma doble que dejaba pasar hacia delante la mitad de un
rayo luminoso y reflejaba la otra mitad en ángulo recto. Entonces, unos espejos
reflejaban ambos rayos sobre un ocular en el punto de partida. Si un rayo recorría
una distancia algo mayor que el otro, ambos llegaban desfasados y formaban
bandas de interferencia. Este instrumento mide con gran precisión las diferencias de
longitud: es tan sensible, que puede medir el crecimiento de una planta segundo a
segundo y el diámetro de algunas estrellas que parecen, incluso vistas a través del
mayor telescopio, puntos luminosos sin dimensión alguna.
Michelson se proponía apuntar el interferómetro en varias direcciones respecto al
movimiento terrestre, para detectar el efecto del éter midiendo el desfase de los
rayos disociados a su retorno.
En 1887, Michelson inició el experimento con ayuda del químico americano Edward
Williams Morley. Colocando el instrumento sobre una losa que flotaba en mercurio
para poderle dar cualquier orientación fácil y suavemente, los dos científicos
proyectaron el rayo en diversas direcciones tomando como referencia el movimiento
de la Tierra. Y no descubrieron diferencia alguna. Las bandas de interferencia se
mantuvieron invariables, aunque ellos apuntaron el instrumento en todas
direcciones y repitieron muchas veces el experimento. (Experimentos posteriores de
la misma índole, realizados con instrumentos más sensibles, han dado los mismos
resultados negativos.)
Relatividad
En 1893, el físico irlandés George Francis FitzGerald emitió una hipótesis para
explicar los resultados negativos del experimento Michelson-Morley. Adujo que toda
materia se contrae en la dirección del movimiento, y que esa contracción es
directamente proporcional al ritmo del movimiento. Según tal interpretación, el
interferómetro se quedaba corto en la dirección del «verdadero» movimiento
terrestre, y lo hacía precisamente en una cantidad que compensaba con toda
exactitud la diferencia de distancias que debería recorrer el rayo luminoso. Por
añadidura, todos los aparatos medidores imaginables, incluyendo los órganos
sensoriales humanos, experimentarían ese mismo «escorzo». Parecía como si la
explicación de FitzGerald insinuara que la Naturaleza conspiraba con objeto de
impedir que el hombre midiera el movimiento absoluto, para lo cual introducía un
efecto que anulaba cualquier diferencia aprovechable para detectar dicho
movimiento.
Este decepcionante fenómeno recibió el nombre de «contracción FitzGerald», y su
autor formuló una ecuación para el mismo. Un objeto que se moviera a 11 km/seg
(poco más o menos, la velocidad de nuestros más rápidos cohetes modernos)
experimentaría sólo una contracción equivalente a 2 partes por cada 1.000 millones
en el sentido del vuelo. Pero a velocidades realmente elevadas, tal contracción sería
sustancial. A unos 150.000 km/seg (la mitad de la velocidad de la luz), sería de un
15 %; a 262.000 km/seg (7/8 de la velocidad de la luz), del 50 %. Es decir que una
regla de 30 cm que pasara ante nuestra vista a 262.000 km/seg, nos parecería que
mide sólo 15,24 centímetros..., siempre y cuando conociéramos algún método para
medir su longitud en pleno vuelo. Y a la velocidad de la luz, o sea, 300.000 km/seg
en números redondos, su longitud, en la dirección del movimiento, sería cero.
Puesto que, presuntamente, no puede existir ninguna longitud inferior a cero, se
deduce que la velocidad de la luz en el vacío es la mayor que puede imaginarse en
el Universo.
El físico holandés Hendrik Antoon Lorentz promovió la idea de FitzGerald. Pensando
en los rayos catódicos, que ocupaban su actividad por aquellos días- se hizo el
siguiente razonamiento: Si se comprimiera la carga de una partícula para reducir su
volumen, aumentaría la masa de dicha partícula. Por consiguiente, una partícula
e = hv
El símbolo e representa la energía del cuanto; v (la letra griega nu), la frecuencia, y
h, la «constante de Planck», que da la relación proporcional entre cuanto, energía y
frecuencia.
Nada de esto era explicable con las viejas teorías de la luz. ¿Por qué haría la luz
azul unas cosas que no podía hacer la luz roja?
Einstein halló la respuesta en la teoría de los cuantos de Planck. Para absorber
suficiente energía con objeto de abandonar la superficie metálica, un electrón
necesitaba recibir el impacto de un cuanto cuya magnitud fuera mínima hasta cierto
punto. En el caso de un electrón retenido débilmente por su átomo (por ejemplo, el
cesio), cualquier cuanto lo conseguiría, incluso uno de luz roja. Allá donde los
átomos retuvieran más enérgicamente a los electrones, se requerirían las luces
amarilla o azul, e incluso la ultravioleta. En cualquier caso, conforme más energía
tuviera el cuanto, tanta más velocidad proporcionaría al electrón que liberase.
Aquí se daba una situación donde la teoría de los cuantos explicaba un fenómeno
físico con absoluta simplicidad, mientras que el concepto «precuanto» de la luz
permanecía inerme. Luego siguieron arrolladoramente otras aplicaciones de la
mecánica cuántica. Por su esclarecimiento del efecto fotoeléctrico (no por su teoría
de la relatividad), Einstein obtuvo el premio Nobel de Física en 1921.
En su Teoría especial de la relatividad, presentada el año 1905 y desarrollada en sus
ratos libres mientras trabajaba como perito técnico en la oficina suiza de patentes-
Einstein expuso una opinión fundamental inédita del Universo basándose en una
ampliación de la teoría sobre los cuantos. Adujo que la luz se trasladaba por el
espacio en forma cuántica (el «fotón»), y así hizo resucitar el concepto de la luz
integrada por partículas. Pero ésta era una nueva especie de partícula. Reunía las
propiedades de ondas y partículas, mostrando indistintamente unas u otras, según
los casos.
Ello pudiera parecer una paradoja e incluso una especie de misticismo, como si la
verdadera naturaleza de la luz desbordara todo conocimiento imaginable. Sin
embargo, no es así. Para ilustrarlo con una analogía, digamos que el hombre puede
ofrecer muchos aspectos: marido, padre, amigo o negociante. Todo depende de un
ambiente momentáneo, y según sea éste, se comportará como marido, padre,
amigo o negociante. Sería improcedente que exhibiera su comportamiento conyugal
con una cliente o el comportamiento comercial con su esposa, y, de todos modos,
ello no implicaría un caso paradójico ni un desdoblamiento de personalidad.
pero no más «verídico», calcular los movimientos en una estructura donde el Sol
esté inmóvil, que en otra donde la Tierra esté inmóvil.
Así, pues, las medidas de espacio y tiempo son «relativas» respecto a una
estructura de referencia elegida arbitrariamente..., y de aquí que se haya llamado a
la idea einsteniana «teoría de la relatividad».
Para ilustrar este punto, supongamos que estamos observando desde la Tierra un
extraño planeta («Planeta X»), una copia exacta del nuestro por su tamaño y masa
que pasa silbando ante nuestra vista a 262.000 km/seg en relación con nosotros. Si
pudiéramos medir sus dimensiones cuando pasa lanzado, descubriríamos que
muestra un escorzo del 50 % en la dirección de su movimiento. Sería un elipsoide
más bien que una esfera, y las mediciones adicionales nos dirían que parece tener
dos veces más masa que la Tierra.
Sin embargo, un habitante del Planeta X tendría la impresión que él y su propio
mundo estaban inmóviles. Él creería ver pasar la Tierra ante su vista a 262.00
km/seg y se diría que tenía forma elipsoidal y dos veces la masa de su planeta.
Uno cae en la tentación de preguntar cuál de los dos planetas estaría realmente
escorzado y tendría doble masa, pero la única respuesta posible es ésta: ello
depende de la estructura de referencia. Y si la encontráis decepcionante, considerad
que un hombre es pequeño comparado con una ballena, pero grande al lado de un
insecto. ¿Solucionaríamos algo preguntando si el hombre es realmente grande, o
bien pequeño?
Aunque sus consecuencias sean desusadas, la relatividad explica todos los
fenómenos conocidos del Universo, tan bien por lo menos como cualquiera otra
teoría precedente. Pero va aún más lejos: explica lúcidamente ciertos fenómenos
que la visión newtoniana no enfoca bien, o si acaso lo hace con muy pobres
recursos. De resultas, Einstein ha sido preferido a Newton, no como un relevo, sino
más bien cual un perfeccionamiento. La visión newtoniana del Universo es todavía
utilizable a modo de aproximación simplificada cuyo funcionamiento es aceptable
para la vida corriente e incluso la Astronomía ordinaria tal como colocar satélites en
órbita. Pero cuando se trata de acelerar partículas en un sincrotrón, por ejemplo,
comprendemos que es preciso, si se quiere poner en marcha la máquina, hacer
entrar en juego el acrecentamiento einsteniano de la masa con la velocidad.
retraso con respecto al otro? ¡No! ¿Qué pensar entonces? Se ha denominado a este
problema «la paradoja del reloj».
Realmente no existe tal paradoja. Si un barco pasase cual un rayo ante el otro y las
tripulaciones de ambos jurasen que el reloj del otro iba retrasado, poco importaría
saber cuál de los dos relojes era «verdaderamente» el retrasado porque ambos
barcos se separarían para siempre. Los dos relojes no concurrirían jamás en el
mismo lugar ni a la misma hora para permitir una comprobación y la paradoja del
reloj no se plantearía nunca más. Ciertamente, la Teoría especial de la relatividad
de Einstein es aplicable tan sólo al movimiento uniforme, y por tanto aquí estamos
hablando únicamente de una separación definitiva.
Supongamos, empero, que los dos barcos se cruzasen nuevamente después del
fugaz encuentro y entonces fuese posible comparar ambos relojes. Para que
sucediese tal cosa debería mediar un nuevo factor: sería preciso que uno de los
barcos acelerase su marcha. Supongamos que lo hiciera el barco B como sigue:
primero reduciendo la velocidad para trazar un inmenso arco y orientarse en
dirección a A, luego avanzando aceleradamente hasta el encuentro con A. Desde
luego, B podría considerarse en una posición estacionaria, pues, teniendo presente
su forma de orientarse, sería A el autor de todo el cambio acelerando hacia atrás
para encontrarse con B. Si esos dos barcos fueran lo único existente en el Universo,
la simetría mantendría viva ciertamente la paradoja del reloj.
Ahora bien, A y B no son lo único existente en el Universo, y ello desbarata la
simetría. Cuando B acelera no toma solamente A como referencia, sino también el
resto del Universo. Si B opta por verse en posición estacionaria no debe considerar
que solamente A acelera respecto a él, sino también todas las galaxias sin
excepción. Resumiendo: es el enfrentamiento de B con el Universo. En tales
circunstancias el reloj atrasado será el de B, no el de A.
Esto afecta a las nociones sobre viajes espaciales. Si los astronautas se trasladaran
a la velocidad de la luz cuando abandonasen la Tierra, el transcurso de su tiempo
sería mucho más lento que el del nuestro.
Los viajeros del espacio podrían alcanzar un destino remoto y regresar al cabo de
una semana, según lo entenderían ellos, aunque verdaderamente habrían
transcurrido muchos siglos sobre la Tierra. Si el tiempo se retarda realmente con el
movimiento, una persona podrá hacer el viaje de ida y vuelta hasta una estrella
distante. Pero, desde luego, deberá despedirse para siempre de su propia
generación y del mundo que conoció, pues cuando regrese encontrará un mundo del
futuro.
En la Teoría especial de la relatividad, Einstein no abordó la gravitación. Trató ese
tema en su Teoría general de la relatividad, publicada el año 1915. Esta Teoría
general presentó un panorama insólito de la gravitación. Allí se la conceptuó como
una propiedad del espacio más bien que una fuerza actuando entre los cuerpos. La
presencia de materia hace curvarse al espacio, por así decirlo, y los cuerpos siguen
la línea de menor resistencia entre las curvas. Aunque la idea de Einstein parecía
sobremanera extraña, sirvió para explicar lo que no había logrado esclarecer la ley
newtoniana de gravedad.
La ley de la gravedad de Newton se apuntó su mayor triunfo en 1846. El planeta
Urano, descubierto el año 1781, tenía una órbita ligeramente errática alrededor del
Sol. Medio siglo de observaciones lo certificaban así inequívocamente. Entonces los
astrónomos se dijeron que algún planeta todavía incógnito más allá de él debía
ejercer una fuerza gravitatoria sobre su masa. El astrónomo británico John Couch
Adams y el francés Urbain-Jean-Joseph Leverrier calcularon la posición de este
planeta hipotético recurriendo a las teorías newtonianas. En 1846, el astrónomo
alemán Johann Gottfried Galle apuntó un telescopio hacia el lugar señalado por
Leverrier, y, efectivamente... ¡allí había un nuevo planeta, llamado desde entonces
Neptuno!
Tras aquel hallazgo la ley newtoniana de gravedad pareció irrefutable. ¡Nada podría
desvirtuarla! Sin embargo quedó sin explicación cierto movimiento planetario. El
punto más cercano al Sol («perihelio») del planeta Mercurio cambiaba de un paso al
siguiente: no ocupaba nunca dos veces seguidas el mismo lugar en sus revoluciones
«anuales» alrededor del Sol. Los astrónomos sólo pudieron atribuir esa irregularidad
a las «perturbaciones» causadas en su órbita por la atracción de los planetas
vecinos.
Ciertamente, durante los primeros trabajos con la ley de gravitación se había
temido hasta cierto punto que las perturbaciones ocasionadas por la tracción de un
planeta sobre otro pudieran desequilibrar algún día el delicado mecanismo de
sistema solar. Sin embargo, en las primeras décadas del siglo XIX el astrónomo
francés Pierre-Simon Laplace demostró que el Sistema Solar no era tan delicado
como todo eso. Las perturbaciones eran sin excepción cíclicas, y las irregularidades
orbitales no sobrepasaban nunca ciertos márgenes en cualquier dirección. El
Sistema Solar parecía ser estable a largo plazo, y los astrónomos estaban cada vez
más convencidos que sería posible analizar todas las irregularidades específicas
tomando en cuenta dichas perturbaciones.
Sin embargo, esto no fue aplicable a Mercurio. Una vez presupuestas todas las
perturbaciones quedó todavía sin explicar la desviación del perihelio de Mercurio en
una cantidad equivalente a 43 segundos de arco cada siglo. Este movimiento,
descubierto por Leverrier en 1845, no representó gran cosa: dentro de 4.000 años
será igual a la anchura de la Luna. Pero si fue suficiente para causar inquietud entre
los astrónomos.
Leverrier opinó que tal desviación podría ser ocasionada por algún planeta pequeño
e ignoto más próximo al Sol que Mercurio. Durante varias décadas, los astrónomos
buscaron el supuesto planeta (llamado «Vulcano»), y se presentaron numerosos
informes anunciando su descubrimiento. Pero todos los informes resultaron ser
erróneos. Finalmente se acordó que Vulcano era inexistente.
Entonces la Teoría general de la relatividad aportó la respuesta. Einstein demostró
que el perihelio de un cuerpo rotatorio debe tener cierto movimiento adicional
aparte del predicho por la ley newtoniana. Cuando se aplicó ese nuevo cálculo a
Mercurio, la desviación de su perihelio concordó exactamente con la fórmula
general. Otros planetas más distantes del Sol que Mercurio mostrarían una
desviación de perihelio progresivamente menor. El año 1960 se descubrió,
estudiando la órbita de Venus, que el perihelio avanzaba 8 segundos de arco por
siglo aproximadamente; esta desviación concuerda casi exactamente con la teoría
de Einstein.
Pero aún fueron más impresionantes dos fenómenos insospechados que sólo habían
sido previstos por la teoría einsteniana. Primero, Einstein sostuvo que un campo
gravitatorio intenso debe refrenar las vibraciones de los átomos. Ese refrenamiento
se manifestaría mediante una desviación de las rayas espectrales hacia el rojo
(«desviación de Einstein»). Escudriñando el firmamento en busca de un campo
Calor
Hasta este punto del capítulo he dejado al margen un fenómeno que usualmente
acompaña a la luz en nuestras experiencias cotidianas. Casi todos los objetos
luminosos, desde una estrella hasta una vela, desprenden calor junto con la luz.
Antes de los tiempos modernos no se estudiaba el calor, si se exceptúa el aspecto
cualitativo. A una persona le bastaba con decir «hace calor», o «hace frío», o «esto
está más caliente que aquello». Para someter la temperatura a una medición
cuantitativa fue necesario, ante todo, encontrar algún cambio mensurable que
pareciera producirse segularmente con los cambios de temperatura. Se encontró
esa variación en el hecho que las sustancias se dilatan con el calor y se contraen
con el frío.
Galileo fue quien intentó por primera vez aprovechar tal hecho para observar los
cambios de temperatura. En 1603 invirtió un tubo de aire caliente sobre una vasija
de agua. Cuando el aire en el tubo se enfrió hasta igualar la temperatura de la
habitación dejó subir el agua por el tubo, y de este modo consiguió Galileo su
«termómetro» (del griego thermes y metron, «medida de calor»). Cuando variaba
cuerpo se aproximaba a los 100º, aunque para ser exactos es, normalmente, de
98,6º Fahrenheit.
Ordinariamente, la temperatura del cuerpo es tan constante que si sobrepasa en un
grado o dos el nivel normal se dice que el cuerpo tiene fiebre y, por tanto, muestra
síntomas evidentes de enfermedad. En 1858, el médico alemán Karl August
Wunderlich implantó las frecuentes comprobaciones de la temperatura corporal
como nuevo procedimiento para seguir el curso de una enfermedad. En la década
siguiente, el médico británico Thomas Clifford Allbutt inventó el «termómetro
clínico» cuyo estrecho tubo lleno de mercurio tiene un estrangulamiento en la parte
inferior. El mercurio se eleva hasta las cifras máximas cuando se coloca el
termómetro dentro de la boca, pero no desciende al retirarlo para leer la
temperatura. El hilo de mercurio se divide simplemente por el estrangulamiento,
dejando fija la porción superior para una lectura constante. En Gran Bretaña y los
Estados Unidos se emplea todavía la escala Fahrenheit y están familiarizados con
ella en todas las observaciones cotidianas, tales como informes meteorológicos y
utilización de termómetros clínicos.
Sin embargo, en 1742 el astrónomo sueco Anders Celsius adoptó una escala
diferente. En su forma definitiva, este sistema estableció el punto 0 para la
solidificación del agua y el 100 para la ebullición. Con arreglo al margen de división
centesimal donde el agua conserva su estado líquido, se denominó a esta escala,
«centígrada», del latín centum y gradus, significando «cien peldaños». Casi todas
las personas hablan de «grados centígrados» cuando se refieren a las medidas de
esta escala, pero los científicos rebautizaron la escala con el nombre del inventor,
siguiendo el precedente Fahrenheit- en una conferencia internacional celebrada el
año 1948. Oficialmente, pues, se debe hablar de «escala Celsius» y «grados
Celsius». Todavía se conserva el signo «C». Entretanto, la escala «Celsius» ha
ganado preponderancia en casi todo el mundo civilizado. Los científicos, en
particular, encuentran muy conveniente esta escala.
La temperatura mide la intensidad del calor pero no su cantidad. El calor fluye
siempre desde un lugar de altas temperaturas hacia un lugar de bajas
temperaturas, hasta que ambas temperaturas se igualan, tal como el agua fluye de
un nivel superior a otro inferior hasta que se equilibran los dos niveles. Eso es
válido, cualesquiera que sean las cantidades relativas de calor contenidas en los
cuerpos. Aunque una bañera de agua tibia contenga mucho más calor que una
cerilla encendida, si metemos la cerilla en el agua, el calor fluye de la cerilla hacia el
agua y no al contrario.
Joseph Black, quien hizo un importante estudio sobre los gases (véase capítulo IV),
fue el primero en establecer la distinción entre temperatura y calor. En 1760
anunció que varias sustancias daban temperaturas diferentes cuando se les aplicaba
la misma cantidad de calor. El elevar en un grado Celsius la temperatura de un
gramo de hierro requería tres veces más calor que el calentar en la misma
proporción un gramo de plomo. Y el berilio necesitaba tres veces más calor que el
hierro.
Por añadidura, Black demostró la posibilidad de introducir calor en una sustancia sin
elevar lo más mínimo su temperatura. Cuando se caliente el hielo, éste se derrite
lentamente, desde luego, pero no hay aumento de temperatura. A su debido
tiempo, el calor liquidará todo el hielo, pero la temperatura del hielo no rebasa
jamás los 0º C. Lo mismo ocurre en el caso del agua hirviente a 100º C. Cuando el
calor se transmite al agua, ésta escapa en cantidades cada vez mayores en forma
de vapor, pero la temperatura del líquido no varía.
El invento de la máquina de vapor (véase capítulo VIII), coincidente más o menos
con los experimentos de Black, sirvió para que los científicos sintieran más interés
hacia el calor y la temperatura. Muchos empezaron a cavilar especulativamente
sobre la naturaleza del calor, tal como lo hicieran antes sobre la naturaleza de la
luz.
En ambos casos, calor y luz- hubieron dos teorías. Una mantuvo que el calor era
una sustancia material que podía verterse o transmitirse de una sustancia a otra. Se
la denominó «calórico» del latín caloris, «calor». Según este criterio, cuando la
madera arde, su calórico pasa a la llama, y de ésta a la olla sobre la llama, y de ahí
al agua dentro de la olla. Cuando el agua se llena de calórico, se convierte en vapor.
Hacia fines del siglo XVIII dos famosas observaciones dieron nacimiento a la teoría
que el calor es una forma de vibración. Una fue publicada por el físico y aventurero
Benjamin Thompson, un tory que abandonó el país durante la Revolución, se ganó
el título de conde de Rumford, y luego vagabundeó por toda Europa. En el año
Relación Masa-Energía
e = mc2
másico dé casi 16. (Las masas de las cantidades menores de oxígeno 17 y oxígeno
18 completaban el valor total, hasta 16.) Una generación después del
descubrimiento, los químicos siguieron comportándose como si no existiera,
ateniéndose a la antigua base, es decir, lo que se ha dado en llamar «pesos
atómicos químicos».
Sin embargo, la reacción de los físicos fue distinta. Prefirieron asignar exactamente
el valor 16,00000 a la masa del isótopo oxígeno 16 y determinar las restantes
masas sobre tal base. Ésta permitiría especificar los «pesos atómicos físicos».
Tomando, pues, como base el oxígeno 16 igual al patrón 16, el peso atómico del
propio oxígeno, con sus indicios de isótopos más pesados, fue 16,0044. En general,
los pesos atómicos físicos de todos los elementos serían un 0,027 % más elevados
que los de sus sinónimos, los pesos atómicos químicos.
En 1961, los físicos y los químicos llegaron a un compromiso. Se acordó determinar
los pesos atómicos sobre la base del isótopo carbono 12, al que se daría una masa
de 12,00000. Así, los números atómicos se basaron en un número másico
característico y adquirieron la mayor solidez fundamental posible. Por añadidura,
dicha base mantuvo los pesos atómicos casi exactamente como eran antes con el
antiguo sistema. Por ejemplo, sobre la base del carbono 12 igual al patrón 12, el
peso atómico del oxígeno es 15,9994.
Bien. Comencemos entonces por el átomo del carbono 12, cuya masa es igual a
12,0000. Su núcleo contiene 6 protones y 6 neutrones. Por las medidas
espectrográficas de masas resulta evidente que, sobre la base del carbono 12 igual
al patrón 12, la masa del protón es 1,007825, y la de un neutrón, 1,008665. Así,
pues, 6 protones deberán tener una masa de 6,046950 y 6 neutrones, 6,051990.
Los 12 nucleones juntos tendrán una masa de 12,104940. Pero la masa del carbono
12 es 12,00000. ¿Dónde ha ido a parar esa fracción de 0,104940?
La masa desaparecida es el «defecto de masa», el cual, dividido por el número
másico, nos da el defecto de masa por nucleón o la «fracción empaquetadora».
Realmente la masa no ha desaparecido, claro está. Se ha convertido en energía
según la ecuación Einstein y, por tanto, el defecto de masa es también la «energía
aglutinadora» del núcleo. Para desintegrar el núcleo en protones y neutrones
individuales se requiere una cantidad entrante de energía igual a la energía
aglutinadora, puesto que se deberá formar una cantidad de masa equivalente a esa
energía.
Aston determinó la «fracción empaquetadora» de muchos núcleos, y descubrió que
ésta aumentaba desde el hidrógeno hasta los elementos próximos al hierro y luego
disminuía con lentitud en el resto de la tabla periódica. Dicho de otra forma: la
energía aglutinadora por nucleón era más elevada en el centro de la tabla periódica.
Ello significaba que la conversión de un elemento situado en un extremo u otro de la
tabla en otro próximo al centro, debería liberar energía.
Tomemos por ejemplo el uranio 238. Este núcleo se desintegra mediante una serie
de eslabones en plomo 206. Durante tal proceso emiten 8 partículas alfa. (También
cede partículas beta, pero éstas son tan ligeras, que se las puede descartar.) Ahora
bien, la masa del plomo a es 205,9745, y las 8 partículas alfa dan una masa total de
32,0208. Estos productos juntos totalizan 237,9953 de masa. Pero la del uranio
238, de donde proceden, es 238,0506. La diferencia o pérdida de masa es 0,0553.
Esta pérdida de masa tiene la magnitud suficiente como para justificar la energía
liberada cuando se desintegra el uranio.
Al desintegrarse el uranio en átomos todavía más pequeños, como le ocurre con la
fisión, libera una cantidad mucho mayor de energía. Y cuando el hidrógeno se
convierte en helio, tal como se encuentra en las estrellas, hay una pérdida
fraccional aún mayor de masa y, consecuentemente, un desarrollo más rico de
energía.
Por entonces, los físicos empezaron a considerar la equivalencia masa-energía como
una contabilidad muy fiable. Citemos un ejemplo. Cuando se descubrió el positrón
en 1934, su aniquilamiento recíproco con un electrón produjo un par de rayos
gamma cuya energía fue precisamente, igual a la masa de las dos partículas. Por
añadidura, se pudo crear masa con las apropiadas cantidades de energía. Un rayo
gamma de adecuada energía, desaparecería en ciertas condiciones, para originar
una «pareja electrón-positrón» creada con energía pura. Mayores cantidades de
energía proporcionadas por partículas cósmicas o partículas expulsadas de
sincrotones protón (véase capítulo VI), promoverían la creación de más partículas
masivas, tales como mesones y antiprotones.
Partículas y Ondas
En la década de los años veinte de nuestro siglo, el dualismo reinó sin disputa sobre
la Física. Planck había demostrado que la radiación tenía carácter de partícula y
onda a partes iguales. Einstein había demostrado que masa y energía eran dos
caras de la misma moneda y que espacio y tiempo eran inseparables. Los físicos
empezaban a buscar otros dualismos.
En 1923, el físico francés Louis-Victor de Broglie consiguió demostrar que así como
una radiación tenía características de partículas, las partículas de materia tal como
los electrones presentaban características de ondas. Las ondas asociadas a esas
partículas, predijo De Broglie- tendrían una longitud inversamente proporcional al
momento de la partícula. Las longitudes de onda asociadas a electrones de
velocidad moderada deben hallarse, según calculó Broglie, en la región de los rayos
X.
Hasta esa sorprendente predicción pasó a la Historia en 1927. Clinton Joseph
Davisson y Lester Halbert Germer, de los «Bell Telephone Laboratories»,
bombardearon níquel metálico con electrones. Debido a un accidente de laboratorio
que había hecho necesario el calentamiento del níquel durante largo tiempo, el
metal había adoptado la forma de grandes cristales, una estructura ideal para los
ensayos de difracción porque el espacio entre átomos en un cristal es comparable a
las cortísimas longitudes de onda de los electrones. Y, efectivamente, los
electrones, al pasar a través de esos cristales, no se comportaron como partículas,
sino como ondas. La película colocada detrás del níquel mostró esquemas de
interferencia, bandas alternativas opacas y claras, tal como habrían aparecido si
hubieran sido rayos X y no electrones los que atravesaron el níquel.
Los esquemas de interferencias eran precisamente los que usara Young más de un
siglo antes para probar la naturaleza ondulatoria de la luz. Ahora servían para
probar la naturaleza ondulatoria de los electrones. Midiendo las bandas de
interferencia se pudo calcular la longitud de onda asociada con los electrones, y esta
longitud resultó ser de 1,65 unidades Ångström (casi exactamente lo que había
previsto De Broglie).
Durante aquel mismo año, el físico británico George Paget Thomson, trabajando
independientemente y empleando métodos diferentes, demostró asimismo que los
electrones tienen propiedades ondulatorias.
De Broglie recibió el premio Nobel de Física en 1929; Davisson y Thomson
compartieron ese mismo galardón en 1937.
El descubrimiento, totalmente inesperado, de ese nuevo dualismo, recibió casi
inmediata aplicación en las observaciones microscópicas. Según he mencionado ya,
los microscopios ópticos ordinarios pierden toda utilidad cuando se llega a cierto
punto, porque hay un límite dimensional más allá del cual las ondas luminosas no
pueden definir claramente los objetos. Cuanto más pequeños sean los objetos, más
indistintos serán sus perfiles, pues las ondas luminosas empezarán a contornearlos,
algo señalado, en primer lugar, por el físico alemán Ernst Karl Abbe en 1878-. (Por
idéntica razón, la onda larga radioeléctrica nos transmite un cuadro borroso incluso
de grandes objetos en el cielo.) Desde luego, el remedio consiste en buscar
longitudes de onda más cortas para investigar objetos ínfimos. Los microscopios de
luz corriente pueden distinguir dos franjas de 1/5.000 de milímetro, pero los
microscopios de luz ultravioleta pueden distinguir franjas separadas de 1/10.000 de
mm. Los rayos X serían más eficaces todavía, pero no hay lentes para rayos X. Sin
embargo, se podría solventar este problema usando ondas asociadas con electrones
que tienen más o menos la misma longitud de onda que los rayos X, pero se dejan
manejar mucho mejor, pues, por lo pronto, un campo magnético puede curvar los
«rayos electrónicos» porque las ondas se asocian con una partícula cargada.
Así como el ojo humano ve la imagen amplificada de un objeto si se manejan
apropiadamente con lentes los rayos luminosos, una fotografía puede registrar la
imagen amplificada de un objeto si se manejan apropiadamente con campos
magnéticos las ondas electrónicas. Y como quiera que las longitudes de ondas
asociadas a los electrones son mucho más pequeñas que las de la luz ordinaria, es
posible obtener con el «microscopio electrónico» una enorme amplificación, y, desde
luego, muy superior a la del microscopio ordinario.
En 1932, Ernst Ruska y Max Knoll, de Alemania, construyeron un microscopio
electrónico rudimentario, pero el primero realmente utilizable se montó, en 1937,
en la Universidad de Toronto, y sus diseñadores fueron James Hillier y Albert F.
Prebus. Aquel instrumento pudo ampliar 7.000 veces un objeto, mientras que los
mejores microscopios ópticos tienen su máximo poder amplificador en la cota
2.000. Allá por 1939, los electrones microscópicos fueron ya asequibles
comercialmente; más tarde, Hillier y otros diseñaron microscopios electrónicos con
suficiente potencia para amplificar 350.000 veces un objeto.
Un «microscopio protónico», si se consiguiera construir tal cosa- proporcionaría
amplificaciones mucho mayores que un microscopio electrónico, porque las ondas
asociadas al protón son más cortas. En cierto, modo, el sincrotrón protónico es una
especie de microscopio protónico pues escudriña el interior del núcleo con sus
protones acelerados. Cuanto mayor es la velocidad de protón, tanto mayores su
momento y tanto más corta la onda asociada a él. Los protones con una energía de
1 MeV pueden «ver» el núcleo, mientras que a 20 MeV «escrutan» ya el interior del
núcleo. He aquí otra razón por la cual los físicos se empeñan en acumular el mayor
número posible de electronvolts en sus aceleradores atómicos al objeto de «ver»
con más claridad lo «ultradiminuto».
Nadie se habría sorprendido demasiado si ese dualismo partícula-onda funcionara a
la inversa, de tal forma que los fenómenos conceptuados ordinariamente como de
naturaleza ondulatoria tuvieran asimismo características corpusculares. Planck y
Einstein habían mostrado ya que la radiación se componía de cuantos, los cuales, a
su manera, son también partículas. En 1923, Compton, el físico que probaría la
naturaleza corpuscular de los rayos cósmicos (véase capítulo VI), demostró que
esos cuantos poseían algunas cualidades corpusculares comunes. Descubrió que los
rayos X, al dispersarse en la materia, perdían y adquirían mayor longitud de onda.
Eso era justamente lo que cabía esperar, de una radiación «corpuscular» que
rebotara contra una materia corpuscular; la materia corpuscular recibe un impulso
Alemania, planteó una profunda cuestión, que casi proyectó las partículas y la
propia Física al reino de lo incognoscible.
Heisenberg había presentado su propio modelo de átomo renunciando a todo
intento de describir el átomo como un compuesto de partículas y ondas. Pensó que
estaba condenado al fracaso cualquier intento de establecer analogías entre la
estructura atómica y la estructura del mundo. Prefirió describir los niveles de
energía u órbitas de electrones en términos numéricos puros, sin la menor traza de
esquemas. Como quiera que usó un artificio matemático denominado «matriz» para
manipular sus números, el sistema se denominó «mecánica de matriz».
Heisenberg recibió el premio Nobel de Física en 1932 por sus aportaciones a la
mecánica cuántica, pero su sistema «matriz» fue menos popular entre los físicos
que la mecánica ondulatoria de Schrödinger, pues esta última pareció tan útil como
las abstracciones de Heisenberg, y siempre es difícil, incluso para un físico, desistir
de representar gráficamente las propias ideas.
Hacia 1944, los físicos parecieron dispuestos a seguir el procedimiento más
correcto, pues el matemático húngaro-estadounidense John von Neumann expuso
una línea argumental que pareció evidenciar la equivalencia matemática entre la
mecánica matriz y la mecánica ondulatoria. Todo cuanto demostraba la una, lo
podía demostrar igualmente la otra. ¿Por qué no elegir, pues, la versión menos
abstracta? (No obstante, en 1964 Dirac se preguntó si existía realmente tal
equivalencia. Él cree que no, y se inclina por Heisenberg contra Schrödinger: las
matrices con prioridad sobre las ondas.)
Una vez presentada la mecánica matriz (para dar otro salto atrás en el tiempo),
Heisenber pasó a considerar un segundo problema: cómo describir la posición de la
partícula. ¿Cuál es el procedimiento indicado para determinar dónde está una
partícula? La respuesta obvia es ésta: observarla. Pues bien, imaginemos un
microscopio que pueda hacer visible un electrón. Si lo queremos ver debemos
proyectar una luz o alguna especie de radiación apropiada sobre él. Pero un electrón
es tan pequeño, que bastaría un solo fotón de luz para hacerle cambiar de posición
apenas lo tocara, y en el preciso instante de medir su posición, alteraríamos ésta.
Este es un fenómeno bastante frecuente en la vida ordinaria. Cuando medimos la
presión de un neumático con un manómetro, dejamos escapar algo de aire y, por
calculan con índices de mortalidad fiables, aunque sea imposible predecir cuándo
morirá un individuo determinado.
Ciertamente, en muchas observaciones científicas, la incertidumbre es tan
insignificante comparada con la escala correspondiente de medidas, que se la puede
descartar para todos los propósitos prácticos. Uno puede determinar
simultáneamente la posición y el movimiento de una estrella, o un planeta, o una
bola de billar, e incluso un grano de arena con exactitud absolutamente
satisfactoria.
Respecto a la incertidumbre entre las propias partículas subatómicas, cabe decir que
no representa un obstáculo, sino una verdadera ayuda para los físicos. Se la ha
empleado para esclarecer hechos sobre la radiactividad, sobre la absorción de
partículas subatómicas por los núcleos, así como otros muchos acontecimientos
subatómicos, con mucha más racionabilidad de lo que hubiera sido posible sin el
principio de incertidumbre.
El principio de incertidumbre significa que el Universo es más complejo de lo que se
suponía, pero no irracional.
Capítulo 8
LA MÁQUINA
Fuego y Vapor
La primera ley de la Termodinámica dice que no se puede crear energía de la nada.
Pero ninguna ley impide convertir cierta forma de energía en otra. La civilización
humana se ha erigido sobre los sucesivos hallazgos de nuevas fuentes energéticas y
su encauzamiento por caminos cada vez más eficaces y perfeccionados. De hecho,
los mayores descubrimientos en la historia de la Humanidad entrañaron métodos
para convertir en calor y luz la energía química de un combustible como la madera,
por ejemplo.
Hace quizá medio millón de años, nuestros antepasados «descubrieron» el fuego.
Sin duda habían ya visto mucho antes las zarzas incendiadas por el rayo y los
bosques en llamas... y procurarían ponerse a salvo. Es decir, el descubrimiento de
sus virtudes no llegó hasta que la curiosidad se sobrepuso al temor. Algún hombre
primitivo debió de sentirse atraído por los restos de tales incendios, unas ascuas
ardiendo débilmente, y se distraería con ellas echándole ramas secas y viendo cómo
danzaban las llamas. Y, al llegar la noche, apreciaría la luz y el calor del fuego, así
como su eficaz acción contra las fieras. Algún día debió de aprender a hacer fuego
frotando dos palos, al objeto de utilizar éste con mayor facilidad y seguridad para
caldear su campamento o caverna, o asar las piezas cobradas, haciendo así más
gustosa y masticable la carne.
El fuego proporcionó al hombre unas reservas prácticamente inagotables de
energía, y por ello es considerado como el mayor descubrimiento de la
Humanidad... el que elevó al hombre sobre su primitivo nivel de animal. Sin
embargo, y aunque parezca extraño, hubieron de transcurrir muchos milenios, en
realidad hasta la Revolución Industrial- para que el hombre discerniera una pequeña
parte de sus inmensas posibilidades. Lo empleó para calentar e iluminar su hogar,
para cocinar sus alimentos, trabajar los metales, hacer cacharros de barro o vidrio...
pero, más o menos, a eso se redujo todo.
Entre tanto fueron descubiertas otras fuentes de energía. Algunas de las más
importantes se desarrollaron durante las llamadas «Edades tenebrosas». En la Edad
Media, el hombre empezó a quemar en sus hornos metalúrgicos esa roca negra
llamada carbón, a dominar el viento con molinos, emplear molinos de agua para
triturar el grano, aprovechar la energía magnética con la brújula y utilizar
explosivos con finalidades bélicas.
Allá por el año 670 d. de J.C., un alquimista sirio, Calínico, inventó, según se cree,
el «fuego griego», una primitiva bomba incendiaria de azufre y nafta, a la que se
atribuye la salvación de Constantinopla cuando los musulmanes le pusieron sitio por
primera vez. La pólvora llegó a Europa en el siglo XIII. Roger Bacon la describió
hacia el año 1280, pero ya se la conocía en Asia desde muchos siglos atrás, y tal
vez se introdujera en Europa con las invasiones mogólicas iniciadas el año 1240.
Sea como fuere, la artillería cual arma de fuego llegó a Europa en el siglo XIV y se
supone que los cañones hicieron su primera aparición en la batalla de Crécy, el año
1346.
El más importante de los inventos medievales es el atribuido al alemán Johann
Gutenberg. Hacia 1450, Gutenberg creó el primer tipo movible, y, con él, hizo de la
imprenta una poderosa fuerza de comunicación y propaganda. También fabricó la
tinta de imprenta, en la que el negro de humo estaba disuelto en aceite de linaza y
no, como hasta entonces, en agua. Esto, junto con la sustitución del pergamino por
el papel (invento, según la tradición- de un eunuco chino. Ts’ai Lun, el año 50 d. de
J.C., que llegó a la Europa moderna por conducto árabe en el siglo XIII), posibilitó la
producción a gran escala y distribución de libros y otro material escrito. Ninguna
otra invención anterior a los tiempos modernos se adoptó tan rápidamente. Una
generación después del descubrimiento se habían impreso ya 40.000 libros.
Los conocimientos documentales del género humano no estuvieron ya ocultos en las
colecciones reales de manuscritos, sino que fueron accesibles en las bibliotecas para
todos quienes supieran leer. Los folletos crearon y dieron expresión a la opinión
pública. (La imprenta tuvo una gran participación en el éxito de la revuelta de
Martín Lutero contra el Papado, que, de otra forma, hubiera sido simplemente un
litigio privado.) Y también ha sido la imprenta, como todos sabemos, uno de los
instrumentos que han hecho de la Ciencia lo que hoy es. Esta herramienta
indispensable entrañaba una vasta divulgación de ideas. Hasta entonces, la Ciencia
había sido un asunto de comunicaciones personales entre unos cuantos aficionados;
pero, desde aquellas fechas, un campo principalísimo de actividad que alistó cada
vez más trabajadores, suscitó el ensayo crítico e inmediato de las teorías y abrió sin
cesar nuevas fronteras.
La subordinación de la energía al hombre alcanzó su momento trascendental hacia
fines del siglo XVII, aunque ya se habían manifestado algunos indicios tímidos en
los tiempos antiguos. El inventor griego Herón de Alejandría, construyó, durante los
primeros siglos de la Era cristiana (no se puede siquiera, situar su vida en un siglo
concreto), cierto numero de artificios movidos por la fuerza del vapor. Empleó la
expansión del vapor para abrir puertas de templos, hacer girar esferas, etc. El
mundo antiguo cuya decadencia se acentuaba ya por entonces, no pudo asimilar
esos adelantos prematuros.
Quince siglos después, se ofreció la segunda oportunidad a una sociedad nueva en
vías de vigorosa expansión. Fue producto de una necesidad cada vez más
apremiante: bombear agua de las minas, cuya profundidad crecía sin cesar. La
antigua bomba aspirante de mano (véase capítulo IV) empleó el vacío para elevar el
agua; y, a medida que progresaba el siglo XVII, los hombres comprendieron mejor
el inmenso poder del vacío (o, más bien, la fuerza que ejerce la presión del aire en
el vacío).
Por ejemplo, en 1650, el físico alemán (alcalde de Magdeburgo) Otto von Guericke,
inventó una bomba de aire accionada por la fuerza muscular. Montó dos hemisferios
metálicos unidos por un conducto y empezó a extraer el aire de su interior con una
bomba aplicada a la boquilla de un hemisferio. Cuando la presión del aire interior
descendía, la presión atmosférica, falta de equilibrio, unía los hemisferios con fuerza
siempre creciente. Por último, dos troncos de caballos tirando en direcciones
opuestas no pudieron separar los hemisferios, pero cuando se daba otra vez entrada
al aire, éstos se separaban por sí solos.
Se efectuó ese experimento ante personajes muy importantes, incluyendo en cierta
ocasión al propio emperador alemán. Causó gran sensación. Entonces, a varios
inventores se les ocurrió una idea: ¿Por qué no usar el vapor en lugar de la fuerza
muscular para crear el vacío?
en la obra Veinte mil leguas de viaje submarino, publicada el año 1870. Éste, a su
vez, sirvió de inspiración para bautizar al primer submarino nuclear (véase capítulo
I).
Electricidad
Si consideramos la naturaleza de las cosas, la máquina de vapor es aplicable sólo a
la producción de fuerza en gran escala y continua. No puede proporcionar
eficazmente pequeños impulsos de energía, ni obedecer, con carácter intermitente,
al hecho de presionar un botón: sería un absurdo una «minúscula» máquina de
vapor cuyo fuego se encendiera y apagara a voluntad. Pero la misma generación
que presenciara el desarrollo de esa máquina, asistió también al descubrimiento de
un medio para convertir la energía en la forma que acabamos de mencionar: una
reserva permanente de energía, dispuesta para su entrega inmediata en cualquier
lugar y en cantidades pequeñas o grandes, oprimiendo un botón. Como es natural,
dicha forma es la electricidad.
El filósofo griego Tales de Mileto (en 600 a. de J.C.) observó que una resina fósil
descubierta en las playas del Báltico, a la cual nosotros llamamos ámbar y ellos
denominaban elektron, tenía la propiedad de atraer plumas, hilos o pelusa cuando
se la frotaba con un trozo de piel. El inglés William Gilbert, investigador del
magnetismo (véase capítulo III) fue quien sugirió que se denominara «electricidad»
a esa fuerza, nombre que recordaba la palabra griega elektron. Gilbert descubrió
que, además del ámbar, otras materias, tales como el cristal, adquirían propiedades
eléctricas con el frotamiento.
En 1733, el químico francés Charles-Francis de Cisternay du Fay descubrió que
cuando se magnetizaban, mediante el frotamiento, dos varillas de ámbar o cristal,
ambas se repelían. Y, sin embargo, una varilla de vidrio atraía a otra de ámbar
igualmente electrificada. Y, si se las hacía entrar en contacto, ambas perdían su
carga eléctrica. Entonces descubrió que ello evidenciaba la existencia de dos
electricidades distintas: «vítrea» y «resinosa».
Experimento de Franklin
Lo más afortunado de este experimento, según la opinión del propio Franklin- fue
que él sobrevivió a la prueba. Otros que también lo intentaron, resultaron muertos,
pues la carga inducida en el alambre puntiagudo del cometa se acumuló hasta el
punto de transmitir una descarga de alto voltaje al cuerpo del individuo que
sujetaba el cometa.
Franklin completó en seguida esta investigación teórica con una aplicación práctica.
Ideó el «pararrayos», que fue simplemente una barra de hierro situada sobre el
punto más alto de una edificación y conectada con alambre a tierra; su puntiagudo
extremo canalizaba las cargas eléctricas de las nubes, según demostró
experimentalmente Franklin, y cuando golpeaba el rayo, la carga se deslizaba hasta
el suelo sin causar daño.
Los estragos ocasionados por el rayo disminuyeron drásticamente tan pronto como
esas barras se alzaron sobre los edificios de toda Europa y las colonias
americanas... No fue un flaco servicio. Sin embargo, hoy siguen llegando a la tierra
dos mil millones de rayos por año, matando a veinte personas y causando ochenta
heridos cada día (según rezan las estadísticas).
El experimento de Franklin tuvo dos efectos electrizantes (pido perdón por el
retruécano). En primer lugar, el mundo se interesó súbitamente por la electricidad.
Por otra parte, las colonias americanas empezaron a contar en el aspecto cultural.
Por primera vez, un americano evidenció la suficiente capacidad científica como
para impresionar a los cultos europeos del enciclopedismo. Veinticinco años
después, cuando, en busca de ayuda, Franklin representó a los incipientes Estados
Unidos en Versalles, se ganó el respeto de todos, no sólo como enviado de una
nueva República, sino también como el sabio que había domado el rayo, haciéndole
descender humildemente a la tierra. Aquel cometa volador coadyuvó no poco al
triunfo de la Independencia americana.
A partir de los experimentos de Franklin, la investigación eléctrica avanzó a grandes
zancadas. En 1785, el físico francés Charles-Augustin de Coulomb realizó
mediciones cuantitativas de la atracción y repulsión eléctricas. Demostró que esa
atracción (o repulsión) entre cargas determinadas varía en proporción inversa al
cuadrado de la distancia. En tal aspecto la atracción eléctrica se asemejaba a la
generadora de c.c. en Nueva York, el año 1882, para producir la luz eléctrica que
había inventado. Se opuso a la c.a. alegando que era más peligrosa (recurrió, entre
otros ejemplos, a su empleo en la silla eléctrica).
Le presentó batalla Nikola Tesla, un ingeniero croata que había salido malparado
cuando colaboraba con Edison. Tesla ideó un sistema fructífero de c.a en 1888. Y
allá por 1893, George Westinghouse, asimismo un convencido de la c.a., ganó una
victoria crucial sobre Edison obteniendo para su compañía eléctrica el contrato para
construir la central eléctrica del Niágara, utilizando c.a. En décadas subsiguientes,
Steinmetz asentó la teoría de las corrientes alternas sobre firmes fundamentos
matemáticos. Hoy día, la c.a. es poco menos que universal en los sistemas de
distribución de energía eléctrica. (En 1966, ingenieros de la «General Electric»
crearon un transformador de c.c., antes considerado como imposible- pero que
supone temperaturas de helio líquido y una escasa eficiencia. Teóricamente es
fascinante, pero su uso comercial es aún improbable.)
Mecanismos Eléctricos
anuncio causó verdadero revuelo en las Bolsas de Nueva York y Londres, haciendo
tambalearse las acciones de las compañías de gas.
Louis-Jacques Mande Daguerre, así como el inglés William Henry Fox Talbot. Hacia
mediados del siglo XIX se pudieron obtener imágenes permanentes pintadas con
productos químicos.
Ante todo se enfoca la imagen sobre una placa de vidrio embadurnada con una
emulsión de sales argénticas. La luz produce un cambio químico en el compuesto,
cambio que es proporcional a la intensidad de la luz en un momento dado. Durante
este proceso, el revelador químico convierte en plata metálica las partes
transformadas por la luz, de nuevo en una cantidad proporcional a la intensidad de
la luz. Entonces se disuelve el compuesto argéntico no afectado, dejando un
«negativo», donde aparece la imagen como un escantillón en el que se combinan
varias intensidades de negro. La luz proyectada a través de los negativos invierte
las manchas claras y oscuras, formando la imagen positiva. En la década de 1850,
la fotografía evidenció casi inmediatamente su valor para la documentación humana
cuando los británicos fotografiaron escenas de la guerra de Crimea y cuando, en la
década siguiente, el americano Matthew Brady tomó fotografías clásicas de la
guerra civil americana con un material tan primitivo, que ahora lo consideraríamos
inútil para tal fin.
A lo largo del siglo XIX se simplificó y aceleró gradualmente ese proceso. El inventor
americano George Eastman ideó las placas secas (en lugar de la emulsión húmeda
original), y luego adoptó la película plástica como base para la emulsión. Se
fabricaron emulsiones más sensibles con el fin de acelerar el disparo fotográfico
para que el sujeto no necesitara «posar».
Desde la Segunda Guerra Mundial se ha simplificado aún más el procedimiento
mediante la «cámara Land», inventada por Edwin Herbert Land, de la «Polaroid
Corporation». Aquí se emplean dos películas donde se revelan automáticamente el
negativo y el positivo por medio de productos químicos incorporados a la propia
película.
A principios del siglo XX, el físico francés de origen luxemburgués Gabriel Lippmann
desarrolló un proceso de fotografía en color que le valió el premio Nobel de Física en
1908. Pero aquello fue una falsa alarma; la fotografía en color no se perfeccionó a
nivel industrial hasta 1936. Este segundo y afortunado intento se basó en la
observación hecha por Maxwell y Von Helmholtz en 1855, y según la cual es posible
componer cualquier color del espectro combinando el rojo, el verde y el azul pálido.
Con arreglo a este principio, el color fílmico está compuesto por tres capas de
emulsiones: una, sensible al rojo; otra, al verde; y una tercera, a los componentes
azulados de la imagen. Así se forman tres imágenes separadas, pero superpuestas,
y cada una reproduce la intensidad lumínica en su zona del espectro, cual una
representación en negro y blanco. Entonces se revela la película en tres fases
consecutivas, utilizando tintas rojas, azules y verdes, para depositar sobre el
negativo los colores apropiados. Cada matiz de la fotografía es una combinación
específica de rojo, verde y azul; el cerebro debe interpretar esas combinaciones
para reconstituir toda la gama de colores.
En 1959, Land expuso una nueva teoría sobre la visión del color. Según él, el
cerebro no requiere una combinación de tres colores para dar la impresión de
colorido total. Todo cuanto necesita es dos longitudes de onda diferentes (o grupos
de longitudes de ondas), una algo más larga que la otra. Por ejemplo, un grupo de
longitudes de ondas puede ser un espectro entero o luz blanca. Como su longitud de
onda (promedio) está en la zona amarillo-verde, puede servir de «onda corta».
Ahora bien, una imagen reproducida mediante la combinación de luces blanca y roja
(esta última actuaría como onda larga), aparece a todo color. Land ha hecho
también fotografías a todo color con luces verde y roja filtrada, así como otras
combinaciones binarias apropiadas.
El invento del cinematógrafo se debió a una primera observación del físico inglés
Peter Mark Roget, en 1824. Este científico observó que el ojo humano retiene una
imagen persistente durante una fracción apreciable de segundo. Tras la introducción
de la fotografía, muchos experimentadores, particularmente en Francia,
aprovecharon esa propiedad para crear la ilusión de movimiento exhibiendo en
rápida sucesión una serie de estampas. Todo el mundo está familiarizado con el
entretenimiento consistente en un mazo de cromos que, cuando se le trashoja con
rapidez, da la impresión que una figura se mueve y realiza acrobacias. Si se
proyecta sobre una pantalla, con intervalos de algunos dieciseisavos de segundo,
una serie de fotografías, siendo cada una de ellas algo distintas de la anterior, la
persistencia de esas imágenes sucesivas en el ojo dará lugar a enlaces sucesivos,
hasta causar la impresión de movimiento continuo.
Edison fue quien produjo la primera «película cinematográfica». Fotografió una serie
de escenas en una cinta y fuego pasó la película por un proyector que mostró,
sucesivamente, cada una con la correspondiente explosión luminosa. En 1894 se
exhibió, para entretenimiento público, la primera película cinematográfica, y, en
1914, los teatros proyectaron la cinta de largometraje The Birth of a Nation (El
nacimiento de una nación).
A las películas mudas se incorporó, en 1927, la banda sonora, en la cual, el sistema
ondulatorio de la música y la voz del actor se transforman en una corriente eléctrica
variable mediante un micrófono, y entonces esta corriente enciende una lámpara,
cuya luz se fotografía también junto con la acción cinematográfica. Cuando la
película acompañada de esa banda luminosa añadida en un borde se proyecta en la
pantalla, las variaciones luminosas de la lámpara en el esquema de ondas sonoras
se transforma de nuevo en corriente eléctrica por medio de un «tubo fotoeléctrico»,
y la corriente se convierte, a su vez, en sonido.
Dos años después de la primera «película sonora», El cantor de jazz, los filmes
mudos pasaron a la historia, tal como le ocurriera casi al vaudeville. Hacia fines de
los años 1930, se agregó el color a las «cintas habladas». Por añadidura, la década
de 1950 asistió al desarrollo del sistema de visión periférica, e incluso al de efectos
tridimensionales (3D), muy poco afortunado y duradero, consistente en la
proyección de dos imágenes sobre la pantalla. En este último caso, el espectador
debe usar gafas polarizadas para ver una imagen distinta con cada ojo, lo cual
produce un efecto estereoscópico.
Este artificio compacto, movido por las pequeñas explosiones provocadas dentro del
cilindro, permitió aplicar la fuerza motriz a vehículos menores, para los cuales no
resultaba funcional la voluminosa máquina de vapor. No obstante, ya en 1786
aparecieron «carruajes sin caballos», movidos por vapor, cuando William Murdock,
un socio de James Watt, decidió construir uno de semejantes artefactos. Un siglo
después, el inventor americano Francis Edgar Stanley diseñó la famosa Stanley
Steamer, que hizo la competencia a los primeros carruajes provistos con motores de
combustión interna. Sin embargo, el futuro pertenecía a estos últimos.
Realmente, se construyeron algunas máquinas de combustión interna a principios
del siglo XIX, antes que se generalizara el uso del petróleo. Éstas quemaron vapores
de trementina o hidrógeno como combustible. Pero ese artefacto no dejó de ser una
curiosidad hasta que empezó a utilizarse la gasolina, el líquido productor de vapor y,
a la vez, combustible cuya explotación resulta rentable y abundante.
En 1860, el inventor francés Étienne Lenoir construyó el primer motor práctico de
combustión interna y, en 1876, el técnico alemán Nikolaus August Otto diseñó un
motor de «cuatro tiempos». Primero, un pistón ajustado perfectamente al cilindro
recibe un impulso ascendente, de modo que el cilindro vacío absorbe una mezcla de
gasolina y aire. Luego, ese pistón recibe un nuevo impulso y comprime el vapor. En
el punto de máxima compresión, dicho vapor se enciende y explota. La explosión
dispara el pistón, y este movimiento acelerado es lo que hace funcionar el motor.
Mueve un árbol que empuja otra vez al pistón para hacerle expulsar los residuos
quemados, o «escape»; éste es el cuarto y último movimiento del ciclo. Entonces el
árbol mueve el pistón para repetir el ciclo.
Un ingeniero escocés llamado Dugald Clerk agregó casi inmediatamente una
mejora. Incorporó un segundo cilindro de forma que trabajara un pistón mientras el
otro estaba en estado de recuperación: ello dio más equilibrio a la producción de
fuerza. Al añadir después otros cilindros (ocho es el número más generalizado hoy
día), aumentó la armonía y potencia de ese «mecanismo compensador».
La ignición del compuesto gasolina-aire en el momento preciso planteó un
problema. Se emplearon toda clase de ingeniosos artificios, pero en 1923 se le dio
una solución general con la electricidad. El suministro proviene de una «batería
acumuladora». Ésta es una batería que, como cualquier otra, provee la electricidad
producida por una reacción química. Pero se la puede mantener cargada enviándole
una corriente eléctrica en dirección opuesta a la de descarga; esa corriente invierte
la reacción química, de modo que los productos químicos originen más electricidad.
Un pequeño generador movido por el motor suministra esa corriente inversa.
El tipo más común de batería tiene placas alternas de plomo y óxido de plomo, con
capas de ácido sulfúrico concentrado. Lo inventó el físico francés Gaston Planté en
1859, y fue modernizado en 1881 por el ingeniero electrotécnico americano Charles
Francis Brush. Desde entonces se han inventado otras baterías más resistentes y
compactas, como, por ejemplo, una batería de níquel y hierro, ideada por Edison
hacia 1905, pero ninguna puede competir en economía con la batería de plomo.
Para elevar el voltaje de la corriente eléctrica facilitada por la batería se emplean
transformadores denominados «carretes de inducción», y ese voltaje acrecentado
proporciona la chispa de ignición que salta en los electrodos de las populares bujías.
Una vez empieza a funcionar el motor de combustión interna, la inercia lo mantiene
en movimiento entre las fases de potencia. Mas, para hacerle arrancar es preciso
recurrir a la energía externa. Primeramente se hizo con fuerza muscular (por
ejemplo, la manivela del automóvil), y hoy día se ponen en marcha los motores
fuera borda y las máquinas segadoras tirando de un cable. El «arranque
automático» en los automóviles modernos se hace gracias a la batería, que provee
la energía necesaria para los primeros movimientos del motor.
En 1885, los ingenieros alemanes Gottlieb Daimler y Karl Benz construyeron,
independientemente, el primer automóvil funcional. Pero lo que en realidad
vulgarizó el automóvil como medio de transporte fue la «producción en serie».
El primer promotor de esa técnica fue Eli Whitney, quien merece más crédito por
ello que por su famoso invento de la máquina desmotadora del algodón. En 1789, el
Gobierno Federal contrató a Whitney para la fabricación de cañones destinados al
Ejército. Hasta entonces se habían fabricado esas piezas individualmente, es decir,
proveyendo a cada una con sus propios y particulares elementos. Whitney ideó un
medio para universalizar esos elementos, de modo que cada uno fuera aplicable a
cualquier cañón. Esta innovación tan simple, fabricación en serie de piezas
intercambiables para cualquier tipo de artículo- fue quizá tan influyente como otros
factores importantes en la producción industrial masiva de nuestros días. Cuando
apareció la maquinaria moderna, fue posible lanzar al mercado piezas de repuesto
en cantidades prácticamente ilimitadas.
El ingeniero estadounidense Henry Ford fue quien por primera vez explotó a fondo
este concepto. En 1892 había construido su primer automóvil (un modelo de dos
cilindros) y luego, desde 1899, había trabajado como ingeniero jefe de la «Detroit
Automobile Company». Esta empresa quería producir vehículos a gusto de cada
cliente, pero Ford tenía otras ideas. Así, pues, dimitió en el año 1902 para
5
El helicóptero tuvo un precursor en el autogiro, ideado por el ingeniero e inventor español Juan de la Cierva y
Codorníu. (N. de los T.)
Radio
En 1888, Heinrich Hertz realizó sus famosos experimentos para detectar las ondas
radioeléctricas que previera veinte años antes James Clerk Maxwell (véase capítulo
VII). Lo que hizo en realidad fue generar una corriente alterna de alto voltaje, que
surgía primero de una bola metálica y luego de otra; entre ambas había una
pequeña separación. Cuando el potencial alcanzaba su punto culminante en una
dirección u otra, enviaba una chispa a través del vacío. En estas circunstancias, y
según predecía la ecuación de Maxwell- se debía producir una radiación
electromagnética. Hertz empleó un receptor, consistente en una simple bobina de
alambre con una pequeña abertura en un extremo para detectar esa energía.
Cuando la corriente originaba una radiación en el primer dispositivo, dicha radiación
producía asimismo una corriente en el segundo. Hertz reparó en el salto de
pequeñas chispas en la abertura de su dispositivo detector situado lejos del
artefacto emisor, en el extremo opuesto de la habitación. Evidentemente, la energía
se transmitía a través del espacio.
Colocando su bobina detectora en diversos puntos del aposento, Hertz consiguió
definir la forma de las ondas. En el lugar donde las chispas se caracterizaban por su
brillantez, las ondas tenían un vientre acentuado. Cuando no saltaba chispa alguna,
eran estacionarias. Así pudo calcular la longitud de onda de la radiación. Comprobó
que estas ondas eran mucho más largas que las luminosas.
En la siguiente década, muchos investigadores pensaron que sería factible emplear
las «ondas hertzianas» pata transmitir mensajes de un lugar a otro, pues tales,
ondas podrían contornear los obstáculos gracias a su gran longitud. En 1890, el
físico francés Édouard Branley perfeccionó el receptor remplazando la bobina por un
tubo de vidrio lleno con limaduras de metal, al que se enlazaba, mediante hilos
eléctricos, una batería. Las limaduras no admitían la corriente de batería a menos
que se introdujera en ellas una corriente alterna de alto voltaje, tal como las ondas
hertzianas. Con este receptor pudo captar las ondas hertzianas a una distancia de
137 m. Más tarde, el físico inglés Oliver Joseph Lodge, quien ganó después cierto
prestigio equívoco como paladín del espiritismo, modificó ese artefacto
consiguiendo detectar señales a una distancia de 800 m y enviar mensajes en el
código Morse.
1903, que los electrones «fluían» de los filamentos metálicos calentados en el vacío.
Por ello le concedieron en 1928 el premio Nobel de Física.
En 1904, el ingeniero electrotécnico inglés John Ambrose Fleming aplicó, con suma
lucidez, el efecto Edison. Rodeó con una pieza cilíndrica metálica (llamada «placa»)
el filamento dentro de la ampolla.
Ahora bien, esa placa podía actuar en dos formas. Si estuviera cargada
positivamente, atraería a los electrones despedidos por el filamento incandescente y
crearía así un circuito eléctrico. Pero si su carga fuera negativa, repelería a los
electrones e impediría el flujo de la corriente. Supongamos, pues, que se conecta
esa placa con una fuente de corriente alterna. Cuando la corriente fluye en una
dirección, la placa adquiere carga positiva y deja pasar la corriente hasta el tubo;
cuando la corriente alterna cambia de dirección, la placa se carga negativamente, y
entonces no fluye ninguna corriente hacia el tubo. Por tanto, la placa deja pasar la
corriente en una sola dirección y la transforma de alterna en continua. Al actuar
dicho tubo como una válvula respecto a la corriente, los ingleses le dieron el
nombre de «válvula». En Estados Unidos sigue denominándose, vagamente,
«tubo». En sentido más universal, los científicos lo llaman «diodo», porque tiene
dos electrodos: el filamento y la placa.
El diodo sirve como «rectificador» en un receptor radiofónico, pues cambia la
corriente alterna en continua cuando es necesario. Allá por 1907, el inventor
americano Lee de Forest dio un paso más. Insertó un tercer electrodo en su tubo,
haciendo de él un «triodo». El tercer electrodo es una placa perforada («rejilla»)
entre el filamento y la placa.
La rejilla atrae electrones y acelera su flujo desde el filamento a la placa (por
conducto de los orificios). Un pequeño aumento de la carga positiva en la rejilla,
acrecentará considerablemente el flujo de electrones desde el filamento a la placa.
Por consiguiente, incluso la pequeña carga agregada a las débiles señales
radiofónicas incrementará sobremanera el flujo de corriente, y esta corriente
reflejará todas las variaciones impuestas por las ondas radioeléctricas. En otras
palabras, el triodo actúa como un «amplificador». Los triodos y otras modificaciones
aún más complicadas del tubo han llegado a ser elementos esenciales no sólo para
los aparatos radiofónicos, sino para toda clase de material electrónico. Aún era
necesario dar otro paso adelante si se quería popularizar realmente el receptor
radiofónico. Durante la Primera Guerra Mundial, el ingeniero electrotécnico
americano Edwin Howard Armstrong diseñó un dispositivo para reducir la frecuencia
de una onda radioeléctrica. Por aquellos días, su finalidad era la localización de
aviones enemigos, pero cuando acabó la guerra, se decidió aplicarlo al receptor
radiofónico. El «receptor superheterodino» de Armstrong permitió sintonizar
exactamente a una determinada frecuencia, mediante el simple giro de un pequeño
disco, labor que antes requería una interminable serie de tanteos en una gama de
posibles frecuencias. En 1921, una emisora de Pittsburgh inició sus programas
radiofónicos regulares. La imitaron, en rápida sucesión, otras emisoras, y, con el
control del volumen sonoro, así como la sintonización reducida a un breve tanteo,
los receptores radiofónicos adquirieron enorme popularidad. En 1927, las
conversaciones telefónicas pudieron atravesar los océanos, con ayuda de la Radio, y
fue un hecho el «teléfono inalámbrico».
Sólo subsistió el problema de la estática. Los sistemas sintonizadores implantados
por Marconi y sus sucesores redujeron el «ruido» de tormentas y otras
perturbaciones eléctricas, pero no lo eliminaron. Armstrong fue quien halló otra vez
la respuesta. Sustituyó la modulación de amplitud, sujeta a las interferencias de
fuentes sonoras en modulaciones accidentales de amplitud- por la modulación de
frecuencia. Es decir, mantuvo a nivel constante la amplitud de la onda radioeléctrica
portadora y dio prioridad a la variación de frecuencia. Cuando la onda sonora tenía
gran amplitud, se reducía la frecuencia de la onda portadora, y viceversa. La
frecuencia modulada (FM) eliminó virtualmente la estática, y los receptores FM
fueron solicitados, tras la Segunda Guerra Mundial, para programas de música
seria.
La televisión fue una consecuencia inevitable de la radio, tal como las películas
sonoras lo fueron de las mudas. El precursor técnico de la televisión fue el
transmisor telegráfico de fotografías. Esto equivalía a la reproducción fotográfica
mediante una corriente eléctrica: un fino rayo de luz pasaba a través de la imagen
en una película fotográfica y llegaba hasta una válvula fotoeléctrica situada detrás.
Cuando la película era relativamente opaca, se generaba una corriente débil en la
válvula fotoeléctrica; y cuando era más transparente, se formaba una poderosa
corriente. El rayo luminoso «barría» con rapidez la imagen de izquierda a derecha y
producía una corriente variable, que daba toda la imagen. La corriente se transmitía
por alambres, y en el punto de destino reproducía la imagen del filme mediante un
proceso inverso. Hacia principios de 1907, Londres transmitió hasta París estas
fotos telegráficas.
Televisión es la transmisión de una «cinta cinematográfica» en vez de fotografías,
ya sea o no «en directo». La transmisión debe ser muy rápida, lo cual significa que
se debe «barrer» la acción con suma celeridad. El esquema «claroscuro» de la
imagen se convierte en un esquema de impulsos eléctricos, mediante una cámara
en lugar de película, un revestimiento metálico que emite electrones bajo el impacto
de la luz.
En 1926, el inventor escocés John Logie Baird exhibió por primera vez un prototipo
de receptor de televisión. Pero el primer aparato funcional de televisión fue el
«iconoscopio», patentado en 1938 por el inventor norteamericano, de origen ruso,
Vladimir Kosma Zworykin. En el iconoscopio, la cara posterior de la cámara está
revestida con múltiples gotas de plata y películas de cesio.
se llena de innumerables puntos (claros u oscuros, según los casos), pero gracias a
la persistencia de la visión humana, no vemos solamente un cuadro completo, sino
también una secuencia ininterrumpida de movimiento y acción.
En la década de 1920 se hicieron ensayos con la televisión experimental, pero ésta
no pudo ser explotada comercialmente hasta 1947. Desde entonces acapara
bastante terreno del entretenimiento público. Hacia mediados de la década de 1950
se agregaron dos innovaciones. Mediante el empleo de tres tipos de material
fluorescente en la pantalla del televisor, ideados para reaccionar ante los rayos de
luz roja, azul y verde, se introdujo la televisión en color. Y el «videógrafo», sistema
de grabación simultánea de sonidos e imágenes, con cierto parecido a la banda
sonora de la cinta cinematográfica, posibilitó la reproducción de programas o
acontecimientos con más fidelidad que la proyección cinematográfica.
El tubo de rayos catódicos, verdadero corazón de todos los artificios electrónicos,
llegó a ser un factor limitativo. Por regla general, los componentes de un
mecanismo se perfeccionan progresivamente con el tiempo, lo cual significa que,
por un lado, se acrecientan su poder y flexibilidad, mientras por el otro se reducen
su tamaño y masa. (Eso se ha llamado a veces «miniaturización».) Pero el tubo de
rayos catódicos tuvo dificultades en su camino hacia la miniaturización. Y entonces,
de una forma totalmente casual, surgió una insospechada solución.
En la década de 1940, varios científicos de los «Bell Telephone Laboratories» se
interesaron por las sustancias llamadas «semiconductores». Estas sustancias, tales
como el silicio y el germanio, conducen la electricidad de una manera moderada.
Así, pues, el problema consistió en averiguar las causas de tal comportamiento. Los
investigadores de «Bell Telephone Laboratories» descubrieron que esa peculiar
conductividad obedecía a ciertas impurezas residuales mezcladas con el elemento.
Consideremos, por ejemplo, un cristal de germanio puro. Cada átomo tiene 4
electrones en su capa exterior y, según la disposición regular de los átomos en el
cristal, cada uno de los 4 electrones se empareja con un electrón del átomo
contiguo, así que todos los electrones forman pares unidos por lazos estables. Como
esa distribución es similar a la del diamante, todas las sustancias como el germanio,
silicio, etc., se denominan «diamantinas».
Así, el triodo semiconductor pudo servir como amplificador, tal como lo hubiera
hecho el triodo de un tubo catódico. Shockley y sus colaboradores Brattain y
Bardeen recibieron el premio Nobel de Física en 1956.
Por muy excelente que pareciera teóricamente el funcionamiento de los
transistores, su empleo en la práctica requirió ciertos adelantos concomitantes de la
tecnología. (Ésta es una realidad inalterable en la ciencia aplicada.) La eficiencia de
un transistor estribó no poco en el empleo de materiales extremadamente puros, de
corriente con gran precisión. Estos «emparedados túnel» ofrecen otro camino hacia
la «miniaturización».
Para poner de relieve las múltiples interconexiones científicas basta mencionar los
nuevos modelos de cohetes, que exigen formidables estructuras, pero también una
miniaturización intensiva, pues los vehículos espaciales que se colocan en órbita
suelen ser pequeños y deben ir abarrotados hasta los topes de diminutos
instrumentos.
Máser y Láser
Tal vez la novedad más fascinante entre todos los inventos recientes comience con
las investigaciones referentes a la molécula del amoníaco (NH3). Sus 3 átomos de
hidrógeno están dispuestos como si ocuparan los tres vértices de un triángulo
equilátero, mientras que el único átomo de nitrógeno se halla sobre el centro del
triángulo, a cierta distancia.
La molécula de amoníaco tiene capacidad para vibrar. Es decir, el átomo de
nitrógeno puede atravesar el plano triangular para ocupar una posición equivalente
en el lado opuesto, regresar luego al primer lado y proseguir indefinidamente ese
movimiento. En verdad se puede hacer vibrar la molécula del amoníaco con una
frecuencia natural de 24 mil millones de veces por segundo.
Este período vibratorio es extremadamente constante, mucho más que el período de
cualquier artificio cuyas vibraciones obedezcan a la acción humana; mucho más
constante, incluso, que el movimiento de los cuerpos astronómicos. Mediante
preparativos adecuados esas moléculas vibradoras pueden regular las corrientes
eléctricas, que, a su vez, regularán los aparatos cronometradores con una precisión
sin precedentes, algo demostrado en 1949 por el físico norteamericano Harold
Lyons. Hacia mediados de la década de los cincuenta, esos «relojes atómicos»
superaron largamente a todos los cronómetros ordinarios. En 1964 se consiguió
medir el tiempo con un error de 1 seg por cada 100.000 años, empleando un máser
que utilizaba átomos de hidrógeno.
En el curso de esas vibraciones, la molécula de amoníaco libera un rayo de radiación
electromagnética cuya frecuencia es de 24 mil millones de ciclos por segundo. Su
longitud de onda es 1,25 cm. Así, pues, está en la región de las microondas. Para
observar este hecho desde otro ángulo, basta imaginar que la molécula de
amoníaco puede ocupar uno de dos niveles energéticos cuya diferencia de energía
es igual a la de un fotón que represente una radiación de 1,25 cm. Si la molécula de
amoníaco desciende del nivel energético más alto al más bajo, emitirá un fotón de
dicho tamaño. Si una molécula en el nivel energético más bajo absorbe un fotón
semejante, se elevará inmediatamente al nivel energético más alto.
Pero, ¿qué ocurrirá cuando una molécula esté ya en el nivel energético más alto y
quede expuesta a tales fotones? Ya en 1917, Einstein señaló que si un fotón del
tamaño antedicho golpea a una molécula situada en el nivel superior, esta molécula
se deslizará al nivel inferior y emitirá un fotón de idénticas dimensiones, que se
moverá exactamente en la dirección del fotón entrante. Habrá, pues, dos fotones
iguales donde sólo existía antes uno. Esto fue confirmado experimentalmente en
1924.
Por tanto, el amoníaco expuesto a la radiación de microondas podría experimentar
dos posibles cambios: se aspiraría a las moléculas desde el nivel inferior al superior,
o se las empujaría desde el superior al inferior. En condiciones ordinarias
predominaría el primer proceso, pues sólo un porcentaje mínimo de moléculas
ocuparía en un instante dado el nivel energético superior.
Sin embargo, supongamos que se diera con algún método para colocar todas o casi
todas las moléculas en el nivel energético superior. Entonces predominaría el
movimiento de arriba abajo, y, ciertamente, ello originaría un interesante
acontecimiento. La radiación entrante de microondas proporcionaría un fotón, que
empujaría a la molécula hacia abajo. Luego se liberaría un segundo fotón, y los dos
se apresurarían a golpear otras tantas moléculas, con la consiguiente liberación de
un segundo par. Los cuatro provocarían la aparición de cuatro más, y así
sucesivamente. El fotón inicial desencadenaría un alud de fotones, todos del mismo
tamaño y moviéndose exactamente en la misma dirección.
En 1953, el físico norteamericano Charles Hard Townes ideó un método para aislar
las moléculas de amoníaco en el nivel energético superior y someterlas allí al
estímulo de fotones microonda del tamaño apropiado. Entonces entraban unos
cuantos fotones y se desataba una inundación de fotones. Así se pudo ampliar
considerablemente la radiación entrante.
llamar «máser óptico» a ese mayor productor de luz. O bien definir el singular
proceso como «light amplification by stimulated emission of radiation» y emplear el
nuevo grupo de iniciales para darle nombre: láser. Esta palabra se hizo cada vez
más popular.
En 1960 el físico norteamericano Theodore Harold Maiman construyó el primer láser
eficiente. Con tal fin empleó una barra de rubí sintético, que consiste,
esencialmente, en óxido de aluminio, más una cantidad mínima de óxido de cromo.
Si se expone a la luz esa barra de rubí, los electrones de los átomos de cromo
ascenderán a niveles superiores, y su caída se iniciará poco después. Los primeros
fotones de luz (emitidos con una longitud de onda de 694,3 mμ) estimulan la
producción de otros muchos fotones, y la barra emite súbitamente un rayo de fuerte
luz roja. Antes que terminara el año 1960, el físico persa Ali Javan, de los
laboratorios «Bell», preparó el láser continuo empleando una mezcla gaseosa (neón
y helio) como fuente de luz.
Onda láser continua con espejos cóncavos y ventanillas en ángulo Brewster sobre el
tubo de descarga. El tubo contiene un gas cuyos átomos se elevan a niveles
altamente energéticos mediante excitación electromagnética. Entonces se estimula
a esos átomos, introduciendo un rayo luminoso, para que emitan energía con
determinada longitud de onda. La cavidad resonante, actuando como un órgano,
constituye un tren de ondas coherentes entre los espejos terminales. El sutil rayo
que escapa es el llamado láser. (Según un dibujo de la revista Science, 9 de octubre
de 1964.)
El láser hizo posible la luz en una forma inédita. Fue la luz más intensa que jamás
se produjera y la más monocromática (una sola longitud de onda), pero no se
redujo a eso ni mucho menos.
La luz ordinaria producida de cualquier otra forma, desde la hoguera hasta el Sol,
pasando por la luciérnaga, se compone de paquetes de ondas relativamente cortas.
Cabe describirla como cortas porciones de ondas apuntando en varias direcciones. Y
son innumerables las que constituyen la luz ordinaria.
Sin embargo, la luz producida por un láser estimulado consta de fotones del mismo
tamaño y que se mueven en la misma dirección. Ello significa que los paquetes de
ondas tienen idéntica frecuencia, y como están alineados y enlazados por los
extremos, digámoslo de este modo, se fusionan entre sí. La luz parece estar
constituida por largos trechos de ondas cuya amplitud (altura) y frecuencia
(anchura) son uniformes. Ésta es la «luz coherente», porque los paquetes de ondas
parecen agruparse. Los físicos han aprendido a preparar la radiación coherente para
largas longitudes de onda, Pero eso no se había hecho nunca con la luz hasta 1960.
Por añadidura ideóse el láser de tal forma que se acentuó la tendencia natural de
los fotones a moverse en la misma dirección. Se trabajaron y platearon los dos
extremos del tubo de rubí para que sirvieran como espejos planos. Los fotones
emitidos circularon velozmente arriba y abajo de la barra, produciendo más fotones
con cada pasada, hasta adquirir la intensidad suficiente para escapar
explosivamente por el extremo donde el plateado era más ligero. Estos fotones
fueron precisamente los que habían sido emitidos en una dirección paralela al eje
longitudinal de la barra, por los que circulaban, arriba y abajo, golpeando
incesantemente los espejos extremos. Si un fotón de tamaño apropiado entraba en
la barra siguiendo una dirección diferente (aunque la diferencia fuera muy leve)
desencadenaba un tren de fotones estimulados en esa dirección diferente, éstos
escapaban por los costados de la barra, tras unas cuantas reflexiones.
Un rayo de luz láser está formado por ondas coherentes tan exactamente paralelas,
que puede recorrer largas distancias sin ensancharse ni perder, por tanto, toda
eficacia. Se puede enfocar con la precisión suficiente para calentar una cafetera a
unos 1.600 km de distancia, los rayos láser han alcanzado incluso la Luna en 1962,
y su diámetro se ha extendido sólo a 3 km después de recorrer en el espacio 402
millones de kilómetros.
Una vez inventado el láser, se evidenció un interés explosivo, y no exageramos
nada- por su desarrollo ulterior. Al cabo de pocos años se habían ideado lásers
individuales que podían producir luz coherente cuyas distintas longitudes de onda se
contaban por centenares: desde la cercana luz ultravioleta, hasta la distante
infrarroja.
Se obtuvo la acción láser de una infinita variedad de sólidos, óxidos metálicos,
fluoruros y tungstatos, semiconductores, líquidos y columnas gaseosas. Cada
variedad tenía sus ventajas y desventajas.
En 1964, el físico norteamericano Jerome V. V. Kasper ideó el primer láser químico.
En este láser, la fuente de energía es una reacción química. (En el caso del primero,
fue la disociación del CF3I mediante una pulsación lumínica.) La superioridad del
láser químico sobre las variedades ordinarias estriba en que se puede incorporar al
propio láser la reacción química productora de energía y, por tanto, no se requiere
una fuente externa de energía. Esto es análogo a la comparación entre un
mecanismo movido por baterías y otro que necesita una conexión con la red general
de fuerza. Aquí hay una ventaja obvia respecto a la manejabilidad, aparte que esos
lásers químicos parecen ser muy superiores, por su eficiencia, a las variedades
ordinarias (un 12 % largo, comparado con un 2 % corto).
Los lásers orgánicos, aquellos en los que se utiliza como fuente de luz coherente un
complejo tinte orgánico aparecieron en 1966 y fueron ideados por John R. Lankard y
Piotr Sorokin. La complejidad molecular posibilita la producción de luz mediante una
gran diversidad de reacciones electrónicas y, por consiguiente, con muy diversas
longitudes de onda. Así, es posible «sintonizar» un láser orgánico para que emita
cualquier longitud de onda dentro de una periferia determinada, en lugar de
confinarlo a una sola longitud de onda, como ocurre con los demás.
El rayo de la luz láser es muy fino, lo cual significa que se puede enfocar gran
cantidad de energía en un área sumamente reducida; dentro de esa área, la
temperatura alcanza niveles extremos. El láser puede vaporizar el metal para
rápidos análisis e investigaciones del espectro; también puede soldar, cortar y
perforar sustancias con un elevado punto de fusión. Aplicando el rayo láser al ojo
humano, los cirujanos han conseguido soldar tan rápidamente las retinas
desprendidas, que los tejidos circundantes no han sufrido la menor lesión por efecto
del calor; y han empleado un método similar para destruir tumores.
Capítulo 9
EL REACTOR
Fisión Nuclear
Los rápidos avances tecnológicos del siglo XX han sido posibles a costa de un
formidable incremento en nuestro consumo de la energía que producen las fuentes
terrestres. Cuando las naciones subdesarrolladas, con sus miles de millones de
habitantes, se incorporen a los países industrializados y compartan su alto nivel de
vida, el combustible se consumirá en proporciones aún más sensacionales. ¿Dónde
encontrará el género humano las reservas de energía requeridas para sustentar
semejante civilización?
Ya hemos visto desaparecer una gran parte de los bosques que cubren la superficie
terrestre. La madera fue el primer combustible del hombre. A principios de la Era
cristiana, casi toda Grecia, África del Norte y el Oriente Próximo fueron despojados
inexorablemente de sus florestas, en parte para obtener combustible, y, en parte,
para roturar la tierra con objeto de dedicarla a las tareas agropecuarias. La tala
indiscriminada de bosques fue un desastre de doble alcance. No sólo destruyó las
reservas de madera; el desmonte drástico de la tierra entrañó también la
destrucción más o menos permanente de toda fertilidad. Casi todas esas regiones
antiguas, que antaño sustentaran las más prósperas culturas humanas, son hoy día
estériles e improductivas y están pobladas por gentes incultas, míseras.
La Edad Media presenció la progresiva despoblación forestal de Europa Occidental, y
los tiempos modernos han visto una despoblación aún más rápida del continente
norteamericano. Apenas quedan ya grandes masas de madera virgen en las zonas
templadas del mundo, si se exceptúan Canadá y Siberia.
Parece improbable que el hombre pueda seguir adelante sin madera. Este material
será siempre necesario para fabricar papel, muebles y maderaje.
En cuanto al combustible, el carbón y el petróleo han ocupado el lugar de la
madera. El botánico griego Teofrasto ya mencionó el carbón nada menos que en el
año 200 antes de J.C., pero los primeros informes sobre minería carbonífera en
Europa datan del siglo XII. Durante el siglo XVII, Inglaterra, desprovista de bosques
y con necesidades muy urgentes de madera para su Armada, optó por el consumo
en gran escala de carbón, un cambio que echó los cimientos para la Revolución
Industrial.
Esta evolución fue muy lenta en otras partes. Incluso hacia 1800 la madera
proporcionaba el 94 % del combustible en los jóvenes Estados Unidos, con sus
densos bosques. En 1885, la madera cubrió todavía el 50 % de esas necesidades y
en 1900 sólo el 3 %. El equilibrio derivó, por añadidura, más allá del carbón, el
petróleo y el gas natural. En 1900, la energía suministrada por el carbón a los
Estados Unidos fue diez veces mayor que la del petróleo y gas juntos. Medio siglo
después, el carbón aportó solamente una tercera parte de la energía proporcionada
por el petróleo y el gas. Carbón, petróleo, y gas son «combustibles fósiles»,
reliquias de la vida vegetal, viejos eones... y una vez se consumen no es posible
remplazarlos. Respecto al carbón y el petróleo, el hombre vive de su capital
dilapidándolo a un ritmo extravagante.
Particularmente, el petróleo, se está agotando muy aprisa. Hoy día el mundo quema
un millón de barriles por hora, y el índice de consumo se eleva sin cesar. Aunque la
Tierra conserva todavía mil billones de barriles aproximadamente, se calcula que la
producción petrolífera alcanzará su punto culminante en 1980 y después empezará
a declinar. Desde luego, se puede fabricar petróleo artificial combinando el carbón
más común con hidrógeno bajo presión. Este proceso fue ideado en 1920 por el
químico alemán Friedrich Bergius, quien, por ello, compartió (con Bosch) el premio
Nobel de Química el año 1931. Por otra parte, las reservas carboníferas son grandes
sin duda, tal vez ronden los 7 mil billones de toneladas, pero, no todo ese carbón es
accesible a la minería. En el siglo XXV o quizás antes, el carbón puede llegar a ser
un artículo muy costoso.
Hay esperanzas de nuevos hallazgos. Tal vez nos aguarden algunas sorpresas a
juzgar por los indicios de carbón y petróleo en Australia, el Sahara y las regiones
antárticas. Además, los adelantos tecnológicos pueden abaratar la explotación de
cuencas carboníferas cada vez más profundas, horadar la tierra progresivamente en
busca de petróleo y extraer este combustible de las reservas submarinas.
Sin duda encontraremos los medios de usar nuestro combustible con más eficacia.
El proceso de quemar combustible para producir calor, convertir el agua en vapor,
mover un generador o crear electricidad, desperdicia grandes cantidades de energía
produce energía a un ritmo 50.000 veces mayor que toda la energía consumida en
nuestro planeta. A este respecto, la «batería solar» es un artificio particularmente
prometedor, pues hace uso también de semiconductores.
Célula de una batería solar. Los rayos solares inciden sobre la termo-oblea y liberan
los electrones, formando así pares de vacíos-electrones. La divisoria p-n actúa como
una barrera, o campo eléctrico, separando los electrones de los vacíos. Por tanto se
desarrolla una diferencia de potencial a través de la divisoria, y entonces fluye la
corriente por el circuito alámbrico.
La cantidad de energía que cae sobre un área de terreno en cualquier lugar soleado
de la Tierra es de 9,4 millones de kilovatios-hora por año. Si algunas zonas
especialmente favorecidas bajo ese aspecto, es decir, regiones desérticas como el
Valle de la Muerte y el Sahara, estuviesen cubiertas con baterías solares y
acumuladores eléctricos, podrían proveer al mundo con la electricidad necesaria por
tiempo indefinido..., concretamente tanto como viva la raza humana, si no se
suicida antes.
Pero, según parece, ni la presente generación ni la siguiente siquiera harán factible
el encauzamiento de la energía solar. Por fortuna, tenemos una inmensa fuente de
energía aquí, en la Tierra, que puede proveemos durante centenares de años
cuando nos quedemos sin el económico carbón y el petróleo. Es la energía
almacenada en el núcleo atómico.
Usualmente se denomina «energía atómica» a la energía nuclear, pero eso es un
craso yerro. Hablando estrictamente, la energía es aquélla liberada por reacciones
químicas tales como la combustión de carbón y petróleo, porque éstas representan
el comportamiento del átomo en su conjunto. La energía generada por los cambios
dentro del núcleo es de especie totalmente distinta y de magnitud mucho más
vasta.
Apenas descubierto el neutrón por Chadwick en 1932 los físicos comprendieron que
ahí se les ofrecía una maravillosa clave para desentrañar el núcleo atómico. Puesto
que el neutrón no tenía carga eléctrica, podría penetrar fácilmente en el núcleo
cargado. Los físicos empezaron inmediatamente a bombardear diversos núcleos con
neutrones para observar las posibles reacciones nucleares resultantes; entre los
más apasionados investigadores de esa nueva herramienta figuró el italiano Enrico
Fermi.
Fermi y sus colaboradores descubrieron que se obtenían mejores resultados cuando
se frenaba a los neutrones haciéndoles pasar primero por agua o parafina.
Proyectando protones contra el agua o la parafina, los neutrones moderan su
marcha tal como lo haría una bola de billar al recibir los golpes de otras. Cuando un
neutrón se traslada a la velocidad «termal» (velocidad normal en el movimiento de
los átomos), tiene mayores probabilidades de ser absorbido por el núcleo, porque
permanece más tiempo en la vecindad de éste. Hay otra forma de enfocarlo si se
Pero, ¿cómo identificar positivamente el nuevo elemento? ¿Cuáles deberían ser sus
propiedades químicas?
Pues bien, se pensó- el elemento 93 debería estar bajo el renio en la tabla periódica
y, por tanto, sería similar químicamente el renio. (En realidad, y aunque nadie lo
comprendiera por aquellas fechas, el elemento 93 pertenecía a una nueva y rara
serie, lo cual significaba que se asemejaría al uranio, no al renio [véase capítulo V];
así, pues, se partió con el pie izquierdo en la búsqueda de su identificación.) Si
fuera como el renio, tal vez se pudiera identificar la ínfima cantidad creada de
«elemento 93» mezclando los productos del bombardeo de neutrones con renio y
separando después el renio mediante procedimientos químicos. El renio actuaría
como un «vehículo», transportando consigo el «elemento 93», químicamente
similar. Si el renio demostrara poseer radiactividad, ello traicionaría la presencia del
elemento 93.
El físico alemán Otto Hahn y la científica austriaca Lise Meitner, trabajando juntos
en Berlín, siguieron esa línea de experimentación. El elemento 93 no se mostró con
el renio. Entonces Hahn y Meitner se preguntaron si el bombardeo de neutrones no
habría transformado el uranio en otros elementos cercanos a él en la tabla
periódica, y se propusieron averiguarlo. Por aquellas fechas, 1938- Alemania ocupó
Austria, y Fräulein Meitner, que como súbdita austriaca, se había sentido segura
hasta entonces a pesar de ser judía, se vio obligada a huir de la Alemania hitleriana
y buscar refugio en Estocolmo. Hahn prosiguió su trabajo con el físico alemán Fritz
Strassman.
Varios meses después, Hahn y Strassman descubrieron que el bario adquiría cierta
radiactividad cuando se le agregaba el uranio bombardeado. Ambos supusieron que
esa radiactividad debería pertenecer al radio, el elemento situado inmediatamente
debajo del bario en la tabla periódica. La conclusión fue que el bombardeo del
uranio con neutrones cambiaba una parte de aquél en radio.
Pero este radio resultó ser una materia muy peculiar. Pese a sus ímprobos
esfuerzos, Hahn no pudo separarlo del bario. Mientras tanto, en Francia, Irène
Joliot-Curie y su colaborador P. Savitch emprendieron una tarea similar y fracasaron
igualmente.
asistir a una conferencia de física teórica en Washington. Allí hizo saber a los físicos
lo que se le había sugerido en Dinamarca sobre la fisión nuclear. Aquello causó una
gran conmoción. Los congresistas regresaron inmediatamente a sus laboratorios
para comprobar la hipótesis y, al cabo de un mes, se anunciaron media docena de
confirmaciones experimentales. Como resultado de aquello se otorgó a Hahn el
premio Nobel de Química en 1944, y así se inició el trabajo que culminó con el arma
destructiva más terrible que jamás se ideara.
La Bomba Atómica
La reacción por fisión liberó cantidades desusadas de energía, superando
largamente a la radiactividad ordinaria. Pero no fue sólo esa energía adicional lo que
hizo de la fisión un fenómeno tan portentoso. Aún revistió más importancia el hecho
que liberara dos o tres neutrones. Dos meses después de la carta abierta publicada
por Meitner, numerosos físicos pensaron en la estremecedora posibilidad de una
«reacción nuclear en cadena».
La expresión «reacción en cadena» ha adquirido un significado exótico aún cuando,
realmente, es un fenómeno muy común. El quemar un simple trozo de papel es una
reacción en cadena. Una cerilla proporciona el calor requerido para desencadenar la
acción; una vez iniciada la combustión, ésta proporciona el verdadero agente, calor-
imprescindible para mantener y extender la llama. La combustión suscita más
combustión en proporciones siempre crecientes.
Eso es exactamente lo que sucede con la reacción nuclear en cadena. Un neutrón
desintegra un átomo de uranio; éste libera dos neutrones que pueden ocasionar dos
nuevas fisiones de las cuales se desprenderán cuatro neutrones que ocasionarán a
su vez cuatro fisiones, y así sucesivamente. El primer átomo desintegrado
suministra una energía de 200 MeV, el siguiente, 400 MeV, el otro 800 MeV, el
siguiente 1.600 MeV, etc. Puesto que los intervalos entre las fases consecutivas
equivalen aproximadamente a una mil billonésima de segundo se desprenden
cantidades aterradoras de energía. La fisión de una onza de uranio produce tanta
energía como la combustión de 90 t de carbón o 7.500 l de petróleo. Si se empleara
con fines pacíficos, la fisión del uranio podría solventar todas nuestras
Reacción nuclear en cadena del uranio. Los círculos rosado-negros son núcleos de
uranio; los puntos negros, neutrones; las flechas onduladas, rayos gamma; los
pequeños rosados-negros, fragmentos de la fisión.
Energía Nuclear
El empleo dramático de la energía nuclear, representada por bombas increíblemente
destructivas, ha hecho más que ningún otro acontecimiento desde los comienzos de
la Ciencia para presentar al científico en el papel de ogro.
Esa representación gráfica es justificable hasta cierto punto, pues ningún argumento
ni raciocinación puede alterar el hecho que fueron realmente los científicos quienes
construyeron la bomba atómica conociendo desde el primer instante su enorme
poder destructivo y su posible aplicación práctica.
Si se quiere hacer estricta justicia, es preciso añadir que obraron así bajo la presión
de una gran guerra contra enemigos inexorables y ante la espantosa posibilidad que
un ser tan maníaco como Adolf Hitler pudiera adelantarse y fabricar la bomba para
sus propios fines. Se debe agregar también que, por regla general, los científicos
atareados con la construcción de tales bombas evidenciaron una profunda
consternación y que muchos se opusieron a su empleo, mientras otros abandonaban
más tarde el campo de la física nuclear, inducidos por lo que sólo cabe describir
como remordimiento. Ciertamente se observaron menos remordimientos de
conciencia entre los jefes políticos y militares a quienes cupo la decisión de emplear
semejantes bombas.
Por otra parte, no podemos ni debemos descartar el hecho de que, cuando los
científicos liberaron la energía contenida en el núcleo atómico, pusieron a
disposición del hombre una fuerza que se puede emplear con fines constructivos
tanto como destructivos. Es importante hacerlo constar así en un mundo y una
época en los que la amenaza de una hecatombe nuclear hace adoptar a la Ciencia y
los científicos una tímida actitud defensiva, especialmente en un país como los
Estados Unidos con una tradición «rousseauniana» algo excesiva contra la
enseñanza mediante el libro por considerársela corruptora de la integridad original
del hombre en su estado natural.
Cabe decir incluso que la explosión de una bomba atómica no tiene por qué ser
exclusivamente destructiva. A semejanza de los explosivos químicos menores
usados desde antiguo en la minería o la construcción de diques y carreteras, los
explosivos nucleares podrían representar una enorme aportación en los proyectos
de ingeniería. Ya se han propuesto toda clase de fantásticos designios al respecto:
dragado de bahías y canales, voladura de estratos rocosos subyacentes,
almacenamiento de calor para producir energía e incluso propulsión a distancia de
las naves espaciales. Sin embargo, en los años sesenta decreció el furioso
entusiasmo que habían despertado esas esperanzas a largo plazo. La peligrosa
probabilidad de contaminación radiactiva, de un gasto adicional inadecuado o ambas
cosas a un tiempo, sirvieron de amortiguadores.
No obstante, la aplicación constructiva del poder nuclear quedó simbolizada por una
especie de reacción en cadena que se instaló bajo el estadio de rugby en la
Universidad de Chicago. Un reactor nuclear controlado puede generar inmensas
cantidades de calor que, desde luego, se prestan al encauzamiento, mediante un
Planta de energía nuclear del tipo «gas refrigerado» en forma esquemática. Aquí el
calor del reactor se transfiere a un gas que puede ser un metal vaporizado
circulando por él. Entonces se aprovecha el calor para transformar el agua en vapor.
Apenas transcurridos diez años desde la botadura de los primeros barcos nucleares,
los Estados Unidos tenían ya sesenta y un submarinos nucleares y cuatro buques
nucleares de superficie, unos navegando y otros en construcción o en proyecto
autorizado para futura construcción. Sin embargo, el entusiasmo por la propulsión
nuclear se extinguió también, exceptuando si acaso los submarinos. En 1967 se
retiraba el Savannah cuando cumplía los dos años de vida. Su mantenimiento
costaba tres millones de dólares cada año, cifra que se estimaba excesiva.
Pero no debería ser solamente el elemento militar quien se aprovechara de esa
innovación. En junio de 1954, la Unión Soviética hizo construir el primer reactor
nuclear para uso civil: producción de energía eléctrica. Fue uno pequeño todavía, su
capacidad no rebasó los 5.000 kW. Allá por octubre de 1956, Gran Bretaña puso en
funcionamiento su planta atómica «Calder Hall» con una capacidad superior a los
50.000 kW. Los Estados Unidos llegaron a ese campo en tercer lugar. El 26 de mayo
de 1958, la «Westinghouse» dio fin a un pequeño reactor con una capacidad de
60.000 kW para la producción de energía eléctrica en la localidad de Shippingport
(Pennsylvania). Les siguieron rápidamente muchos reactores en Estados Unidos y
otras partes del mundo.
Al cabo de una década o poco más, doce países poseían ya reactores nucleares y el
50 % de la electricidad suministrada en los Estados Unidos para usos civiles
procedía de la fisión nuclear. Se invadió incluso el espacio exterior, pues el 3 de
abril de 1965 se lanzó un satélite propulsado por un pequeño reactor. Y, no
obstante, el problema de la contaminación radiactiva seguía revistiendo gravedad.
Cuando comenzó la década de 1970, se hizo cada vez más audible la oposición
pública contra esa incesante proliferación de centrales nucleares.
Si la fisión remplazara algún día al carbón y petróleo como principal fuente mundial
de energía, ¿cuánto duraría ese nuevo combustible? No mucho si dependiéramos
totalmente del escaso material fisionable, el uranio 235. Pero, por fortuna, el
hombre puede crear otros combustibles fisionables partiendo del uranio 235.
Ya hemos visto que el plutonio es uno de esos combustibles creados por el hombre.
Supongamos que construimos un pequeño reactor con uranio enriquecido como
combustible y omitimos el moderador de modo que los neutrones rápidos fluyan
dentro de una envoltura circundante de uranio natural. Esos neutrones convertirán
el uranio 238 de la funda en plutonio. Si hacemos lo necesario para reducir a un
mínimo el desperdicio de neutrones, obtendremos con cada fisión de un átomo de
uranio 235 en el núcleo, varios átomos de plutonio cuya creación ha tenido lugar
dentro de la envoltura. Es decir, produciremos más combustible del que
consumimos.
El primer «reactor generador» se construyó bajo la dirección del físico canadiense
Walter H. Zinn en Arco (Idaho) el año 1951. Se le llamó «EBR-1» (Experimental
Breeder Reactor-1). El aparato no demostró solamente la solvencia del principio
generador, sino que también produjo electricidad.
Ese sistema generador podría multiplicar muchas veces las reservas de
combustibles tomando como base el uranio, porque todos los isótopos ordinarios del
uranio, el uranio 238- serían combustibles potenciales.
El elemento torio, integrado totalmente por torio 232, es otro combustible fisionable
en potencia. Tras la absorción de neutrones rápidos viene a ser el isótopo artificial
torio 233 que decae velozmente para transformarse en uranio 233. Ahora bien, el
uranio 233 es fisionable bajo los neutrones lentos y mantiene una reacción en
cadena autogenética. Así, pues, se puede agregar el torio a las reservas de
Radiactividad
La iniciación de la Era Atómica amenazó al hombre con un riesgo casi inédito en su
campo de experiencia. Al quedar descubierto, el núcleo emitió torrentes de
radiaciones nucleares. Sin duda alguna, la vida sobre esta tierra ha estado siempre
expuesta a la radiactividad natural y los rayos cósmicos. Pero la concentración
suscitada por el hombre de sustancias naturalmente radiactivas como el radio, cuya
existencia ordinaria se disemina considerablemente sobre la superficie terrestre,
acrecentó no poco el peligro. Algunos manipuladores primitivos de los rayos X y el
radio absorbieron incluso dosis letales: Marie Curie y su hija Irène Joliot-Curie
murieron de leucemia ocasionada por esa exposición. Y ahí está ese famoso caso:
los pintores de esferas de reloj que murieron en 1920 por haber chupado sus
pinceles impregnados con radio.
Los casos clínicos de leucemia se han duplicado en las dos últimas décadas, y esta
circunstancia puede deberse en parte al creciente empleo de los rayos X con
finalidades muy diversas. Los síntomas leucémicos entre médicos, quienes tienen
más probabilidades de quedar expuestos a sus efectos- se presentan dos veces más
que en el público general. Entre los radiólogos, especialistas de los rayos X y su
empleo, la incidencia es diez veces mayor. No puede extrañamos, pues, que se
hagan múltiples intentos para sustituir los rayos X por otras técnicas tales como
aquellas que aprovechan el sonido ultrasónico. Entretanto la fisión ha acrecentado
con su aparición ese peligro. Todos esos mecanismos, tanto si son bombas como
reactores, desatan radiactividad a una escala que podría contaminar la atmósfera,
los océanos, y todo cuanto comemos, bebemos o respiramos, hasta el punto de
hacerlos peligrosos para la vida humana. La fisión ha implantado una especie de
acarrear graves riesgos a varias generaciones. Un nucleido con una vida media de
treinta años requerirá dos siglos para perder el 99 % de su actividad.
Sin embargo, se podría dar una aplicación provechosa a los productos de la fisión.
Como fuentes energéticas tiene capacidad para proveer con fuerza motriz a
pequeños mecanismos o instrumentos. Las partículas emitidas por el isótopo
radiactivo resultan absorbidas y su energía se convierte en calor. Éste produce a su
vez electricidad en pares termoeléctricos. Las baterías productoras de electricidad
bajo esa forma son generadores radioisotópicos a los cuales se les denomina
usualmente SNAP (Systems for Nuclear Auxiliary Power), Sistemas de energía
nuclear auxiliar, o, con más espectacularidad, «baterías atómicas». Suelen tener
poco peso, apenas 2 kg, generan 60 W y duran varios años. Los satélites han
llevado baterías SNAP; por ejemplo el Transit 4A y el Transit 4B, puestos en órbita
por los Estados Unidos en 1961, con la finalidad de auxiliar a la navegación.
El isótopo de uso más común en las baterías SNAP es el estroncio 90, al cual nos
referiremos más adelante en otro aspecto. También se emplean en ciertas
variedades los isótopos del plutonio y el curio.
Los radionucleidos tienen asimismo una utilidad potencial en Medicina (por ejemplo,
para el tratamiento del cáncer), pues eliminan las bacterias y preservan los
alimentos; también son aplicables a muchos campos de la industria, incluyendo la
fabricación de productos químicos.
Para citar un ejemplo entre muchos, la «Hercules Powder Company» ha diseñado un
reactor cuya radiación se emplea en la producción de etilenglicol anticongelante.
No obstante, y una vez mencionadas esas excepciones, es imposible imaginar una
aplicación para los ingentes residuos de la fisión que expulsan los reactores
nucleares. Ello representa generalmente un riesgo en relación con la energía
nuclear. El peligro más evidente es la explosión ocasionada por una reacción súbita
e insospechada de la fisión (una «excursión nuclear», como suele llamársele) y ha
estado siempre presente en la mente de los proyectistas. Debe decirse en honor
suyo que eso ha ocurrido muy pocas veces, si bien un accidente semejante mató a
tres hombres en Idaho el año 1961 y difundió la contaminación radiactiva por toda
la central. Mucho más difícil es manipular los residuos de la fisión. Se calcula que
cada 200.000 kW de electricidad generada por la fuerza nuclear producen 0,70 kg
diarios de residuos de la fisión. ¿Qué hacer con ellos? En los Estados Unidos se han
almacenado ya bajo tierra millones de litros de líquido radiactivo, y, según se
calcula, hacia el año 2000 será preciso eliminar cada día alrededor de dos millones
de litros de líquido radiactivo. Tanto los Estados Unidos como la Gran Bretaña han
sepultado en el mar recipientes de cemento conteniendo residuos radiactivos. Se
han hecho propuestas para depositarlos en las simas oceánicas, o las antiguas
minas de sal, o incinerarlos con vidrio derretido para enterrar después la materia
solidificada. Pero siempre surge el inquietante pensamiento que la radiactividad
consiga escapar de un modo u otro y contamine el fondo marino. Una pesadilla
particularmente estremecedora es la posibilidad que naufrague un barco movido por
energía nuclear y disemine sus residuos acumulados de la fisión por el océano. El
hundimiento del submarino nuclear estadounidense Tresher en el Atlántico Norte el
10 de abril de 1963 prestó nuevo acicate a tal temor, aunque en aquel caso no se
produjo, aparentemente, la contaminación.
Aunque la contaminación radiactiva ocasionada por la energía nuclear pacífica
represente un peligro potencial, se la podrá controlar por lo menos con todos los
medios posibles y, probablemente, se tendrá éxito. Pero hay otra contaminación
que se ha extendido ya a todo el mundo y que, con seguridad, sería objeto de
propagación deliberada en una guerra nuclear. Me refiero a la lluvia radiactiva
procedente de bombas atómicas.
La lluvia radiactiva es un producto de toda bomba nuclear, incluso de aquéllas
lanzadas sin intención aviesa. Como los vientos acarrean la lluvia radiactiva
alrededor del mundo y las precipitaciones de agua la arrastran hacia tierra, resulta
virtualmente imposible para cualquier nación el hacer explotar una bomba nuclear
en la atmósfera sin la correspondiente detección. En el caso de una guerra nuclear,
la lluvia radiactiva podría producir a largo plazo más víctimas y más daños a los
seres vivientes del mundo entero que los estallidos incendiarios de las propias
bombas sobre los países atacados.
La lluvia radiactiva se divide en tres tipos: «local», «toposférico» y «estratosférico».
La lluvia radiactiva local resulta de las grandes explosiones cuando las partículas de
polvo absorben a los isótopos radiactivos y se depositan rápidamente a centenares
de kilómetros. Las explosiones aéreas de bombas nucleares de la magnitud kilotón,
para alojarse en ellos durante largo tiempo. Ahí reside su peculiar peligro. Los
minerales alojados en los huesos tienen una lenta «evolución»; es decir, no se les
remplaza tan rápidamente como a las sustancias de los tejidos blandos. Por tal
razón, el estroncio 90, una vez absorbido, puede permanecer en el cuerpo de la
persona afectada durante el resto de su vida.
El estroncio 90 es una sustancia insólita en nuestro medio ambiente; no existía
sobre la tierra en cantidades apreciables hasta que el hombre fisionó el átomo de
uranio. Pero, hoy día, al cabo de una generación escasamente, el estroncio 90 se ha
incorporado a los huesos de todo ser humano sobre la tierra y, sin duda, de todos
los vertebrados. En la estratosfera flotan todavía cantidades considerables de este
elemento y, tarde o temprano, reforzarán la concentración ya existente en nuestros
huesos.
Las «unidades estroncio» (UE) miden la concentración de estroncio 90. Una UE es
un micromicrocurie de estroncio 90 por cada gramo de calcio en el cuerpo. Un
«curie» es una unidad de radiación (naturalmente llamada así en memoria de los
Curie) que equivalía inicialmente a la radiación producida por un gramo de radio
equilibrado con el producto de su desintegración, el radón. Hoy se la conceptúa
generalmente como el equivalente de 37 mil millones de desintegraciones por
segundo. Un micromicrocurie es una trillonésima de curie, o bien 2,12
desintegraciones por minuto. Por consiguiente, una «unidad estroncio» representa
2,12 desintegraciones por minuto y por cada gramo de calcio existente en el
cuerpo.
La concentración de estroncio 90 en el esqueleto humano varía considerablemente
según los lugares y los individuos. Se ha comprobado que algunas personas
contienen una cantidad setenta y cinco veces mayor que el promedio. Los niños,
cuadruplican como término medio la concentración de los adultos debido a la más
intensa evolución de la materia en sus huesos incipientes. El cálculo del promedio
varía según los casos, pues su base fundamental es la porción de estroncio 90 en
las dietas. (Por cierto que la leche no es un alimento especialmente peligroso en
este sentido, aunque el calcio asimilado de los vegetales vaya asociado con bastante
más estroncio 90. El «sistema filtrador» de la vaca elimina parte del estroncio que
ingiere con el pienso vegetal.) Se calcula que el promedio de concentración del
Fusión Nuclear
Durante veinte años largos, los físicos nucleares han cultivado en el fondo de sus
mentes un sueño aún más atractivo que la fisión destinada a fines constructivos.
Sueñan con dominar la energía de fusión. Al fin y al cabo, la fusión es el motor que
hace girar nuestro mundo: las reacciones generadas por la fusión en el Sol son la
fuente esencial de todas nuestras formas energéticas y de la propia vida. Si
pudiéramos reproducir y controlar de algún modo dichas reacciones sobre la Tierra,
resolveríamos todos nuestros problemas de energía. Nuestras reservas de
combustible serían tan inmensas como el océano, pues ese combustible sería
justamente el hidrógeno.
Y, aunque parezca extraño, no sería la primera vez que se utilizase como
combustible el hidrógeno. No mucho después de su descubrimiento y el estudio de
sus propiedades, el hidrógeno ocupó un lugar importante como combustible
químico. El científico norteamericano Robert Hare ideó una antorcha de hidrógeno
oxhídrico en 1861, y desde entonces la industria viene aprovechando esa brillante
llama oxhídrica. Pero hoy día ofrece, como combustible nuclear, posibilidades
mucho más prometedoras.
La energía de fusión podría ser muy superior a la energía de fisión. Un reactor de
fusión proporcionaría entre cinco y diez veces más energía que un reactor de fisión.
Botella magnética cuya misión consiste en retener un gas caliente de los núcleos de
hidrógeno (el plasma). El anillo se denomina torus.
Ahora bien, puesto que las fugas se producían con especial facilidad en el extremo
del tubo, ¿por qué no eliminar ese extremo dando al tubo una forma de rosquilla?
Efectivamente, un diseño de evidente utilidad fue el tubo con forma de rosquilla
(«torus») similar a un ocho. En 1951, Spitzer diseñó ese artefacto en forma de ocho
y lo denominó «stellarator». Aún fue más prometedor otro artilugio ideado por el
físico soviético Lev Andreievich Artsímovich. Se le llamó «Toroidal Kamera
Magnetic» (cámara magnética toroide), y, como abreviatura. «Tokamak».
El Tokamak trabaja únicamente con gases muy rarefactos, pero los soviéticos han
logrado alcanzar una temperatura de 100 millones de grados y mantenerla durante
una centésima de segundo empleando hidrógeno cuya densidad atmosférica es de
una millonésima. Desde luego, un hidrógeno tan rarefacto debe contenerse fijo
durante más de un segundo, pero si los soviéticos consiguieran decuplicar la
densidad del hidrógeno 2 y luego mantenerlo fijo durante un segundo, tal vez
harían baza.
Los físicos norteamericanos están trabajando también con el Tokamak y, por
añadidura, utilizan un artefacto denominado «Scyllac», que habiendo sido diseñado
para contener gas más denso requerirá un período más corto de fijación.
Durante casi veinte años, los físicos vienen orientándose hacia la energía generada
por la fusión. Aún cuando el progreso haya sido lento, no se ven todavía indicios de
un callejón sin salida definitivo.
APÉNDICE
Las Matemáticas en la Ciencia
Gravitación
Como se ha explicado en el capítulo 1, Galileo inició la ciencia en su sentido
moderno introduciendo el concepto de razonamiento apoyado en la observación y
en la experimentación de los principios básicos. Obrando así, introdujo también la
técnica esencial de la medición de los fenómenos naturales con precisión y
abandonó la práctica de su mera descripción en términos generales. En resumen,
cambió la descripción cualitativa del universo de los pensadores griegos por una
descripción cuantitativa.
Aunque la ciencia depende mucho de relaciones y operaciones matemáticas, y no
existiría en el sentido de Galileo sin ellas, sin embargo, no hemos escrito este libro
de una forma matemática y lo hemos hecho así deliberadamente. Las matemáticas,
después de todo, son una herramienta altamente especializada. Para discutir los
progresos de la ciencia en términos matemáticos, necesitaríamos una cantidad de
espacio prohibitivo, así como un conocimiento sofisticado de matemáticas por parte
del lector. Pero en este apéndice nos gustaría presentar uno o dos ejemplos de la
manera en que se han aplicado las matemáticas sencillas a la ciencia con provecho.
¿Cómo empezar mejor que con el mismo Galileo?
Galileo (al igual que Leonardo da Vinci casi un siglo antes) sospechó que los objetos
al caer aumentan constantemente su velocidad a medida que lo hacen. Se puso a
medir exactamente en qué cuantía y de qué manera aumentaba la velocidad.
Dicha medición no podía considerarse fácil para Galileo, con los instrumentos de que
disponía en 1600. Medir una velocidad requiere la medición del tiempo. Hablamos
de velocidades de 1.000 km por hora, de 4 km por segundo.
Pero no había ningún reloj en tiempos de Galileo que diera la hora en intervalos
aproximadamente iguales.
Galileo acudió a un rudimentario reloj de agua. Dispuso agua que goteaba
lentamente de un pequeño tubo, suponiendo, con optimismo, que el líquido goteaba
con una frecuencia constante. Esta agua la recogía en una taza, y por el peso del
era constante, sino que se incrementaba con el tiempo. Las mediciones de Galileo
mostraron que la velocidad aumentaba en proporción al período de tiempo t.
En otras palabras, cuando un cuerpo sufre la acción de una fuerza exterior
constante, su velocidad, partiendo del reposo, puede ser expresada como:
v=kt
¿Cuál era el valor de k? Éste, como fácilmente se hallaba por experimentación,
dependía de la pendiente del plano inclinado. Cuanto más cerca de la vertical se
hallaba el plano, más rápidamente la bola que rodaba aumentaba su velocidad y
mayor era el valor de k. El máximo aumento de velocidad aparecía cuando el plano
era vertical, en otras palabras, cuando la bola caía bajo la fuerza integral de la
gravedad. El símbolo g (por «gravedad») se usa cuando la fuerza íntegra de la
gravedad está actuando, de forma que la velocidad de una bola en caída libre,
partiendo del reposo, era:
v=gt
Consideremos el plano inclinado con más detalle, en el diagrama:
La longitud del plano inclinado es AB, mientras que su altura hasta el extremo
superior es AC. La razón de AC a AB es el seno del ángulo x, usualmente abreviado
como sen x.
El valor de esta razón —esto es, de sen x— puede ser obtenido de forma
aproximada construyendo triángulos con ángulos particulares y midiendo realmente
la altura y longitud implicadas en cada caso. O puede calcularse mediante técnicas
matemáticas con toda precisión, y los resultados pueden incorporarse en una tabla.
Usando dicha tabla, podemos hallar, por ejemplo, que sen 10º es aproximadamente
igual a 0,17356, que sen 45º es aproximadamente igual a 0,70711, y así
sucesivamente.
Hay dos importantes casos particulares. Supongamos que el plano «inclinado» es
precisamente horizontal. El ángulo x es entonces cero, y como la altura del plano
inclinado es cero, la razón de la altura a su longitud será también cero. En otras
palabras, sen 0º = 0. Cuando el plano «inclinado» es precisamente vertical, el
v=kt
Se puede probar empíricamente que el valor de k varía con el seno del ángulo, de
forma que:
k = k’ sen x
(donde k' es utilizado para indicar una constante que es diferente de k).
(En honor a la verdad, el papel del seno en relación con el plano inclinado fue
estudiado, con anterioridad a Galileo, por Simon Stevinus, quien también llevó a
cabo el famoso experimento de dejar caer diferentes masas desde una cierta altura,
un experimento tradicional, pero erróneamente atribuido a Galileo. Sin embargo, si
Galileo no fue realmente el primero en experimentar y medir, sí lo fue en inculcar al
mundo científico, de forma indeleble, la necesidad de experimentar y medir, y ésa
es ya una gloria suficiente.) En el caso de un plano inclinado completamente
vertical, el sen x
k = k’
k = g sen x
v = (g sen x) t
v=0
Esto es otra manera de expresar que una bola sobre un plano horizontal, partiendo
de un estado de reposo, permanecerá inmóvil a pesar del paso del tiempo. Un
objeto en reposo tiende a permanecer en él, y así sucesivamente. Eso es parte de la
Primera Ley del Movimiento, y se deduce de la ecuación de la velocidad en el plano
inclinado.
Supongamos que la bola no parte del reposo, sino que tiene un movimiento inicial
antes de empezar a rodar. Supongamos, en otras palabras, que tenemos una bola
moviéndose a lo largo de un plano horizontal a 1,5 m por segundo, y que, de
pronto, se halla en el extremo superior de un plano inclinado y empieza a rodar
hacia abajo por él.
El experimento prueba que su velocidad después de eso es mayor de 1,5 m por
segundo, en cada instante, que la que debería tener si hubiera empezado a rodar
hacia abajo por el plano partiendo del reposo. En otras palabras, la ecuación para el
movimiento de una bola rodando hacia abajo por un plano inclinado puede
expresarse, en una forma más completa, como sigue:
v = (g sen x) t + V
v = (g sen x) t
v = (g sen (0º) + V
Así, la velocidad de tal objeto permanece igual a su velocidad inicial, pese al tiempo
transcurrido. Esto es la consecuencia de la Primera Ley del Movimiento, también
deducida de la observación del movimiento sobre un plano inclinado.
La proporción en que cambia la velocidad se llama «aceleración». Si, por ejemplo, la
velocidad (en metros por segundo) de una bola rodando hacia abajo por un plano
inclinado es, al final de los sucesivos segundos, 4, 8, 12, 16..., entonces la
aceleración es de un metro por segundo cada segundo.
En la caída libre, si usamos la ecuación:
v = gt
v=9t
Ésta es la solución del problema original de Galileo, esto es, determinar la velocidad
de caída de un cuerpo y la proporción en que esa velocidad varía.
El siguiente problema es: ¿qué distancia recorre un cuerpo que cae en un tiempo
dado? A partir de la ecuación que relaciona la velocidad con el tiempo, es posible
relacionar la distancia con el tiempo por un proceso de cálculo llamado
«integración». No es necesario entrar en eso, sin embargo, porque la ecuación
puede ser obtenida por la experiencia, y, en esencia, Galileo hizo esto.
Halló que una bola rodando hacia abajo por un plano inclinado recorre una distancia
proporcional al cuadrado del tiempo. En otras palabras, doblando el tiempo, la
distancia aumenta al cuádruplo, y así sucesivamente.
Para un cuerpo que cae libremente, la ecuación que relaciona la distancia d y el
tiempo es:
d = ½ g t2
d = 4.5 t2
lo cual caía en línea recta hacia abajo. Galileo, sin embargo, realizó el gran adelanto
de combinar los dos movimientos.
La combinación de estos dos movimientos (proporcional al tiempo, horizontalmente,
y proporcional al cuadrado del tiempo, verticalmente) origina una curva llamada
parábola. Si un cuerpo se lanza, no horizontalmente, sino hacia arriba o hacia
abajo, la curva del movimiento es también una parábola.
Tales curvas de movimiento, o trayectorias, se aplican, por supuesto, a proyectiles
como una bala de cañón. El análisis matemático de las trayectorias contenido en los
trabajos de Galileo permitió calcular dónde caería una baja de cañón, cuando se la
dispara conociendo la fuerza de propulsión y el ángulo de elevación del cañón. A
pesar de que el hombre ha lanzado objetos por diversión, para obtener alimentos,
para atacar y para defenderse, desde hace incontables milenios, se debe
únicamente a Galileo el que por vez primera, gracias a la experimentación y
medición, exista una ciencia de la «balística». Por tanto, dio la casualidad que el
verdadero primer hallazgo de la ciencia moderna demostraba tener una aplicación
militar directa e inmediata.
También tenía una importante aplicación en la teoría. El análisis matemático de la
combinación de más de un movimiento resolvía varias objeciones a la teoría de
Copérnico. Demostraba que un objeto lanzado hacia arriba no quedaría retrasado en
el espacio con respecto a la Tierra en movimiento, puesto que el objeto tendría dos
movimientos: uno originado por el impulso del lanzamiento y otro ligado al
movimiento de la Tierra. También hacía razonable suponer que la Tierra poseía dos
movimientos simultáneos: uno de rotación alrededor de su eje y otro de traslación
alrededor del sol —una situación que algunos de los no-copernicanos insistían que
era inconcebible.
Isaac Newton extendió los conceptos de Galileo sobre el movimiento a los cielos y
demostró que el mismo sistema de leyes del movimiento podía aplicarse tanto a los
astros como a la Tierra.
Empezó considerando la posibilidad de que la Luna pudiera caer hacia la Tierra,
debido a la gravedad de ésta, pero afirmó que nunca podría colisionar con ella a
causa de la componente horizontal de su movimiento. Un proyectil disparado
horizontalmente, como decíamos, sigue una trayectoria parabólica descendente
A = 4 π r2
f=ma
Todo esto surgió de la nueva visión cuantitativa del universo explorada por Galileo.
Como puede comprobarse, gran parte de las matemáticas implicadas eran
realmente muy sencillas. Las que hemos citado aquí son de álgebra de estudios de
bachillerato.
En realidad, todo lo que se necesitaba para introducir una de las mayores
revoluciones intelectuales de todos los tiempos era:
1. Un simple conjunto de observaciones que todo estudiante de física puede
hacer con una pequeña orientación.
2. Una sencilla serie de generalizaciones matemáticas.
3. El genio trascendental de Galileo y Newton, que tuvieron la perspicacia y
originalidad de realizar estas observaciones y generalizaciones por vez
primera.
Relatividad
Las leyes del movimiento, tal como fueron elaboradas por Galileo y Newton, estaban
basadas en la suposición de que existía algo como el movimiento absoluto —es decir
un movimiento con referencia a algún objeto en reposo. Pero todos los objetos que
conocemos del universo están en movimiento: la Tierra, el Sol, la Galaxia, los
sistemas de galaxias. ¿Dónde en el Universo, entonces, podemos hallar el reposo
absoluto con respecto al cual medir el movimiento absoluto?
Fue este orden de ideas lo que llevó al experimento de Michelson-Morley, el cual
condujo nuevamente a una revolución científica tan grande, en algunos aspectos,
como la iniciada por Galileo (véase capítulo VII). Aquí también la base matemática
es bastante sencilla.
El experimento fue una tentativa para descubrir el movimiento absoluto de la Tierra
con respecto a un «éter» del que se suponía estaba lleno todo el espacio que se
hallaba en reposo. El razonamiento, una vez finalizado el experimento, fue el
siguiente:
Supongamos que un rayo de luz se envía en la dirección en que la Tierra se está
desplazando por el éter, y que, a una cierta distancia en esa dirección, existe un
espejo inmóvil que refleja la luz, devolviéndola a su fuente, Representemos la
velocidad de la luz como c, la velocidad de la Tierra a través del éter como v, y la
La luz se refleja desde el espejo situado en M' al foco, que, mientras tanto, se ha
desplazado a S'. Puesto que la distancia S'S" es igual a SS', la distancia M'S" es
igual a x. El camino total recorrido por el rayo de luz es, por tanto, 2x, o .
El tiempo empleado por el rayo de luz para recorrer esta distancia con su velocidad
c es:
¿Cómo debemos comparar esto con el tiempo que la luz invierte en el viaje
completo en la dirección del movimiento de la Tierra? Dividamos el tiempo en el
Ahora bien, cada número dividido por su raíz cuadrada da la misma raíz cuadrada
Y éste es el punto a donde queríamos llegar. Es decir, la razón del tiempo que la luz
emplearía viajando en la dirección del movimiento de la Tierra, comparada con el
tiempo que necesitaría si lo hiciera en la dirección perpendicular al movimiento
Así, L' vuelve a ser aproximadamente igual a 0,995 L, una contracción de alrededor
del 1 por ciento.
Para cuerpos móviles, velocidades semejantes a ésta tienen lugar solamente
o dividiendo por L:
Ahora bien, cuando el denominador de una fracción con un numerador fijo se vuelve
cada vez más pequeño («tiende acero»), el valor de la fracción se hace
progresivamente mayor; sin límites. En otras palabras, a partir de la anterior
ecuación, se deduciría que la masa de un objeto que se mueve a una velocidad
aproximándose a la de la luz se convertiría en infinitamente grande. Asimismo, la
velocidad de la luz resultaría ser la máxima posible, pues una masa mayor que el
infinito aparece como algo sin sentido.
Todo esto condujo a Einstein a refundir las leyes del movimiento y de la gravitación.
Consideró un universo, en otras palabras, en el que los resultados de los
experimentos de Michelson-Morley eran posibles.
Sin embargo, aún siendo así, no hemos puesto todavía el punto final. Recordemos,
por favor, que la ecuación de Lorentz asume para M cierto valor superior a cero.
Esto es aplicable a casi todas las partículas con las que estamos familiarizados y a
todos los cuerpos de átomos y estrellas que están integrados por tales partículas.
No obstante, hay neutrinos y antineutrinos para los cuales M, la masa en reposo o
«masa-reposo», es igual a cero, y esto también es cierto para los fotones.
taquiones dejarían una estela de fotones incluso en el vacío, como una especie de
radiación Cherenkov.) Los científicos se mantienen alerta para captar esas ráfagas,
pero no hay grandes probabilidades de poder emplazar un instrumento en el lugar
preciso donde se muestra durante una trillonésima de segundo una de esas ráfagas
(posibles, pero muy infrecuentes).
Algunos físicos opinan que «todo cuanto no esté prohibido es compulsivo». Dicho de
otra forma, cualquier fenómeno que no quebrante una ley de conservación debe
manifestarse en un momento u otro; o, si los taquiones no quebrantan la relatividad
especial, deben existir. No obstante, incluso los físicos tan convencidos de que esa
fórmula es algo así como un «aseo» necesario del universo, se alegrarían (y quizá
se tranquilizasen también) si encontraran algunas pruebas sobre estos taquiones no
prohibidos. Hasta ahora no han logrado encontrarlas.
Una consecuencia de la ecuación de Lorentz fue deducida por Einstein para crear la
que se ha convertido, tal vez, en la más famosa ecuación científica de todos los
tiempos.
La ecuación de Lorentz puede escribirse en la forma siguiente:
Fue esta ecuación la que por primera vez indicaba que la masa era una forma de
energía. Einstein llegó a demostrar que la ecuación podía aplicarse a todas las
masas, no solamente al incremento en la masa debido al movimiento.
También aquí, la mayor parte de las matemáticas implicadas están solamente a
nivel universitario. Sin embargo, representó para el mundo los comienzos de una
visión del Universo más grande y amplia aún que la de Newton, y también puso de
manifiesto la manera de concretar sus consecuencias. Señaló el camino para el
reactor nuclear y la bomba atómica, por ejemplo.
Bibliografía I
Una introducción a la Ciencia resultaría incompleta sin una guía para ampliar las
lecturas acerca del tema. Seguidamente presento una breve selección de libros.
Esta relación constituye una miscelánea y no pretende ser una colección completa
de los mejores libros modernos sobre temas científicos. Sin embargo, he leído la
mayor parte de ellos y puedo recomendarlos todos, incluso los míos.
TAYLOR, F. SHERWOOD A. History of industrial Chemistry. Abelard Schuman, Nueva York, 1957.
UPTON, MONROE Electronics for Everyone (2da. ed. rev.). New American Library, Nueva York,
1959.
USHER, ABBOT PAYSON A History of Mechanical Inventions. Beacon Press, Boston, 1959.
WARSCHAUER, DOUGLAS M. Semiconductors and Transistors. McGraw-Hill Book Company, Nueva York,
1959.
CAPÍTULO 9. EL REACTOR
ALEXANDER, PETER Atomic Radiation and Life. Penguin Books, Nueva York, 1957.
BISHOP, AMASA S. Project Sherwood. Addison-Wesley Publishing Company, Reading, Mass.
1958.
FOWLER, JOHN M. Fallout. A Study of Superbombs, Strontium 90, and Survival. Bassic Books.
Nueva York, 1960.
JUKES, JOHN Man-Made Sun. Abelard-Schuman, Nueva York, 1959.
JUNGK, ROBERT Brighter Than a Thousand Suns. Harcout, Brace & Company, Nueva York,
1958.
PURCELL, JOHN The Best-Kept Secret. Vanguard Press, Nueva York, 1963.
RIEDMAN, SARAH R. Men and Women behind the Atom. Abelard-Schuman, Nueva York, 1958.
SCIENTlFIC AMERICAN (editores) Atomic Power. Simon & Schuster, Nueva York, 1955.
WILSON, ROBERT R. y LITTAUER, Accelerators. Doubleday & Company, Nueva York. 1960.
R.
APÉNDICE. LAS MATEMÁTICAS EN LA CIENCIA
COURANT, RICHARD y ROBBINS, What Is Mathematics? Oxford University Press, Nueva York, 1941.
HERBERT
DANTZIG, TOBIAS Number, the language of Science. Macmillan Company, Nueva York, 1954.
FELIX, LUCIENNE The Modern Aspect of Mathematics. Basic Books, Nueva York, 1960.
FREUND. JOHN E. A Modern Introduction to Mathematics. Prentice Hall, Nueva York, 1956.
KLINE, MORRIS Mathematics and the Physical World. Thomas Y. Crowell Company, Nueva
York, 1959.
KLINE, MORRIS Mathematics In Western Culture. Oxford University Press, Nueva York.
1953.
NEWMAN, JAMES, R. The World of Mathematics (4 vols.). Simon & Schuster, Nueva York, 1956.
STEIN, SHERMAN K. Mathematics, the Man-Made Universe. W. H. Freeman & Company, San
Francisco, 1963.
VALENS. EVANS G. The Number of Things. Dutton & Co. Nueva York, 1964.
GENERALIDADES
ASIMOV, ISAAC Asimov's Biographical Encyclopedia of Science and Technology. Doubleday &
Company Nueva York, 1964.
ASIMOV, ISAAC Life and Energy. Doubleday & Company, Nueva York, 1962.
ASIMOV, ISAAC The Words of Science. Houghton Mifflin Company, Boston, 1959.
CABLE, E. J. y col. The Physical Sciences. Prentice-Hall, Nueva York, 1959.
GAMOV, GEORGE Matter, Earth, and Sky. Prentice-Hall, Nueva York, 1958.
HUTCHINGS, EDWARD, JR. (director), Frontiers in Sciente, Basic Books, Nueva York, 1958.
SHAPLEV, HARLOW, RAPPORT, A Treasury of Science (4ta. ed.). Harper & Brothers, Nueva York, 1958.
Capítulo 9
EL REACTOR
Fisión Nuclear
Los rápidos avances tecnológicos del siglo XX han sido posibles a costa de un
formidable incremento en nuestro consumo de la energía que producen las fuentes
terrestres. Cuando las naciones subdesarrolladas, con sus miles de millones de
habitantes, se incorporen a los países industrializados y compartan su alto nivel de
vida, el combustible se consumirá en proporciones aún más sensacionales. ¿Dónde
encontrará el género humano las reservas de energía requeridas para sustentar
semejante civilización?
Ya hemos visto desaparecer una gran parte de los bosques que cubren la superficie
terrestre. La madera fue el primer combustible del hombre. A principios de la Era
cristiana, casi toda Grecia, África del Norte y el Oriente Próximo fueron despojados
inexorablemente de sus florestas, en parte para obtener combustible, y, en parte,
para roturar la tierra con objeto de dedicarla a las tareas agropecuarias. La tala
indiscriminada de bosques fue un desastre de doble alcance. No sólo destruyó las
reservas de madera; el desmonte drástico de la tierra entrañó también la
destrucción más o menos permanente de toda fertilidad. Casi todas esas regiones
antiguas, que antaño sustentaran las más prósperas culturas humanas, son hoy día
estériles e improductivas y están pobladas por gentes incultas, míseras.
La Edad Media presenció la progresiva despoblación forestal de Europa Occidental, y
los tiempos modernos han visto una despoblación aún más rápida del continente
norteamericano. Apenas quedan ya grandes masas de madera virgen en las zonas
templadas del mundo, si se exceptúan Canadá y Siberia.
Parece improbable que el hombre pueda seguir adelante sin madera. Este material
será siempre necesario para fabricar papel, muebles y maderaje.
En cuanto al combustible, el carbón y el petróleo han ocupado el lugar de la
madera. El botánico griego Teofrasto ya mencionó el carbón nada menos que en el
año 200 antes de J.C., pero los primeros informes sobre minería carbonífera en
Europa datan del siglo XII. Durante el siglo XVII, Inglaterra, desprovista de bosques
y con necesidades muy urgentes de madera para su Armada, optó por el consumo
en gran escala de carbón, un cambio que echó los cimientos para la Revolución
Industrial.
Esta evolución fue muy lenta en otras partes. Incluso hacia 1800 la madera
proporcionaba el 94 % del combustible en los jóvenes Estados Unidos, con sus
densos bosques. En 1885, la madera cubrió todavía el 50 % de esas necesidades y
en 1900 sólo el 3 %. El equilibrio derivó, por añadidura, más allá del carbón, el
petróleo y el gas natural. En 1900, la energía suministrada por el carbón a los
Estados Unidos fue diez veces mayor que la del petróleo y gas juntos. Medio siglo
después, el carbón aportó solamente una tercera parte de la energía proporcionada
por el petróleo y el gas. Carbón, petróleo, y gas son «combustibles fósiles»,
reliquias de la vida vegetal, viejos eones... y una vez se consumen no es posible
remplazarlos. Respecto al carbón y el petróleo, el hombre vive de su capital
dilapidándolo a un ritmo extravagante.
Particularmente, el petróleo, se está agotando muy aprisa. Hoy día el mundo quema
un millón de barriles por hora, y el índice de consumo se eleva sin cesar. Aunque la
Tierra conserva todavía mil billones de barriles aproximadamente, se calcula que la
producción petrolífera alcanzará su punto culminante en 1980 y después empezará
a declinar. Desde luego, se puede fabricar petróleo artificial combinando el carbón
más común con hidrógeno bajo presión. Este proceso fue ideado en 1920 por el
químico alemán Friedrich Bergius, quien, por ello, compartió (con Bosch) el premio
Nobel de Química el año 1931. Por otra parte, las reservas carboníferas son grandes
sin duda, tal vez ronden los 7 mil billones de toneladas, pero, no todo ese carbón es
accesible a la minería. En el siglo XXV o quizás antes, el carbón puede llegar a ser
un artículo muy costoso.
Hay esperanzas de nuevos hallazgos. Tal vez nos aguarden algunas sorpresas a
juzgar por los indicios de carbón y petróleo en Australia, el Sahara y las regiones
antárticas. Además, los adelantos tecnológicos pueden abaratar la explotación de
cuencas carboníferas cada vez más profundas, horadar la tierra progresivamente en
busca de petróleo y extraer este combustible de las reservas submarinas.
Sin duda encontraremos los medios de usar nuestro combustible con más eficacia.
El proceso de quemar combustible para producir calor, convertir el agua en vapor,
mover un generador o crear electricidad, desperdicia grandes cantidades de energía
produce energía a un ritmo 50.000 veces mayor que toda la energía consumida en
nuestro planeta. A este respecto, la «batería solar» es un artificio particularmente
prometedor, pues hace uso también de semiconductores.
Célula de una batería solar. Los rayos solares inciden sobre la termo-oblea y liberan
los electrones, formando así pares de vacíos-electrones. La divisoria p-n actúa como
una barrera, o campo eléctrico, separando los electrones de los vacíos. Por tanto se
desarrolla una diferencia de potencial a través de la divisoria, y entonces fluye la
corriente por el circuito alámbrico.
La cantidad de energía que cae sobre un área de terreno en cualquier lugar soleado
de la Tierra es de 9,4 millones de kilovatios-hora por año. Si algunas zonas
especialmente favorecidas bajo ese aspecto, es decir, regiones desérticas como el
Valle de la Muerte y el Sahara, estuviesen cubiertas con baterías solares y
acumuladores eléctricos, podrían proveer al mundo con la electricidad necesaria por
tiempo indefinido..., concretamente tanto como viva la raza humana, si no se
suicida antes.
Pero, según parece, ni la presente generación ni la siguiente siquiera harán factible
el encauzamiento de la energía solar. Por fortuna, tenemos una inmensa fuente de
energía aquí, en la Tierra, que puede proveemos durante centenares de años
cuando nos quedemos sin el económico carbón y el petróleo. Es la energía
almacenada en el núcleo atómico.
Usualmente se denomina «energía atómica» a la energía nuclear, pero eso es un
craso yerro. Hablando estrictamente, la energía es aquélla liberada por reacciones
químicas tales como la combustión de carbón y petróleo, porque éstas representan
el comportamiento del átomo en su conjunto. La energía generada por los cambios
dentro del núcleo es de especie totalmente distinta y de magnitud mucho más
vasta.
Apenas descubierto el neutrón por Chadwick en 1932 los físicos comprendieron que
ahí se les ofrecía una maravillosa clave para desentrañar el núcleo atómico. Puesto
que el neutrón no tenía carga eléctrica, podría penetrar fácilmente en el núcleo
cargado. Los físicos empezaron inmediatamente a bombardear diversos núcleos con
neutrones para observar las posibles reacciones nucleares resultantes; entre los
más apasionados investigadores de esa nueva herramienta figuró el italiano Enrico
Fermi.
Fermi y sus colaboradores descubrieron que se obtenían mejores resultados cuando
se frenaba a los neutrones haciéndoles pasar primero por agua o parafina.
Proyectando protones contra el agua o la parafina, los neutrones moderan su
marcha tal como lo haría una bola de billar al recibir los golpes de otras. Cuando un
neutrón se traslada a la velocidad «termal» (velocidad normal en el movimiento de
los átomos), tiene mayores probabilidades de ser absorbido por el núcleo, porque
permanece más tiempo en la vecindad de éste. Hay otra forma de enfocarlo si se
Pero, ¿cómo identificar positivamente el nuevo elemento? ¿Cuáles deberían ser sus
propiedades químicas?
Pues bien, se pensó- el elemento 93 debería estar bajo el renio en la tabla periódica
y, por tanto, sería similar químicamente el renio. (En realidad, y aunque nadie lo
comprendiera por aquellas fechas, el elemento 93 pertenecía a una nueva y rara
serie, lo cual significaba que se asemejaría al uranio, no al renio [véase capítulo V];
así, pues, se partió con el pie izquierdo en la búsqueda de su identificación.) Si
fuera como el renio, tal vez se pudiera identificar la ínfima cantidad creada de
«elemento 93» mezclando los productos del bombardeo de neutrones con renio y
separando después el renio mediante procedimientos químicos. El renio actuaría
como un «vehículo», transportando consigo el «elemento 93», químicamente
similar. Si el renio demostrara poseer radiactividad, ello traicionaría la presencia del
elemento 93.
El físico alemán Otto Hahn y la científica austriaca Lise Meitner, trabajando juntos
en Berlín, siguieron esa línea de experimentación. El elemento 93 no se mostró con
el renio. Entonces Hahn y Meitner se preguntaron si el bombardeo de neutrones no
habría transformado el uranio en otros elementos cercanos a él en la tabla
periódica, y se propusieron averiguarlo. Por aquellas fechas, 1938- Alemania ocupó
Austria, y Fräulein Meitner, que como súbdita austriaca, se había sentido segura
hasta entonces a pesar de ser judía, se vio obligada a huir de la Alemania hitleriana
y buscar refugio en Estocolmo. Hahn prosiguió su trabajo con el físico alemán Fritz
Strassman.
Varios meses después, Hahn y Strassman descubrieron que el bario adquiría cierta
radiactividad cuando se le agregaba el uranio bombardeado. Ambos supusieron que
esa radiactividad debería pertenecer al radio, el elemento situado inmediatamente
debajo del bario en la tabla periódica. La conclusión fue que el bombardeo del
uranio con neutrones cambiaba una parte de aquél en radio.
Pero este radio resultó ser una materia muy peculiar. Pese a sus ímprobos
esfuerzos, Hahn no pudo separarlo del bario. Mientras tanto, en Francia, Irène
Joliot-Curie y su colaborador P. Savitch emprendieron una tarea similar y fracasaron
igualmente.
asistir a una conferencia de física teórica en Washington. Allí hizo saber a los físicos
lo que se le había sugerido en Dinamarca sobre la fisión nuclear. Aquello causó una
gran conmoción. Los congresistas regresaron inmediatamente a sus laboratorios
para comprobar la hipótesis y, al cabo de un mes, se anunciaron media docena de
confirmaciones experimentales. Como resultado de aquello se otorgó a Hahn el
premio Nobel de Química en 1944, y así se inició el trabajo que culminó con el arma
destructiva más terrible que jamás se ideara.
La Bomba Atómica
La reacción por fisión liberó cantidades desusadas de energía, superando
largamente a la radiactividad ordinaria. Pero no fue sólo esa energía adicional lo que
hizo de la fisión un fenómeno tan portentoso. Aún revistió más importancia el hecho
que liberara dos o tres neutrones. Dos meses después de la carta abierta publicada
por Meitner, numerosos físicos pensaron en la estremecedora posibilidad de una
«reacción nuclear en cadena».
La expresión «reacción en cadena» ha adquirido un significado exótico aún cuando,
realmente, es un fenómeno muy común. El quemar un simple trozo de papel es una
reacción en cadena. Una cerilla proporciona el calor requerido para desencadenar la
acción; una vez iniciada la combustión, ésta proporciona el verdadero agente, calor-
imprescindible para mantener y extender la llama. La combustión suscita más
combustión en proporciones siempre crecientes.
Eso es exactamente lo que sucede con la reacción nuclear en cadena. Un neutrón
desintegra un átomo de uranio; éste libera dos neutrones que pueden ocasionar dos
nuevas fisiones de las cuales se desprenderán cuatro neutrones que ocasionarán a
su vez cuatro fisiones, y así sucesivamente. El primer átomo desintegrado
suministra una energía de 200 MeV, el siguiente, 400 MeV, el otro 800 MeV, el
siguiente 1.600 MeV, etc. Puesto que los intervalos entre las fases consecutivas
equivalen aproximadamente a una mil billonésima de segundo se desprenden
cantidades aterradoras de energía. La fisión de una onza de uranio produce tanta
energía como la combustión de 90 t de carbón o 7.500 l de petróleo. Si se empleara
con fines pacíficos, la fisión del uranio podría solventar todas nuestras
Reacción nuclear en cadena del uranio. Los círculos rosado-negros son núcleos de
uranio; los puntos negros, neutrones; las flechas onduladas, rayos gamma; los
pequeños rosados-negros, fragmentos de la fisión.
Energía Nuclear
El empleo dramático de la energía nuclear, representada por bombas increíblemente
destructivas, ha hecho más que ningún otro acontecimiento desde los comienzos de
la Ciencia para presentar al científico en el papel de ogro.
Esa representación gráfica es justificable hasta cierto punto, pues ningún argumento
ni raciocinación puede alterar el hecho que fueron realmente los científicos quienes
construyeron la bomba atómica conociendo desde el primer instante su enorme
poder destructivo y su posible aplicación práctica.
Si se quiere hacer estricta justicia, es preciso añadir que obraron así bajo la presión
de una gran guerra contra enemigos inexorables y ante la espantosa posibilidad que
un ser tan maníaco como Adolf Hitler pudiera adelantarse y fabricar la bomba para
sus propios fines. Se debe agregar también que, por regla general, los científicos
atareados con la construcción de tales bombas evidenciaron una profunda
consternación y que muchos se opusieron a su empleo, mientras otros abandonaban
más tarde el campo de la física nuclear, inducidos por lo que sólo cabe describir
como remordimiento. Ciertamente se observaron menos remordimientos de
conciencia entre los jefes políticos y militares a quienes cupo la decisión de emplear
semejantes bombas.
Por otra parte, no podemos ni debemos descartar el hecho de que, cuando los
científicos liberaron la energía contenida en el núcleo atómico, pusieron a
disposición del hombre una fuerza que se puede emplear con fines constructivos
tanto como destructivos. Es importante hacerlo constar así en un mundo y una
época en los que la amenaza de una hecatombe nuclear hace adoptar a la Ciencia y
los científicos una tímida actitud defensiva, especialmente en un país como los
Estados Unidos con una tradición «rousseauniana» algo excesiva contra la
enseñanza mediante el libro por considerársela corruptora de la integridad original
del hombre en su estado natural.
Cabe decir incluso que la explosión de una bomba atómica no tiene por qué ser
exclusivamente destructiva. A semejanza de los explosivos químicos menores
usados desde antiguo en la minería o la construcción de diques y carreteras, los
explosivos nucleares podrían representar una enorme aportación en los proyectos
de ingeniería. Ya se han propuesto toda clase de fantásticos designios al respecto:
dragado de bahías y canales, voladura de estratos rocosos subyacentes,
almacenamiento de calor para producir energía e incluso propulsión a distancia de
las naves espaciales. Sin embargo, en los años sesenta decreció el furioso
entusiasmo que habían despertado esas esperanzas a largo plazo. La peligrosa
probabilidad de contaminación radiactiva, de un gasto adicional inadecuado o ambas
cosas a un tiempo, sirvieron de amortiguadores.
No obstante, la aplicación constructiva del poder nuclear quedó simbolizada por una
especie de reacción en cadena que se instaló bajo el estadio de rugby en la
Universidad de Chicago. Un reactor nuclear controlado puede generar inmensas
cantidades de calor que, desde luego, se prestan al encauzamiento, mediante un
Planta de energía nuclear del tipo «gas refrigerado» en forma esquemática. Aquí el
calor del reactor se transfiere a un gas que puede ser un metal vaporizado
circulando por él. Entonces se aprovecha el calor para transformar el agua en vapor.
Apenas transcurridos diez años desde la botadura de los primeros barcos nucleares,
los Estados Unidos tenían ya sesenta y un submarinos nucleares y cuatro buques
nucleares de superficie, unos navegando y otros en construcción o en proyecto
autorizado para futura construcción. Sin embargo, el entusiasmo por la propulsión
nuclear se extinguió también, exceptuando si acaso los submarinos. En 1967 se
retiraba el Savannah cuando cumplía los dos años de vida. Su mantenimiento
costaba tres millones de dólares cada año, cifra que se estimaba excesiva.
Pero no debería ser solamente el elemento militar quien se aprovechara de esa
innovación. En junio de 1954, la Unión Soviética hizo construir el primer reactor
nuclear para uso civil: producción de energía eléctrica. Fue uno pequeño todavía, su
capacidad no rebasó los 5.000 kW. Allá por octubre de 1956, Gran Bretaña puso en
funcionamiento su planta atómica «Calder Hall» con una capacidad superior a los
50.000 kW. Los Estados Unidos llegaron a ese campo en tercer lugar. El 26 de mayo
de 1958, la «Westinghouse» dio fin a un pequeño reactor con una capacidad de
60.000 kW para la producción de energía eléctrica en la localidad de Shippingport
(Pennsylvania). Les siguieron rápidamente muchos reactores en Estados Unidos y
otras partes del mundo.
Al cabo de una década o poco más, doce países poseían ya reactores nucleares y el
50 % de la electricidad suministrada en los Estados Unidos para usos civiles
procedía de la fisión nuclear. Se invadió incluso el espacio exterior, pues el 3 de
abril de 1965 se lanzó un satélite propulsado por un pequeño reactor. Y, no
obstante, el problema de la contaminación radiactiva seguía revistiendo gravedad.
Cuando comenzó la década de 1970, se hizo cada vez más audible la oposición
pública contra esa incesante proliferación de centrales nucleares.
Si la fisión remplazara algún día al carbón y petróleo como principal fuente mundial
de energía, ¿cuánto duraría ese nuevo combustible? No mucho si dependiéramos
totalmente del escaso material fisionable, el uranio 235. Pero, por fortuna, el
hombre puede crear otros combustibles fisionables partiendo del uranio 235.
Ya hemos visto que el plutonio es uno de esos combustibles creados por el hombre.
Supongamos que construimos un pequeño reactor con uranio enriquecido como
combustible y omitimos el moderador de modo que los neutrones rápidos fluyan
dentro de una envoltura circundante de uranio natural. Esos neutrones convertirán
el uranio 238 de la funda en plutonio. Si hacemos lo necesario para reducir a un
mínimo el desperdicio de neutrones, obtendremos con cada fisión de un átomo de
uranio 235 en el núcleo, varios átomos de plutonio cuya creación ha tenido lugar
dentro de la envoltura. Es decir, produciremos más combustible del que
consumimos.
El primer «reactor generador» se construyó bajo la dirección del físico canadiense
Walter H. Zinn en Arco (Idaho) el año 1951. Se le llamó «EBR-1» (Experimental
Breeder Reactor-1). El aparato no demostró solamente la solvencia del principio
generador, sino que también produjo electricidad.
Ese sistema generador podría multiplicar muchas veces las reservas de
combustibles tomando como base el uranio, porque todos los isótopos ordinarios del
uranio, el uranio 238- serían combustibles potenciales.
El elemento torio, integrado totalmente por torio 232, es otro combustible fisionable
en potencia. Tras la absorción de neutrones rápidos viene a ser el isótopo artificial
torio 233 que decae velozmente para transformarse en uranio 233. Ahora bien, el
uranio 233 es fisionable bajo los neutrones lentos y mantiene una reacción en
cadena autogenética. Así, pues, se puede agregar el torio a las reservas de
Radiactividad
La iniciación de la Era Atómica amenazó al hombre con un riesgo casi inédito en su
campo de experiencia. Al quedar descubierto, el núcleo emitió torrentes de
radiaciones nucleares. Sin duda alguna, la vida sobre esta tierra ha estado siempre
expuesta a la radiactividad natural y los rayos cósmicos. Pero la concentración
suscitada por el hombre de sustancias naturalmente radiactivas como el radio, cuya
existencia ordinaria se disemina considerablemente sobre la superficie terrestre,
acrecentó no poco el peligro. Algunos manipuladores primitivos de los rayos X y el
radio absorbieron incluso dosis letales: Marie Curie y su hija Irène Joliot-Curie
murieron de leucemia ocasionada por esa exposición. Y ahí está ese famoso caso:
los pintores de esferas de reloj que murieron en 1920 por haber chupado sus
pinceles impregnados con radio.
Los casos clínicos de leucemia se han duplicado en las dos últimas décadas, y esta
circunstancia puede deberse en parte al creciente empleo de los rayos X con
finalidades muy diversas. Los síntomas leucémicos entre médicos, quienes tienen
más probabilidades de quedar expuestos a sus efectos- se presentan dos veces más
que en el público general. Entre los radiólogos, especialistas de los rayos X y su
empleo, la incidencia es diez veces mayor. No puede extrañamos, pues, que se
hagan múltiples intentos para sustituir los rayos X por otras técnicas tales como
aquellas que aprovechan el sonido ultrasónico. Entretanto la fisión ha acrecentado
con su aparición ese peligro. Todos esos mecanismos, tanto si son bombas como
reactores, desatan radiactividad a una escala que podría contaminar la atmósfera,
los océanos, y todo cuanto comemos, bebemos o respiramos, hasta el punto de
hacerlos peligrosos para la vida humana. La fisión ha implantado una especie de
acarrear graves riesgos a varias generaciones. Un nucleido con una vida media de
treinta años requerirá dos siglos para perder el 99 % de su actividad.
Sin embargo, se podría dar una aplicación provechosa a los productos de la fisión.
Como fuentes energéticas tiene capacidad para proveer con fuerza motriz a
pequeños mecanismos o instrumentos. Las partículas emitidas por el isótopo
radiactivo resultan absorbidas y su energía se convierte en calor. Éste produce a su
vez electricidad en pares termoeléctricos. Las baterías productoras de electricidad
bajo esa forma son generadores radioisotópicos a los cuales se les denomina
usualmente SNAP (Systems for Nuclear Auxiliary Power), Sistemas de energía
nuclear auxiliar, o, con más espectacularidad, «baterías atómicas». Suelen tener
poco peso, apenas 2 kg, generan 60 W y duran varios años. Los satélites han
llevado baterías SNAP; por ejemplo el Transit 4A y el Transit 4B, puestos en órbita
por los Estados Unidos en 1961, con la finalidad de auxiliar a la navegación.
El isótopo de uso más común en las baterías SNAP es el estroncio 90, al cual nos
referiremos más adelante en otro aspecto. También se emplean en ciertas
variedades los isótopos del plutonio y el curio.
Los radionucleidos tienen asimismo una utilidad potencial en Medicina (por ejemplo,
para el tratamiento del cáncer), pues eliminan las bacterias y preservan los
alimentos; también son aplicables a muchos campos de la industria, incluyendo la
fabricación de productos químicos.
Para citar un ejemplo entre muchos, la «Hercules Powder Company» ha diseñado un
reactor cuya radiación se emplea en la producción de etilenglicol anticongelante.
No obstante, y una vez mencionadas esas excepciones, es imposible imaginar una
aplicación para los ingentes residuos de la fisión que expulsan los reactores
nucleares. Ello representa generalmente un riesgo en relación con la energía
nuclear. El peligro más evidente es la explosión ocasionada por una reacción súbita
e insospechada de la fisión (una «excursión nuclear», como suele llamársele) y ha
estado siempre presente en la mente de los proyectistas. Debe decirse en honor
suyo que eso ha ocurrido muy pocas veces, si bien un accidente semejante mató a
tres hombres en Idaho el año 1961 y difundió la contaminación radiactiva por toda
la central. Mucho más difícil es manipular los residuos de la fisión. Se calcula que
cada 200.000 kW de electricidad generada por la fuerza nuclear producen 0,70 kg
diarios de residuos de la fisión. ¿Qué hacer con ellos? En los Estados Unidos se han
almacenado ya bajo tierra millones de litros de líquido radiactivo, y, según se
calcula, hacia el año 2000 será preciso eliminar cada día alrededor de dos millones
de litros de líquido radiactivo. Tanto los Estados Unidos como la Gran Bretaña han
sepultado en el mar recipientes de cemento conteniendo residuos radiactivos. Se
han hecho propuestas para depositarlos en las simas oceánicas, o las antiguas
minas de sal, o incinerarlos con vidrio derretido para enterrar después la materia
solidificada. Pero siempre surge el inquietante pensamiento que la radiactividad
consiga escapar de un modo u otro y contamine el fondo marino. Una pesadilla
particularmente estremecedora es la posibilidad que naufrague un barco movido por
energía nuclear y disemine sus residuos acumulados de la fisión por el océano. El
hundimiento del submarino nuclear estadounidense Tresher en el Atlántico Norte el
10 de abril de 1963 prestó nuevo acicate a tal temor, aunque en aquel caso no se
produjo, aparentemente, la contaminación.
Aunque la contaminación radiactiva ocasionada por la energía nuclear pacífica
represente un peligro potencial, se la podrá controlar por lo menos con todos los
medios posibles y, probablemente, se tendrá éxito. Pero hay otra contaminación
que se ha extendido ya a todo el mundo y que, con seguridad, sería objeto de
propagación deliberada en una guerra nuclear. Me refiero a la lluvia radiactiva
procedente de bombas atómicas.
La lluvia radiactiva es un producto de toda bomba nuclear, incluso de aquéllas
lanzadas sin intención aviesa. Como los vientos acarrean la lluvia radiactiva
alrededor del mundo y las precipitaciones de agua la arrastran hacia tierra, resulta
virtualmente imposible para cualquier nación el hacer explotar una bomba nuclear
en la atmósfera sin la correspondiente detección. En el caso de una guerra nuclear,
la lluvia radiactiva podría producir a largo plazo más víctimas y más daños a los
seres vivientes del mundo entero que los estallidos incendiarios de las propias
bombas sobre los países atacados.
La lluvia radiactiva se divide en tres tipos: «local», «toposférico» y «estratosférico».
La lluvia radiactiva local resulta de las grandes explosiones cuando las partículas de
polvo absorben a los isótopos radiactivos y se depositan rápidamente a centenares
de kilómetros. Las explosiones aéreas de bombas nucleares de la magnitud kilotón,
para alojarse en ellos durante largo tiempo. Ahí reside su peculiar peligro. Los
minerales alojados en los huesos tienen una lenta «evolución»; es decir, no se les
remplaza tan rápidamente como a las sustancias de los tejidos blandos. Por tal
razón, el estroncio 90, una vez absorbido, puede permanecer en el cuerpo de la
persona afectada durante el resto de su vida.
El estroncio 90 es una sustancia insólita en nuestro medio ambiente; no existía
sobre la tierra en cantidades apreciables hasta que el hombre fisionó el átomo de
uranio. Pero, hoy día, al cabo de una generación escasamente, el estroncio 90 se ha
incorporado a los huesos de todo ser humano sobre la tierra y, sin duda, de todos
los vertebrados. En la estratosfera flotan todavía cantidades considerables de este
elemento y, tarde o temprano, reforzarán la concentración ya existente en nuestros
huesos.
Las «unidades estroncio» (UE) miden la concentración de estroncio 90. Una UE es
un micromicrocurie de estroncio 90 por cada gramo de calcio en el cuerpo. Un
«curie» es una unidad de radiación (naturalmente llamada así en memoria de los
Curie) que equivalía inicialmente a la radiación producida por un gramo de radio
equilibrado con el producto de su desintegración, el radón. Hoy se la conceptúa
generalmente como el equivalente de 37 mil millones de desintegraciones por
segundo. Un micromicrocurie es una trillonésima de curie, o bien 2,12
desintegraciones por minuto. Por consiguiente, una «unidad estroncio» representa
2,12 desintegraciones por minuto y por cada gramo de calcio existente en el
cuerpo.
La concentración de estroncio 90 en el esqueleto humano varía considerablemente
según los lugares y los individuos. Se ha comprobado que algunas personas
contienen una cantidad setenta y cinco veces mayor que el promedio. Los niños,
cuadruplican como término medio la concentración de los adultos debido a la más
intensa evolución de la materia en sus huesos incipientes. El cálculo del promedio
varía según los casos, pues su base fundamental es la porción de estroncio 90 en
las dietas. (Por cierto que la leche no es un alimento especialmente peligroso en
este sentido, aunque el calcio asimilado de los vegetales vaya asociado con bastante
más estroncio 90. El «sistema filtrador» de la vaca elimina parte del estroncio que
ingiere con el pienso vegetal.) Se calcula que el promedio de concentración del
Fusión Nuclear
Durante veinte años largos, los físicos nucleares han cultivado en el fondo de sus
mentes un sueño aún más atractivo que la fisión destinada a fines constructivos.
Sueñan con dominar la energía de fusión. Al fin y al cabo, la fusión es el motor que
hace girar nuestro mundo: las reacciones generadas por la fusión en el Sol son la
fuente esencial de todas nuestras formas energéticas y de la propia vida. Si
pudiéramos reproducir y controlar de algún modo dichas reacciones sobre la Tierra,
resolveríamos todos nuestros problemas de energía. Nuestras reservas de
combustible serían tan inmensas como el océano, pues ese combustible sería
justamente el hidrógeno.
Y, aunque parezca extraño, no sería la primera vez que se utilizase como
combustible el hidrógeno. No mucho después de su descubrimiento y el estudio de
sus propiedades, el hidrógeno ocupó un lugar importante como combustible
químico. El científico norteamericano Robert Hare ideó una antorcha de hidrógeno
oxhídrico en 1861, y desde entonces la industria viene aprovechando esa brillante
llama oxhídrica. Pero hoy día ofrece, como combustible nuclear, posibilidades
mucho más prometedoras.
La energía de fusión podría ser muy superior a la energía de fisión. Un reactor de
fusión proporcionaría entre cinco y diez veces más energía que un reactor de fisión.
Botella magnética cuya misión consiste en retener un gas caliente de los núcleos de
hidrógeno (el plasma). El anillo se denomina torus.
Ahora bien, puesto que las fugas se producían con especial facilidad en el extremo
del tubo, ¿por qué no eliminar ese extremo dando al tubo una forma de rosquilla?
Efectivamente, un diseño de evidente utilidad fue el tubo con forma de rosquilla
(«torus») similar a un ocho. En 1951, Spitzer diseñó ese artefacto en forma de ocho
y lo denominó «stellarator». Aún fue más prometedor otro artilugio ideado por el
físico soviético Lev Andreievich Artsímovich. Se le llamó «Toroidal Kamera
Magnetic» (cámara magnética toroide), y, como abreviatura. «Tokamak».
El Tokamak trabaja únicamente con gases muy rarefactos, pero los soviéticos han
logrado alcanzar una temperatura de 100 millones de grados y mantenerla durante
una centésima de segundo empleando hidrógeno cuya densidad atmosférica es de
una millonésima. Desde luego, un hidrógeno tan rarefacto debe contenerse fijo
durante más de un segundo, pero si los soviéticos consiguieran decuplicar la
densidad del hidrógeno 2 y luego mantenerlo fijo durante un segundo, tal vez
harían baza.
Los físicos norteamericanos están trabajando también con el Tokamak y, por
añadidura, utilizan un artefacto denominado «Scyllac», que habiendo sido diseñado
para contener gas más denso requerirá un período más corto de fijación.
Durante casi veinte años, los físicos vienen orientándose hacia la energía generada
por la fusión. Aún cuando el progreso haya sido lento, no se ven todavía indicios de
un callejón sin salida definitivo.
Capítulo 10
LA MOLÉCULA
Materia Orgánica
El término molécula (de la palabra latina que significa «masa pequeña»)
originalmente se aplicó a la última unidad indivisible de una sustancia. Y, en cierto
sentido, es una partícula simple, debido a que no puede desintegrarse sin perder su
identidad. En efecto, una molécula de azúcar o de agua puede dividirse en átomos o
grupos simples, pero en este caso deja de ser azúcar o agua. Incluso una molécula
de hidrógeno pierde sus características propiedades químicas cuando se escinde en
sus dos átomos de hidrógeno constituyentes.
Del mismo modo como el átomo ha sido motivo de gran excitación en la Física del
siglo xx, así la molécula fue el sujeto de descubrimientos igualmente excitantes en
la Química. Los químicos han sido capaces de desarrollar imágenes detalladas de la
estructura de moléculas incluso muy complejas, de identificar el papel desempeñado
por moléculas específicas en los sistemas vivos, de crear elaboradas moléculas
nuevas, y de predecir el comportamiento de la molécula de una estructura dada con
sorprendente exactitud.
Hacia mediados de este siglo, las complejas moléculas que forman las unidades
clave de los tejidos vivos, las proteínas o los ácidos nucleicos, fueron estudiadas con
todas las técnicas puestas a disposición por una Química y una Física avanzadas.
Las dos Ciencias, «Bioquímica» (el estudio de las reacciones químicas que tienen
lugar en el tejido vivo) y «Biofísica» (el estudio de las fuerzas y fenómenos físicos
implicados en los procesos vivos), confluyeron para formar una nueva disciplina: la
«Biología molecular». A través de los hallazgos de la Biología molecular, la Ciencia
moderna ha logrado, en una sola generación de esfuerzos, todo salvo definir
exactamente dónde se halla la frontera entre lo vivo y lo inanimado.
Pero, hace menos de un siglo y medio, no se comprendía siquiera la estructura de la
molécula más sencilla.
Casi todo lo que los químicos de comienzos del siglo XIX podían hacer era dividir la
materia en dos grandes categorías. Desde hacía tiempo se habían percatado
(incluso en los días de los alquimistas) de que las sustancias pertenecían a dos
Las moléculas orgánicas contenían muchos más átomos que las inorgánicas simples,
y parecían combinadas sin demasiada lógica. Simplemente, los compuestos
orgánicos no podían explicarse por las sencillas leyes de la Química, a las que tan
maravillosamente se adaptaban las sustancias inorgánicas. Berzelius decidió que la
química de la vida era algo distinto, algo que obedecía a su propia serie de sutiles
reglas. Sólo el tejido vivo -afirmó-. Podría crear un compuesto orgánico. Su punto
de vista es un ejemplo del «vitalismo».
¡Luego, en 1828, el químico alemán Friedrich Wöhler, un discípulo de Berzelius,
produjo una sustancia orgánica en el laboratorio! La obtuvo al calentar un
compuesto denominado cianato amónico, que era considerado en general como
inorgánico. Wöhler se quedó estupefacto al descubrir que, al ser calentado, ese
material se convertía en una sustancia blanca idéntica en sus propiedades a la
«urea», un compuesto de la orina. Según las teorías de Berzelius, sólo el riñón vivo
podía formar la urea, y Wöhler la acababa de producir a partir de una sustancia
inorgánica, simplemente al aplicarle algo de calor. Wöhler repitió la experiencia
muchas veces, antes de atreverse a publicar su descubrimiento. Cuando finalmente
lo hizo, Berzelius y otros, al principio, rehusaron creerlo. Pero otros químicos
confirmaron los resultados. Además de eso, lograron sintetizar muchos otros
compuestos orgánicos a partir de precursores inorgánicos. El primero en lograr la
producción de un compuesto orgánico a partir de sus elementos fue el químico
alemán Adolf Wilhelm Hermann Kolbe, quien, en 1845, produjo ácido acético de
esta forma. Fue realmente esto lo que puso punto final a la versión vitalista de
Berzelius. Cada vez se hizo más y más evidente que las mismas leyes químicas se
aplicaban por igual a las moléculas inorgánicas. Eventualmente, se ofreció una
sencilla definición para distinguir entre las sustancias orgánicas y las inorgánicas:
todas las sustancias que contenían carbono (con la posible excepción de unos pocos
compuestos sencillos, tales como el dióxido de carbono) se denominaron orgánicas;
las restantes eran inorgánicas.
Para poder enfrentarse con éxito a la compleja Química nueva, los químicos
precisaban un simple método de abreviatura para representar los compuestos, y,
afortunadamente, ya Berzelius había sugerido un sistema de símbolos conveniente y
racional. Los elementos fueron designados mediante las abreviaturas de sus
nombres latinos. Así C sería el símbolo para el carbono, O para el oxígeno, H para el
hidrógeno, N para el nitrógeno, S para el azufre, P para el fósforo, etc... Cuando dos
elementos comenzaban con la misma letra, se utilizaba una segunda letra para
distinguirlos entre sí: por ejemplo, Ca para el Calcio, Cl para el cloro, Cd para el
cadmio, Co para cobalto, Cr para el cromo, etc. Sólo en unos pocos casos, los
nombres latinos o latinizados (y las iniciales) son distintos de las españolas, así: el
hierro (ferrum) tiene el Fe; la plata (argentum), el Ag; el oro (aurum), el Au; el
cobre (cuprum), el Cu; el estaño (stannum), el Sn; el mercurio (hydragyrum), el
Hg; el antimonio (stibium), el Sb; el sodio (natrium), el Na; y el potasio (kalium), el
K. Con este sistema es fácil simbolizar la composición de una molécula. El agua se
escribe H2O (indicando así que la molécula consiste de dos átomos de hidrógeno y
un átomo de oxígeno); la sal, NaCl; el ácido sulfúrico, H2SO4, etc. A ésta se la
denomina la «fórmula empírica» de un compuesto; indica de qué está formado el
compuesto pero no dice nada acerca de su estructura, es decir, la forma en que los
átomos de la molécula se hallan unidos entre sí.
El barón Justus von Liebig, un colaborador de Wöhler, se dedicó al estudio de la
composición de una serie de sustancias orgánicas, aplicando el «análisis químico» al
campo de la Química orgánica. Calentaba una pequeña cantidad de una sustancia
orgánica y retenía los gases formados (principalmente CO2 y vapor de agua, H2O)
con sustancias químicas apropiadas. Luego pesaba las sustancias químicas
utilizadas para captar los productos de combustión, al objeto de ver cómo había
aumentado su peso a causa de los productos captados. A partir del peso podía
determinar la cantidad de carbono, hidrógeno y oxígeno existentes en la sustancia
original. Luego era fácil calcular, a partir de los pesos atómicos, el número de cada
tipo de átomo en la molécula. De esta forma, por ejemplo, estableció que la
molécula del alcohol etílico tenía la fórmula C2H6O.
El método de Liebig no podía medir el nitrógeno presente en los compuestos
orgánicos, pero el químico francés Jean-Baptiste-André Dumas ideó un método de
combustión que recogía el nitrógeno gaseoso liberado a partir de las sustancias.
Hizo uso de este método para analizar los gases de la atmósfera, con una exactitud
sin precedentes, en 1841.
Los métodos del «análisis orgánico» se hicieron cada vez más y más precisos hasta
alcanzar verdaderos prodigios de exactitud con los «métodos microanalíticos» del
químico austriaco Fritz Pregl. Éste ideó técnicas, a principios de 1900, para el
análisis exacto de cantidades de compuestos orgánicos que apenas se podían
distinguir a simple vista, y, a consecuencia de ello, recibió el premio Nobel de
Química en 1923.
Desgraciadamente, la simple determinación de las fórmulas empíricas de los
compuestos orgánicos no permitía dilucidar fácilmente su química. Al contrario que
los compuestos inorgánicos, que usualmente consistían de 2 ó 3, o, a lo sumo, de
una docena de átomos, las moléculas orgánicas eran con frecuencia enormes. Liebig
halló que la fórmula de la morfina era C17H19O3N y la de la estricnina C21H22O2N2.
Los químicos apenas sabían qué hacer con moléculas tan grandes, ni cómo iniciar o
acabar sus fórmulas. Wöhler y Liebig intentaron agrupar los átomos en agregados
más pequeños denominados «radicales», al tiempo que elaboraron teorías para
demostrar que diversos compuestos estaban formados por radicales específicos en
cantidades y combinaciones diferentes. Algunos de los sistemas fueron sumamente
ingeniosos, pero en realidad ninguno aportaba suficiente explicación. Fue
particularmente difícil explicar por qué compuestos con la misma fórmula empírica,
tales como el alcohol etílico y el dimetil éter, poseían diferentes propiedades.
Este fenómeno fue dilucidado por vez primera hacia 1820 por Liebig y Wöhler. El
primero estudiaba un grupo de compuestos llamados «fulminatos», mientras que
Wöhler examinaba un grupo denominado «isocianatos»; ambos grupos resultaron
tener las mismas fórmulas empíricas: por así decirlo, los elementos se hallaban
presentes en proporciones iguales. Berzelius, el dictador químico en aquella época,
fue informado de esta particularidad, pero rechazó aceptar tal creencia hasta que,
en 1830, él mismo descubrió algunos ejemplos. Denominó a tales compuestos, de
diferentes propiedades pero con elementos presentes en las mismas proporciones,
«isómeros» (a partir de las palabras griegas que significan «partes iguales»). La
estructura de las moléculas orgánicas era realmente un verdadero rompecabezas en
aquellos días.
Los químicos, perdidos en esta jungla de la Química orgánica, comenzaron a ver un
rayo de luz, en 1850, al descubrir que un determinado átomo se podía combinar
Un átomo que poseyera más de un gancho, tal como el carbono, con cuatro de
ellos, no precisaba utilizar cada uno para un átomo distinto: podía formar un enlace
doble o triple con uno de sus vecinos, como en el etileno (C2H4) o el acetileno
(C2H2):
Entonces podía apreciarse fácilmente cómo dos moléculas podían tener el mismo
número de átomos de cada elemento y, no obstante, diferir en sus propiedades. Los
dos isómeros debían diferir en la disposición de los átomos. Por ejemplo, las
fórmulas estructurales del alcohol etílico y el dimetil éter, respectivamente, podían
escribirse:
Una sección transversal de un rayo de luz ordinaria mostraría que las ondas de las
que consiste vibran en todos los planos: hacia arriba y abajo, de lado a lado, y
oblicuamente. A esta luz se la denomina «no polarizada». Pero cuando la luz pasa a
través de un cristal de la sustancia transparente llamada espato de Islandia, por
ejemplo, es refractada de tal forma que la luz emerge «polarizada». Es como si la
disposición de los átomos en el cristal permitiera que pasaran a su través sólo
ciertos planos de vibración (del mismo modo como los barrotes de una valla pueden
permitir el paso a su través de una persona que se deslice entre ellos de lado,
mientras no dejarán pasar a una que intente hacerlo de frente). Existen
dispositivos, tales como el «prisma de Nicol», inventado por el físico escocés William
Nicol en 1829, que permite el paso de la luz en sólo un plano. Ahora ha sido
remplazado éste, para la mayoría de sus usos, por materiales tales como el Polaroid
(cristales de un complejo de sulfato de quinina y yodo, alineados con los ejes
paralelos y embebidos en nitrocelulosa), producido por vez primera hacia 1930 por
Edwin Land.
La polarización de la luz. Las ondas de luz vibran normalmente en todos los planos
(arriba). El prisma de Nicol (abajo) permite que las vibraciones se produzcan sólo
en un plano, reflejando las otras. La luz transmitida se halla polarizada en un plano.
La luz reflejada, a menudo está parcialmente polarizada en un plano, tal como fue
descubierto por vez primera en 1808 por el físico francés Étienne-Louis Malus. (Él
inventó el término «polarización», al aplicar la observación de Newton acerca de los
polos de las partículas de luz, una ocasión en la que Newton se equivocó, aunque de
todas formas el nombre persistió.) El resplandor de la luz reflejada por las ventanas
de los edificios y automóviles, y aún de las autopistas pavimentadas, puede, por
tanto, ser reducido hasta niveles tolerables mediante el empleo de gafas de sol con
cristales «Polaroid».
A principios del siglo XIX, el físico francés Jean-Baptiste Biot había descubierto que,
cuando la luz polarizada en un plano pasaba a través de cristales de cuarzo, el plano
de polarización giraba. Es decir, la luz que penetraba vibrando en un plano emergía
vibrando en un plano distinto. A una sustancia que muestra ese efecto se dice que
es «ópticamente activa». Algunos cristales de cuarzo giraban el plano en el sentido
de las agujas del reloj («rotación dextrógira») y algunos en sentido contrario al del
giro de las agujas del reloj («rotación levógira»).
Biot halló que ciertos compuestos orgánicos, tales como el alcanfor y el ácido
tartárico, hacían lo mismo. Pensó, asimismo, que algún tipo de asimetría en la
disposición de los átomos en las moléculas era responsable de la rotación
experimentada por la luz. Pero, durante varios decenios, esta sugerencia siguió
siendo una simple especulación.
En 1844, Louis Pasteur (que entonces tenía sólo veintidós años de edad) estudió
esta interesante cuestión.
Investigó dos sustancias: el ácido tartárico y el «ácido racémico». Ambos tenían la
misma composición química, pero el ácido tartárico giraba al plano de la luz
polarizada, mientras que el racémico no lo hacía. Pasteur sospechó que los cristales
de las sales del ácido tartárico eran asimétricos y los del racémico, simétricos. Al
examinar al microscopio ambas series de cristales comprobó, con sorpresa, que
ambas eran asimétricas. Pero los cristales de la sal del ácido racémico mostraban
dos tipos de asimetría. La mitad de ellos eran de la misma forma que los de la sal
del ácido tartárico (tartrato), y la otra mitad eran sus imágenes especulares. Por así
decirlo, la mitad de los cristales de la sal del ácido racémico (racemato) eran
zurdas, y la otra mitad, diestras.
Tediosamente, Pasteur separó ambas clases de cristales del racemato y luego
disolvió separadamente cada una de ellas e hizo pasar la luz a través de cada
solución. Ciertamente, la solución de los cristales que poseían la misma asimetría
que los cristales de tartrato giraban el plano de la luz polarizada al igual que lo
hacía el tartrato, manifestando la misma rotación específica. Aquellos cristales eran
de tartrato. La otra serie de cristales giraban al plano de la luz polarizada en la
dirección opuesta, con el mismo grado de rotación. El motivo por el cual el racemato
original no determinaba la rotación de la luz era, por lo tanto, que las dos
tendencias opuestas se neutralizaban entre sí.
Seguidamente, Pasteur volvió a convertir los dos tipos distintos de sal racemato en
ácido, por adición de iones de hidrógeno a las soluciones respectivas. (Una sal es un
compuesto en el cual algunos iones de hidrógeno de la molécula del ácido son
remplazados por otros iones cargados positivamente, tales como los de sodio o
potasio.) Halló que cada uno de esos ácidos racémicos eran entonces ópticamente
activos -girando uno la luz polarizada en la misma dirección que el ácido tartárico lo
hacía- (pues era el ácido tartárico) y el otro en la dirección opuesta.
Se hallaron otros pares de tales compuestos especulares («enantiomorfos», dos
palabras griegas que significan «formas opuestas»). En 1863, el químico alemán
Johannes Wislicenus halló que el ácido láctico (el ácido de la leche agria) formaba
un par del mismo tipo. Además, mostró que las propiedades de las dos formas eran
idénticas, salvo por su acción sobre la luz polarizada. Esto ha resultado ser una
propiedad general para las sustancias enantiomorfas.
Estupendo, pero, ¿en dónde radicaba la asimetría? ¿Qué ocurría en las dos
moléculas que determinaba que cada una de ellas fuera la imagen especular de la
otra? Pasteur no pudo decirlo, y aunque Biot, que había sugerido la existencia de la
asimetría molecular, vivió hasta los 88 años, no lo hizo lo suficiente como para ver
confirmada su intuición.
En 1874, doce años después de la muerte de Biot, se ofreció finalmente una
respuesta. Dos jóvenes químicos, un holandés de veintidós años de edad, llamado
Jacobus Hendricus Van't Hoff y un francés de treinta y siete años llamado Joseph-
Achille le Bel, independientemente aportaron una nueva teoría de los enlaces de
valencia del carbono, que explicaba cómo podían estar construidas las moléculas
enantiomorfas. (Más tarde en su carrera, Van't Hoff estudió el comportamiento de
las sustancias en solución y mostró cómo las leyes que gobernaban su
comportamiento se asemejaban a las leyes que gobernaban el comportamiento de
los gases. Por este logro fue el primer hombre al que, en 1901, se le concedió el
premio Nobel de Química.)
Kekulé había dibujado los cuatro enlaces del átomo de carbono en el mismo plano,
no necesariamente debido a que ésta fuera la forma como se hallaba realmente
dispuesto, sino porque aquél era el modo conveniente de dibujarlos sobre una
lámina de papel. Entonces Van't Hoff y Le Bel sugirieron un modelo tridimensional,
en el que los enlaces se hallaban dirigidos en dos planos perpendiculares entre sí,
dos en un plano y dos en el otro. Una buena forma de obtener una imagen de esto
es suponer que el átomo de carbono se halla apoyado en tres cualesquiera de sus
enlaces como si fueran piernas, en cuyo caso el cuarto enlace se dirigía
verticalmente hacia arriba (ver el dibujo más adelante). Si supone usted que el
átomo de carbono se halla en el centro de un tetraedro (una figura geométrica con
cuatro caras triangulares), entonces los cuatro enlaces se dirigirán hacia los cuatro
vértices de la figura, motivo por el cual el modelo se denomina el «átomo de
carbono tetraédrico».
Ahora, permítasenos unir a estos cuatro enlaces dos átomos de hidrógeno, un
átomo de cloro y un átomo de bromo. Independientemente de cuál es el átomo que
unimos a un enlace, siempre obtenemos la misma disposición. Inténtelo y véalo. Se
podrían representar los cuatro enlaces con cuatro palillos de los dientes insertados
en un malvavisco (el átomo de carbono), en los ángulos adecuados. Ahora suponga
que pincha dos olivas negras (los átomos de hidrógeno), una oliva verde (el cloro) y
una cereza (bromo) en los extremos de los palillos, en cualquier orden. Digamos
que, ahora, cuando se hace descansar esta estructura sobre tres patas, con una
oliva negra en la cuarta, dirigida hacia arriba, el orden de las tres patas en la
dirección de giro de las agujas de un reloj es oliva negra, oliva verde, cereza. Ahora
puede girar la oliva verde y la cereza, de tal modo que el orden sea oliva negra,
cereza, oliva verde. Pero, entonces, todo lo que necesita hacer para ver el mismo
orden es girar la estructura de tal modo que la oliva negra que se hallaba en una de
las patas se dirija hacia arriba en el aire, y aquella que se hallaba en el aire
descanse sobre la mesa. Ahora el orden de las patas volverá a ser oliva negra, oliva
verde, cereza.
En otras palabras, cuando por lo menos dos de los cuatro átomos (o grupos de
átomos) unidos a los cuatro enlaces de carbono son idénticos, sólo es posible una
disposición estructural. (Evidentemente esto es también así cuando son idénticos
tres de ellos o la totalidad de los cuatro elementos unidos.)
Pero cuando la totalidad de los cuatro átomos (o grupos de átomos) unidos son
distintos, la situación es diferente. En semejante caso son posibles dos disposiciones
estructurales distintas, siendo una la imagen especular de la otra. Por ejemplo,
supongamos que pincha una cereza en la pata dirigida hacia arriba y una oliva
negra, una oliva verde y una cebollita para cóctel en las tres patas.
Si ahora gira la oliva negra y la oliva verde de tal modo que el orden en el sentido
de giro de las agujas de reloj sea oliva verde, oliva negra, cebollita; no hay forma
de que pueda girar la estructura para obtener el orden de oliva negra, oliva verde,
cebollita, tal como la que existía antes que realizara el giro. Así, con cuatro
elementos distintos unidos, siempre podrá formar dos estructuras distintas, siendo
una de ellas la imagen especular de la otra. Inténtelo y lo comprobará.
De este modo, Van't Hoff y Le Bel resolvieron el misterio de la asimetría de las
sustancias ópticamente activas. Las sustancias enantiomorfas, que giran la luz en
direcciones opuestas, son sustancias que contienen átomos de carbono con cuatro
átomos o grupos de átomos distintos unidos a los enlaces. Una de las dos posibles
disposiciones de estos cuatro elementos enlazados gira la luz polarizada hacia la
derecha; la otra la gira hacia la izquierda.
Más y más pruebas confirmaron maravillosamente el modelo tetraédrico del átomo
de carbono de Van't Hoff y Le Bel y, hacia 1885 su teoría fue universalmente
aceptada (gracias, en parte, al entusiasta apoyo del respetado Wislicenus).
Cualquier compuesto que mostrara por métodos químicos apropiados (más bien
cuidadosos) que tenía una estructura relacionada con el L-gliceraldehído se
consideraría que pertenecería a «la serie L» y tendría el prefijo «L» unido a su
nombre, independientemente de si era levorrotatorio o dextrorrotatorio, por lo que
a la luz polarizada se refería. Así resultó que la forma levorrotatoria del ácido
tartárico pertenecía a la serie D en vez de a la serie L. (No obstante, un compuesto
que pertenezca estructuralmente a la serie D, pero haga girar, la luz hacia la
izquierda, tiene su nombre ampliado con los prefijos «D (-)». De forma semejante
tenemos «D (+)», «L (-)» y «L (+)».)
Esta preocupación con las minucias de la actividad óptica ha resultado ser algo más
que una cuestión de curiosidad malsana. Ocurre que casi la totalidad de los
Aquí, al menos, se hallaba la simetría requerida. Explicaba, entre otras cosas, por
qué la sustitución por otro átomo de uno de los átomos de hidrógeno del benceno
siempre daba lugar a un mismo producto. Ya que todos los carbonos en el anillo
eran indistinguibles entre sí en términos estructurales, era Independiente que se
realizara la sustitución en uno u otro de los átomos de hidrógeno sobre el anillo, ya
que siempre se obtendría el mismo producto. En segundo lugar, la estructura anular
mostraba que existían justamente tres formas en las que podrían remplazarse dos
átomos de hidrógeno sobre el anillo: podrían realizarse sustituciones sobre dos
átomos de carbono adyacentes en el anillo, sobre dos separados por un único átomo
de carbono, o sobre dos separados por dos átomos de carbono. Evidentemente, se
halló que podían obtenerse exactamente 3 isómeros disustituídos del benceno.
Sin embargo, la fórmula asignada por Kekulé a la molécula de benceno presentaba
un espinoso problema. En general, los compuestos con dobles enlaces son más
reactivos, es decir, más inestables, que aquellos con sólo enlaces sencillos. Es como
si el enlace extra estuviera dispuesto y tendiera particularmente a desligarse del
átomo de carbono y formar un nuevo enlace. Los compuestos con dobles enlaces
adicionan fácilmente hidrógeno u otros átomos e incluso pueden ser degradados sin
mucha dificultad. Pero el anillo de benceno es extraordinariamente estable: más
estable que las cadenas de carbono con sólo enlaces simples. (En realidad, es tan
estable y común en la materia orgánica que las moléculas que contienen anillos de
benceno constituyen toda una clase de compuestos orgánicos, denominados
«aromáticos», siendo incluidos todos los restantes dentro del grupo de los
compuestos «alifáticos».) La molécula de benceno se resiste a la incorporación de
más átomos de hidrógeno y es difícil lograr escindirla.
Los químicos orgánicos del siglo XIX no pudieron hallar una explicación para esta
extraña estabilidad de los dobles enlaces en la molécula de benceno, y este hecho
los trastornó considerablemente. Este problema puede parecer de escasa
importancia, pero todo el sistema de Kekulé de las formas estructurales se hallaba
en peligro por la recalcitrante actitud de la molécula de benceno. La imposibilidad
de explicar esta paradoja ponía en tela de juicio todo lo demás.
El planteamiento más próximo a una solución, antes del siglo xx, fue el del químico
alemán Johannes Thiele. En 1899, sugirió que, cuando los enlaces dobles y los
enlaces simples aparecen alternados, los extremos más próximos de un par de
enlaces dobles se neutralizan entre sí de algún modo y se neutralizan
recíprocamente su naturaleza reactiva. Consideremos, como ejemplo, el compuesto
«butadieno», que contiene, en su forma más simple, dos enlaces dobles separados
por un enlace simple («dobles enlaces conjugados»). Ahora, si se añaden dos
átomos al compuesto, éstos se añaden en los carbonos de los extremos, tal como se
muestra en la fórmula abajo representada. Tal punto de vista explicaba la no-
reactividad del benceno, ya que los tres dobles enlaces de los anillos de benceno, al
hallarse dispuestos en un anillo, se neutralizaban recíprocamente de forma
absoluta.
Unos cuarenta años más tarde se halló una explicación mejor, al aplicar una nueva
teoría de los enlaces químicos, que representaba a los átomos como unidos entre sí
por electrones compartidos.
El enlace químico, que Kekulé había dibujado como un guión entre los átomos,
aparecía ya representado por un par de electrones compartidos (véase capítulo V).
Cada átomo que formaba una combinación con su vecino compartía uno de sus
electrones con éste, y el vecino recíprocamente donaba uno de sus electrones al
enlace. El carbono, con cuatro electrones en su capa más extensa, podía formar
cuatro enlaces; el hidrógeno podía donar su electrón para formar un enlace con otro
átomo, etc. Ahora se planteaba la cuestión: ¿Cómo eran compartidos los
electrones? Evidentemente, dos átomos de carbono comparten el par de electrones
entre ellos de forma igual, debido a que cada átomo ejerce una atracción similar
sobre los electrones. Por otra parte, en una combinación tal como el H2O, el átomo
de oxígeno, que ejerce una mayor atracción sobre los electrones que el átomo de
hidrógeno, toma posesión de la mayor parte del par de electrones compartidos con
cada átomo de hidrógeno. Esto significa que el átomo de oxígeno, debido a su
excesiva riqueza en electrones, tiene un ligero exceso de carga negativa. Del mismo
modo, el átomo de hidrógeno, que sufre de la deficiencia relativa de un electrón,
tiene un ligero exceso de carga positiva. Una molécula que contenga un par
oxígeno-hidrógeno, tal como el agua o el alcohol etílico, posee una pequeña
concentración de cargas negativas en una parte de la molécula y una pequeña
concentración de cargas positivas en otra. Posee dos polos de carga, por así decirlo,
y por ello se la denomina una «molécula polar».
Este punto de vista sobre la estructura molecular fue propuesto por vez primera en
1912 por el químico holandés Peter Joseph Wilhelm Debye, quien más tarde
prosiguió sus investigaciones en los Estados Unidos. Utilizó Un campo eléctrico para
medir el grado en que estaban separados los polos de carga eléctrica en una
molécula. En tal campo, las moléculas polares se alinean con los extremos
negativos dirigidos hacia el polo positivo y los extremos positivos dirigidos hacia el
polo negativo, y la facilidad con que esto se produce es la medida del «momento
dipolar» de la molécula. Hacia principios de los años 30, las mediciones de los
momentos dipolares se habían convertido en rutinarias, y en 1936, por éste y otros
trabajos, Debye fue galardonado con el premio Nobel de Química.
La nueva imagen explicaba una serie de hechos que los puntos de vista anteriores
sobre la estructura molecular no pudieron hacer. Por ejemplo, explicaba algunas
anomalías de los puntos de ebullición de las sustancias. En general, cuanto mayor
es el peso molecular, tanto mayor es el punto de ebullición. Pero esta regla muestra
con frecuencia desviaciones. El agua, con un peso molecular de sólo 18, hierve a
100º C, mientras que el propano, con más de dos veces su peso molecular (44),
hierve a una temperatura mucho menor, a saber, la de –42º C. ¿Cómo podía ser
esto? La respuesta consiste en que el agua es una molécula polar con un elevado
momento dipolar, mientras que el propano es «no polar» -es decir, no tiene polos
de carga-. Las moléculas polares tienden a orientarse ellas mismas con el polo
Síntesis Orgánica
Después de que Kolbe hubo producido ácido acético, surgió, hacia 1850, un químico
que, sistemáticamente y de forma metódica, intentó sintetizar las sustancias
orgánicas en el laboratorio. Este fue el francés Pierre-Eugène-Marcelin Berthelot.
Preparó una serie de compuestos orgánicos sencillos a partir de compuestos
inorgánicos aún más simples, tales como el monóxido de carbono. Berthelot creó
sus compuestos orgánicos simples aumentando la complejidad hasta que,
finalmente, obtuvo entre otros al alcohol etílico. Fue «alcohol etílico sintético», pero
absolutamente indiferenciable del «real», por cuanto era realmente alcohol etílico.
El alcohol etílico es un compuesto orgánico familiar a todos y, por lo general, muy
apreciado por la mayoría. Sin duda, la idea de que el químico podía crear alcohol
etílico a partir del carbono, aire y agua (carbón que aportaba el carbono, aire que
aportaba el oxígeno y agua que proporcionaba el hidrógeno) sin necesidad de frutas
o granos como punto de partida, debió de crear visiones seductoras y envolver al
químico con una nueva clase de reputación como milagrero. De cualquier forma,
puso a la síntesis orgánica sobre el tapete.
Sin embargo, para los químicos, Berthelot hizo algo más importante. Empezó a
formar productos que no existían en la Naturaleza. Tomó el «glicerol», un
compuesto descubierto por Scheele en 1778, obtenido por la desintegración de las
grasas de los organismos vivos, y lo combinó con ácidos de los que se desconocía
su existencia de forma natural en las grasas (aunque existían naturalmente en
cualquier lugar). De esta forma obtuvo sustancias grasas que no eran idénticas a
aquellas que existían en los organismos.
Así, Berthelot creó las bases para un nuevo tipo de química orgánica: la síntesis de
las moléculas que la Naturaleza no podía aportar. Esto significaba la posible
árbitros de las modas del mundo). El colorante recibió este nombre por la ciudad
italiana donde los franceses vencieron a los austriacos en una batalla en 1859.
Hofmann volvió a Alemania en 1865, llevando con él su interés hacia los colorantes
violetas, todavía conocidos como «violetas de Hofmann». Hacia mediados del siglo
xx se hallaban en uso comercial no menos de 3.500 colorantes sintéticos.
Así pues, los químicos sintetizaban ya los colorantes naturales en el laboratorio. Karl
Graebe, de Alemania, y Perkin sintetizaron la alizarina en 1869 (Graebe obtuvo la
patente un día antes que Perkin) y, en 1880, el químico alemán Adolf von Baeyer
elaboró un método de síntesis del índigo. (Por su trabajo sobre colorantes, Baeyer
recibió el premio Nobel de Química en 1905.)
Perkin se retiró de los negocios en 1874, a la edad de 35 años, y regresó a su
primitivo amor, la investigación. Hacia 1875, había conseguido sintetizar la
cumarina (una sustancia existente en la Naturaleza que tenía un agradable olor de
heno recién segado); constituyó el comienzo de la industria de los perfumes
sintéticos.
Perkin solo no podía mantener la supremacía británica frente al gran desarrollo de la
química orgánica alemana y, a finales de siglo, las «sustancias sintéticas» se
convirtieron casi en un monopolio alemán. Fue un químico alemán, Otto Wallach,
quien efectuó estudios sobre los perfumes sintéticos, que había iniciado Perkin. En
1910. Wallach fue galardonado con el premio Nobel de Química por sus
investigaciones. El Químico croata Leopold Ruzicka, profesor en Suiza, sintetizó por
vez primera el almizcle, un importante componente de los perfumes. Compartió el
premio Nobel de Química en 1939 (con Butenandt). Sin embargo, durante la
Primera Guerra Mundial, Gran Bretaña y los Estados Unidos, desprovistos de los
productos de los laboratorios químicos alemanes, se vieron forzados a desarrollar
industrias químicas propias.
Los logros en la química orgánica sintética se habrían sucedido en el mejor de los
casos a tropezones, si los químicos hubieran tenido que depender de accidentes
afortunados tales como aquel que había sido convenientemente aprovechado por
Perkin. Por suerte, las fórmulas estructurales de Kekulé, presentadas tres años
después del descubrimiento de Perkin, hicieron posible preparar modelos, por así
decirlo, de la molécula orgánica. Los químicos ya no precisaban preparar la quinina
también del mismo país, Horace Wells, lo utilizó en odontología. Por aquel entonces,
algo mejor había entrado en escena.
El cirujano estadounidense Crawford Williamson Long, en 1842, había utilizado el
éter para hacer dormir a un paciente durante una extracción dental. En 1846, un
compatriota de Long, el dentista William Thomas Green Morton, efectuó una
operación quirúrgica utilizando éter, en el Hospital General de Massachusetts.
Morton, por lo general, ha merecido los honores del descubrimiento, debido a que
Long no describió su proeza en las revistas médicas hasta después de la
demostración pública de Morton, y las demostraciones públicas anteriores de Wells
con el óxido nitroso habían sido sólo éxitos vistos con indiferencia.
El poeta y médico norteamericano Oliver Wendell Holmes sugirió que a los
compuestos que suprimían el dolor se los denominara «anestésicos» (de las
palabras griegas que significan «sin sensación»). Algunas personas en aquel
entonces creían que los anestésicos eran un intento sacrílego de evitar el dolor
infligido a la Humanidad por Dios, pero, si alguna cosa se necesitaba para hacer a la
anestesia respetable, fue su uso, por el médico escocés James Young Simpson, en
la reina Victoria de Inglaterra, durante el parto.
Finalmente, la anestesia había elevado a la cirugía desde una carnicería realizada en
una cámara de tortura hasta algo que, al menos, tenía una apariencia humana, y,
con la adición de las condiciones antisépticas, hasta incluso como salvador de vidas.
Por este motivo fue seguido con gran interés cualquier nuevo avance en la
anestesia. La especial atención mostrada hacia la cocaína era debido a que se
trataba de un «anestésico local», que suprimía el dolor, en una zona específica, sin
producir una inconsciencia y falta de sensación general, como ocurría en el caso de
«los anestésicos generales» tales como el éter.
Sin embargo, la cocaína tiene varios inconvenientes. En primer lugar, puede
provocar peligrosos efectos secundarios e incluso matar a los pacientes demasiado
sensibles a ella. En segundo lugar, puede producir hábito; por lo que debe ser
utilizada moderadamente y con precaución. (La cocaína es uno de los peligrosos
«estupefacientes» o «narcóticos», que no sólo suprimen el dolor, sino también otras
sensaciones no placenteras y proporcionan al que los experimenta la ilusión de
euforia. El sujeto puede así acostumbrarse tanto a esto que puede requerir dosis
cada vez mayores y, a pesar del efecto perjudicial real que la droga produce sobre
su organismo, llegar a depender tanto de las ilusiones que provoca, que no consigue
prescindir de ella sin desarrollar dolorosos «síntomas de supresión». Tal
«habituación» a la cocaína y otros fármacos de este tipo es un importante problema
social. Anualmente, más de 20 toneladas de cocaína son producidas ilegalmente y
vendidas con enormes beneficios para unos pocos y una tremenda miseria para
muchos, a pesar de los esfuerzos mundiales realizados para evitar este tráfico.) En
tercer lugar, la molécula de cocaína es frágil y, calentando la droga para esterilizarla
de cualquier bacteria, se producen modificaciones en su molécula que interfieren
con sus efectos anestésicos. La estructura de la molécula de cocaína es más bien
complicada:
Compárese ésta con la fórmula para la cocaína y se verá la semejanza, junto con el
importante hecho de que el anillo doble ya no existe. Esta molécula más simple, de
naturaleza estable, fácil de sintetizar, con buenas propiedades anestésicas y muy
escasos efectos secundarios no existe en la Naturaleza. Es un «derivado sintético»,
mucho mejor que la sustancia real. Se le denomina «procaína», pero el público lo
conoce mucho mejor por su nombre comercial de «Novocaína».
Quizás, entre los anestésicos generales, el mejor conocido y más eficaz sea la
morfina. Su nombre procede de la palabra griega para significar el «sueño». Es un
derivado purificado del jugo de opio o «láudano», utilizado durante siglos por las
gentes, tanto civilizadas como primitivas, para combatir los dolores y las tensiones
del mundo cotidiano. Como remedio para el paciente sumido en el dolor, es una
bendición de los cielos; pero también lleva con ella el mortal peligro de la
habituación. Un intento realizado para hallar un sustituto de ella, fracasó
estruendosamente. En 1898, un derivado sintético, la «diacetilmorfina», más
conocida como «heroína», fue introducida, en la creencia de que podía ser más
segura. Por el contrario, resultó la droga más peligrosa de todas.
«Sedantes» (inductores del sueño) menos peligrosos son el hidrato de cloral y, en
particular, los barbitúricos. El primer ejemplo de este último grupo fue introducido
en 1902, y ahora son los constituyentes más frecuentes de las «píldoras para
dormir». Bastante innocuos cuando se utilizan apropiadamente, pueden, no
obstante, crear hábito, y una dosis excesiva causa la muerte. En realidad, ya que la
muerte llega suavemente, como el producto final de un sueño cada vez más
profundo, la sobredosificación de barbitúricos es un método bastante popular de
suicidio, o de intento de llevarlo a cabo.
El sedante más frecuente, y de mayor uso, es, por supuesto, el alcohol. Los
métodos para fermentar los jugos de frutas y granos se conocían ya en tiempos
prehistóricos, así como también la destilación para fabricar licores más fuertes de
los que podían producirse naturalmente. El valor de los vinos suaves en aquellas
regiones donde la provisión de agua no es más que un corto camino hacia la fiebre
tifoidea y el cólera, y la aceptación social de la bebida con moderación, hizo difícil
considerar el alcohol como fármaco que es, aunque induce al hábito con la misma
Los pirroles obtenidos a partir del heme poseen pequeños grupos de átomos que
contienen uno o dos átomos de carbono unidos al anillo, en lugar de uno o más
átomos de hidrógeno.
En la década de 1920-1930, el químico alemán Hans Fischer atacó el problema. Ya
que los pirroles tenían unas dimensiones que eran aproximadamente la cuarta parte
del heme original, decidió intentar combinar 4 pirroles para comprobar qué sucedía.
Lo que finalmente obtuvo fue un compuesto con 4 anillos que denominó «porfina»
(de la palabra griega que significa «púrpura», debido a su color púrpura). La porfina
tiene una estructura similar a:
Sin embargo, los pirroles obtenidos a partir del heme, en primer lugar contenían
pequeñas «cadenas laterales» unidas al anillo. Éstas permanecían unidas a ellos
cuando los pirroles se unían para formar la porfina. La porfina con varias cadenas
laterales unidas daba lugar a un familiar de compuestos denominados las
«porfirinas». Al comparar las propiedades del heme con aquellas de las porfirinas
que él había sintetizado, a Fischer le resultó evidente que el heme (menos su átomo
de hierro) era una porfirina. Pero, ¿cuál? Según los razonamientos de Fischer, al
menos podían formarse 15 compuestos a partir de los diversos pirroles obtenidos
del heme, y cualquiera de esos 15 podía ser el propio heme.
Lo que necesitaban los químicos era un método más alambicado y directo para
producir moléculas energéticas; es decir, un sistema mediante el cual todas las
moléculas se movieran aproximadamente a la misma velocidad y en la misma
dirección. Esto eliminaría la naturaleza errática de las interacciones, pues entonces,
todo cuanto hiciera una molécula lo harían también las demás. Un procedimiento
aceptable podría consistir en acelerar los iones dentro de un campo eléctrico, tal
como se aceleran las partículas subatómicas en los ciclotrones.
En 1964, el químico germano-americano Richard Leopold Wolfgang consiguió
acelerar moléculas e iones hasta hacerlas adquirir energías muy elevadas y, por
medio de lo que podríamos denominar un «acelerador químico» produjo velocidades
iónicas solamente alcanzables mediante el calor a temperaturas comprendidas entre
los 10.000º y 100.000º C. Por añadidura, todos los iones se trasladaron en la
misma dirección.
Si se provee a los iones así acelerados con una carga de electrones que ellos
puedan captar, se los convertirá en moléculas neutras cuyas velocidades de
traslación serán todavía muy considerables. Fue el químico norteamericano Leonard
Wharton quien produjo esos rayos neutros el año 1969.
Respecto a las breves fases intermedias de la reacción química, las computadoras
podrían ser de utilidad. Fue preciso elaborar las ecuaciones de mecánica cuántica
que gobiernan el estado de los electrones en diferentes combinaciones atómicas, y
prever los acontecimientos que sobrevendrían cuando se produjese la colisión. Por
ejemplo, en 1968, una computadora manipulada por el químico estadounidense de
origen italiano Enrico Clementi «hizo colisionar» amoníaco y ácido clorhídrico en
circuito cerrado de televisión para formar cloruro amónico. Asimismo, la
computadora anunció los consecutivos acontecimientos e indicó que el cloruro
amónico resultante podría existir como gas de alta presión a 700º C. Ésta fue una
información inédita, cuya verificación experimental se llevó a cabo pocos meses
después.
En la última década., los químicos han forjado flamantes instrumentos, tanto de
carácter teórico como experimental. Ahora se conocerán recónditos pormenores de
las reacciones y se elaborarán nuevos productos inasequibles hasta el presente o, si
Polímeros y Plásticos
Cuando consideramos moléculas similares a las del heme y la quinina estamos
alcanzando un grado tal de complejidad, que incluso el químico moderno
experimenta grandes dificultades en dilucidarla. La síntesis de tales compuestos
requiere tantas fases y una variedad tal de procedimientos, que difícilmente
podemos esperar producirlo en cantidad, sin la colaboración de algún organismo
vivo (excepto el propio químico). Sin embargo, esto no debe crear un complejo de
inferioridad. El propio tejido vivo alcanza el límite de su capacidad a este nivel de
complejidad. Pocas moléculas en la naturaleza son más complejas que las del heme
y la quinina.
Realmente, existen sustancias naturales compuestas de cientos de miles e incluso
de millones de átomos, pero no son moléculas individuales, por así decirlo,
construidas de una pieza. Más bien estas moléculas están formadas por sillares
unidos, al igual que las cuentas de un collar. Por lo general, el tejido vivo sintetiza
algún compuesto pequeño, relativamente simple, y luego se limita a sujetar las
unidades entre sí formando cadenas. Y esto, como veremos, también puede hacerlo
el químico.
En el tejido, esta unión de moléculas pequeñas («condensación») se acompaña
usualmente de la eliminación de dos átomos de hidrógeno y un átomo de oxígeno
(que se combinan para formar una molécula de agua) en cada punto de unión.
Invariablemente, el proceso puede ser reversible (tanto en el organismo como en el
tubo de ensayo): por la adición de agua, las unidades de la cadena pueden soltarse
y separarse. Esta inversión de la condensación se denomina «hidrólisis», de las
palabras griegas que significan «separación por el agua». En el tubo de ensayo, la
hidrólisis de estas largas cadenas puede ser acelerada por una serie de métodos,
siendo el más común la adición de una cierta cantidad de ácido a la mezcla.
La primera investigación de la estructura química de una molécula grande se
remonta al año 1812, cuando el químico ruso Gottlieb Sigismund Kirchhoff halló
que, hirviendo el almidón con ácido, producía un azúcar idéntico en sus propiedades
Una vez los químicos conocieron la estructura de los azúcares simples, fue
relativamente fácil desarrollar la forma en que se unían para dar lugar a
compuestos más complejos. Por ejemplo, una molécula de glucosa y una de
fructosa pueden condensarse para formar el disacárido sacarosa: el azúcar que
utilizamos en la mesa. La glucosa y la galactosa se combinan para formar la lactosa,
que existe en la Naturaleza sólo en la leche.
No existe razón alguna por la que tales condensaciones no pueden continuar
indefinidamente, y esto es lo que ocurre en el almidón y la celulosa. Cada uno de
ellos consiste en largas cadenas de unidades de glucosa condensadas según un
determinado modelo.
Los detalles de este modelo son importantes, debido a que, aún cuando ambos
compuestos son formados por la misma unidad, difieren profundamente entre sí. El
almidón, en una u otra forma, constituye la mayor parte de la alimentación de la
Humanidad, mientras que la celulosa no es asimilable en absoluto. Tras laboriosas
investigaciones, los químicos llegaron a la conclusión de que la diferencia en el tipo
de condensación es del modo siguiente: supongamos una molécula de glucosa vista
de lado (en cuyo caso se la simbolizará por «u») o vista de arriba abajo
(simbolizándola en tal caso por «n»), La molécula de almidón puede entonces
considerarse que está formada por una serie de moléculas de glucosa dispuestas de
la siguiente manera «...uuuuuuuuu...», mientras que la celulosa consiste en
«...ununununun...». Los jugos digestivos del organismo poseen la capacidad de
hidrolizar el enlace «uu» del almidón, liberando a partir de él la glucosa, que luego
puede ser absorbida para obtener energía. Aquellos mismos jugos no pueden en
cambio romper el enlace «un» de la celulosa, y toda la celulosa que ingerimos pasa
a través del tubo digestivo y es seguidamente excretada.
calentó y enfrió repetidamente, y halló al fin que tenía una muestra de goma que no
se volvía pegajosa con el calor, o similar al cuero con el frío, sino que seguía siendo
suave y elástica.
Este proceso de añadir azufre a la goma se denomina ahora «vulcanización» (de
Vulcano, el dios romano del fuego). El descubrimiento de Goodyear estableció las
bases de la industria del caucho. Se afirma que el propio Goodyear nunca recibió
recompensa alguna, a pesar de que este descubrimiento representó muchos
millones de dólares. Malgastó su vida luchando por derechos de patente, y murió en
una profunda miseria.
El conocimiento de la estructura molecular de la goma se remonta al año 1879,
cuando un químico francés, Gustave Bouchardat, calentó goma en ausencia de aire
y obtuvo un líquido llamado «isopreno». Su molécula está compuesta de cinco
átomos de carbono y ocho átomos de hidrógeno, dispuestos de la siguiente manera:
Un segundo tipo de jugo vegetal (el «látex»), obtenido a partir de ciertos árboles,
en el sudeste asiático, produce una sustancia llamada «gutapercha». Carece de la
elasticidad de la goma, pero cuando se calienta en ausencia de aire también
produce isopreno.
Tanto la goma como la gutapercha están constituidas por miles de unidades
de isopreno. Como en el caso del almidón y la celulosa, la diferencia entre ellas
radica en el tipo de unión. En la goma, las unidades de isopreno se hallan unidas en
la forma «...uuuuu...» y de tal modo que forman espirales, que pueden ser
distendidas cuando se fracciona sobre ellas, permitiendo así su elongación. En la
gutapercha, las unidades se unen en la forma «... ununu...», y forman cadenas que
son más rectas y, por tanto, menos elongables.
Una simple molécula de azúcar, tal como la glucosa, es un «monosacárido» (de la
palabra griega para «un azúcar»); la sacarosa y la lactosa son «disacáridos» («dos
azúcares»); y el almidón y la celulosa son «polisacáridos» («muchos azúcares»).
Debido a que dos moléculas de isopreno se unen para formar un tipo bien conocido
de compuesto llamado «terpeno» (obtenido a partir de la esencia de trementina), la
goma y la gutapercha se denominan «politerpenos».
El término general para tales compuestos fue inventado por Berzelius (un gran
inventor de nombres y símbolos) ya en el año 1830. Denominó a la unidad básica
un «monómero» («una parte») y a la molécula grande un «polímero» («muchas
partes»). Los polímeros que consisten de muchas unidades (digamos, más de un
centenar) se denominan ahora «polímeros altos» El almidón, la celulosa, la goma y
la gutapercha son todos ellos ejemplos de polímeros altos.
Los polímeros no son compuestos bien definidos, sino mezclas complejas de
moléculas de diferente tamaño. El peso molecular medio puede ser determinado por
diversos métodos. Uno de ellos es la determinación de la «viscosidad», (la facilidad
o dificultad con que un líquido fluye bajo una presión dada). Cuanto más grande y
más alargada es la molécula, tanto más contribuye a la «fricción interna» de un
líquido y tanto más se asemejará a la melaza cuando se vierta y menos al agua. El
químico alemán Hermann Staudinger elaboró este método en 1930 como parte de
su trabajo general sobre polímeros, y, en 1953, fue galardonado con el premio
Nobel de Química por su contribución al conocimiento de estas moléculas gigantes.
En 1913, dos químicos japoneses descubrieron que las fibras naturales, tales como
las de la celulosa, difractaban los rayos X del mismo modo como lo hace un cristal.
Las fibras no son cristales en el sentido ordinario de la palabra, pero son de carácter
«microcristalino» Es decir, las cadenas largas de unidades que constituyen su
molécula tienden a correr en haces paralelos en distancias más largas o más cortas,
aquí y allá. A lo largo de aquellos haces paralelos, los átomos se hallan dispuestos
en un orden repetitivo, del mismo modo como lo están en los cristales, y los rayos X
que inciden sobre aquellas secciones de la fibra son difractados.
Debido a esto, los polímeros han sido divididos en dos grandes clases: cristalinos y
amorfos.
pólvora ordinaria producía tantos humos que ennegrecía el ánima de los cañones,
que debían ser limpiados entre uno y otro disparo, y también daba lugar a tal
cantidad de humo que, después de las primeras andanadas, las batallas tenían que
librarse a ciegas. Por tanto, los Ministerios de Guerra se sintieron muy bien
dispuestos ante la posibilidad de utilizar un explosivo que no sólo era más poderoso,
sino que además, no producía humos. Las fábricas para la manufactura del algodón
pólvora comenzaron a crecer, y desaparecieron casi tan rápidamente como habían
nacido. El algodón pólvora era un explosivo demasiado peligroso; no esperaba a ser
disparado. A principios de 1860, se había superado el boom del algodón pólvora,
tanto de forma figurada como literalmente.
Sin embargo, más tarde se descubrieron nuevos métodos para eliminar las
pequeñas cantidades de impurezas que favorecían la explosión del algodón pólvora.
Entonces se hizo razonablemente seguro para ser manipulado. El químico inglés
Dewar (famoso por el gas licuado) y su colaborador Frederick Augustus Abel,
introdujeron la técnica, en 1889, de mezclarlo con la nitroglicerina y añadir vaselina
a la mezcla para hacerla moldeable en cables (la mezcla fue llamada «cordita»). Lo
que finalmente se obtuvo fue un polvo que no producía humos y era útil. La guerra
de Cuba, de 1898, fue la última de cierta importancia en la que se utilizó la pólvora
común.
(La Era de la máquina añadía también su aportación a los horrores de los
armamentos. Hacia 1860, el inventor estadounidense Richard Gatling produjo la
primera «ametralladora» para el disparo rápido de balas, y ésta fue mejorada por
otro inventor del mismo país, Hiram Stevens Maxim, en 1880. El «arma de Gatling»
dio origen al vocablo inglés gat para designar el arma. Ésta y su descendiente, la
«Maxim», proporcionaron a los imperialistas desvergonzados de finales del siglo XIX
una ventaja sin precedentes sobre las «razas inferiores», para utilizar la ofensiva
frase de Rudyard Kipling, de África y Asia. Una canción popular dice: « ¡Sea lo que
sea, hemos llevado el "Maxim", y ellos no lo tienen!»)
Los «progresos» de este tipo continuaron en el siglo xx. El explosivo más
importante en la Primera Guerra Mundial fue el «trinitrotolueno», abreviado
familiarmente como TNT. En la Segunda Guerra Mundial se utilizó un explosivo aún
más poderoso, la «ciclonita». Ambos contienen el grupo nitro (NO2) en vez del
grupo nitrato (NO2O). Sin embargo, todos los explosivos químicos tuvieron que
ceder el trono a las bombas nucleares en 1945 (véase capítulo IX).
La nitroglicerina, a su vez, fue descubierta en el mismo año que el algodón pólvora.
Un químico italiano llamado Ascanio Sobrero trató la glicerina con una mezcla de
ácido nítrico y ácido sulfúrico y supo que había descubierto algo importante cuando
casi se mató a consecuencia de la explosión que le siguió. Sobrero, careciendo de
los impulsos emocionales de Schönbein, consideró que la nitroglicerina era una
sustancia demasiado peligrosa para ser manejada y apenas informó sobre ella.
Pero, antes de que hubieran transcurrido 10 años, una familia sueca, los Nobel, la
fabricaron como un «aceite explosivo», para utilizarlo en minería y en trabajos de
construcción. Después de una serie de accidentes, incluyendo aquel que costó la
vida a un miembro de la familia, el hermano de la víctima, Alfred Bernhard Nobel,
descubrió un método para mezclar la nitroglicerina con una tierra comúnmente
llamada kieselguhr, o «tierra de diatomeas» (el kieselguhr consta, sobre todo, de
los delicados esqueletos de los organismos unicelulares llamados diatomeas). La
mezcla consistía en tres partes de nitroglicerina y una de kieselguhr, pero era tal el
poder absorbente de este último, que la mezcla era virtualmente un polvo seco. Una
barrita de esta tierra (dinamita) impregnada podía ser dejada caer, percutida,
incluso consumida por el fuego, sin explotar. Cuando se sometía a la acción de un
percutor (accionado eléctricamente y a distancia), manifestaba todo el poder de la
nitroglicerina pura.
Los percutores contenían explosivos sensibles que detonaban por el calor o por un
golpe metálico y, por ello, se denominan «detonadores». La fuerte percusión de la
detonación desencadena la de la dinamita, menos sensible. Parecía como si el
peligro simplemente se trasladara desde la nitroglicerina a los detonadores, pero en
realidad aquello no era tan malo como pueda parecer, ya que el detonador sólo se
requiere en pequeñas cantidades. Los detonadores más utilizados son el fulminato
de mercurio (C2N2O2Hg) y la ácida de plomo (N6Pb).
Los cartuchos de «dinamita» hicieron posible proveer al Oeste americano de raíles,
minas, carreteras y diques, a una velocidad sin precedentes en la Historia. La
dinamita, y otros explosivos que también descubrió, hicieron millonario al aislado e
impopular Nobel (que fue calificado, a pesar de sus actividades humanitarias, de
Pero volvamos a la celulosa modificada. Claramente era la adición del grupo nitrato
lo que la convertía en explosiva. En el algodón pólvora estaban nitrados todos los
grupos hidróxilos disponibles. ¿Qué pasaría si sólo lo estuvieran algunos de ellos?
¿No serían menos explosivos?
En realidad, esta celulosa parcialmente nitrada no era en absoluto explosiva. Sin
embargo, era consumida con rapidez por el fuego; el material fue denominado
«piroxilina» (de las palabras griegas que significan «madera ígnea»).
La piroxilina podía ser disuelta en mezclas de alcohol y éter. (Esto fue descubierto,
independientemente, por el estudiante francés Louis-Nicolas Ménard y un estudiante
norteamericano de Medicina llamado J. Parkers Maynard. Se advierte una curiosa
semejanza entre sus apellidos.) Cuando se evaporaban el alcohol y el éter, la
piroxilina aparecía depositada en la forma de una película tenue y transparente, a la
que se llamó «colodión». Su primera aplicación fue en forma de revestimiento sobre
cortes de pequeña importancia y quemaduras; fue denominado «piel nueva». Sin
embargo, las aventuras de la piroxilina sólo estaban comenzando. Todavía debían
acontecer muchas más.
La propia piroxilina es quebradiza en cantidad. El químico inglés Alexander Parkes
descubrió que, si se disolvía en alcohol y éter se mezclaba con una sustancia tal
como el alcanfor, por la evaporación del disolvente se formaba un sólido duro que
se ablandaba y se hacía maleable al calentarse. Podía luego ser moldeado en
cualquier forma deseada, forma que conservaba al enfriarse y endurecerse. Así, la
nitrocelulosa se transformó en el primer «plástico artificial», y esto sucedió en el
año 1865. El alcanfor, que introducía las propiedades plásticas en una sustancia por
lo demás quebradiza, fue el primer «plastificante».
Lo que determinó que los plásticos llamaran la atención del público y lo convirtieran
en algo más que una curiosidad química fue su espectacular presentación en la sala
de billar. Las bolas de billar se fabricaban entonces de marfil, material que podía
obtenerse del cadáver de un elefante. Naturalmente, esto creaba problemas. En los
comienzos de 1860 se ofreció un premio de 10.000 dólares para el mejor sustituto
del marfil que pudiera satisfacer las múltiples propiedades de una bola de billar,
relativas a su dureza, elasticidad, resistencia al calor y a la humedad, ausencia de
grano, etc. El inventor estadounidense John Wesley Hyatt fue uno de los que optó al
premio. No logró ningún resultado positivo hasta que tuvo noticias acerca del truco
de Parkes de plastificar la piroxilina para convertirla en material moldeable, que
podía transformarse en un sólido duro. Hyatt desarrolló métodos mejorados de
fabricación del material, empleando menor cantidad de alcohol y éter (productos
caros) y poniendo mayor atención en las condiciones de calor y presión utilizadas.
Hacia 1869, Hyatt fabricaba baratas bolas de billar de este material, que él llamó
«celuloide». Ganó el premio.
El celuloide resultó tener también importancia fuera de la mesa de billar. Era
realmente versátil. Podía ser moldeado a la temperatura de ebullición del agua,
podía ser cortado, torneado, serrado a temperaturas bajas, era fuerte y duro en
bloque, pero podía ser producido en la forma de películas delgadas y flexibles que
servían como collares, sonajeros para niños, etc. En la forma de una película aún
más delgada y flexible podía ser utilizado como base para los compuestos de plata
en gelatina y, de este modo, se convirtió en el primer filme fotográfico práctico.
El único defecto del celuloide era que, gracias a sus grupos nitrato, tenía la
tendencia a quemarse con sorprendente rapidez, sobre todo cuando se hallaba en la
forma de película fina. Por tal motivo fue la causa de una serie de tragedias.
La sustitución por grupos acetato (CH3COO-) de los grupos nitrato dio lugar a la
formación de otro tipo de celulosa modificada, llamada «acetato de celulosa»
Adecuadamente plastificada, tiene propiedades tan buenas, o casi tan buenas, como
las del celuloide, y además la ventaja de que se quema con mucha menor facilidad.
El acetato de celulosa empezó a utilizarse inmediatamente antes de la Primera
Guerra Mundial, y, después de la guerra, remplazó completamente al celuloide en la
fabricación de películas fotográficas y muchos otros objetos.
En el curso de medio siglo después del desarrollo del celuloide, los químicos se
emanciparon en la dependencia a la celulosa como base de los plásticos. Ya en el
año 1872, Baeyer (que más tarde sintetizaría el índigo) había indicado que cuando
se calentaban conjuntamente los fenoles y aldehídos se obtenía como resultado una
masa resinosa. Ya que estaba interesado sólo en las pequeñas moléculas que podía
aislar de la reacción, ignoró esta masa en el fondo del recipiente (como típicamente
hacían los químicos orgánicos del siglo XIX cuando los precipitados ensuciaban sus
recipientes de vidrio). Treinta y siete años más tarde, el químico americano de
de las sartenes, que permite que los alimentos sean fritos sin grasa, ya que la grasa
no se pega al polímero de fluorocarbonado que la repele.
Un compuesto interesante que no es exactamente un fluorocarbono es el «Freón»
(F2CL2C), introducido en 1932 como refrigerante. Es más caro que el amoníaco o el
dióxido de azufre utilizados en los congeladores a gran escala, pero, por otra parte,
el «Freón» es inodoro, atóxico e ininflamable, de tal modo que cualquier fuga
accidental representa un peligro mínimo. Gracias al «Freón», los acondicionadores
de aire en las habitaciones se han convertido en algo muy característico de la
escena norteamericana desde la Segunda Guerra Mundial.
Por supuesto, las propiedades plásticas no pertenecen sólo al mundo orgánico. Una
de las más antiguas de todas las sustancias plásticas es el vidrio. Las grandes
moléculas del vidrio son esencialmente cadenas de átomos de sílice y oxígeno; es
decir, -Si-O-Si-O-Si-O-Si-, y así indefinidamente. Cada átomo de sílice en la cadena
tiene dos enlaces no ocupados, a los que pueden añadirse otros grupos. El átomo de
sílice, de forma similar al átomo de carbono, tiene 4 enlaces de valencia. Sin
embargo, el enlace sílice-sílice es más débil que el enlace carbono-carbono, de tal
modo que sólo se forman cadenas cortas de sílice, y aquéllas (en los compuestos
llamados «silanos») son inestables.
Sin embargo, el enlace sílice-oxígeno es muy fuerte y en tales cadenas aún son más
estables que aquéllas del carbono. En realidad, puesto que la corteza de la Tierra es
la mitad oxígeno y una cuarta parte de sílice, la base sólida sobre la que nos
hallamos puede considerarse esencialmente como una cadena de sílice-oxígeno.
Aunque la belleza y utilidad del vidrio (un tipo de arena que se ha hecho
transparente) son infinitas, posee la gran desventaja de romperse, y, en el proceso
de rotura, produce fragmentos duros y cortantes, que pueden ser peligrosos e
incluso mortales. Un parabrisas de automóvil, por efecto de un golpe, puede
convertirse en una granada de metralla.
No obstante, el vidrio puede ser preparado como una lámina doble entre las que se
coloca una delgada capa de un polímero transparente, que se endurece y actúa
como un adhesivo. Éste es el «vidrio de seguridad», pues, cuando es roto, e incluso
se lo intenta pulverizar, cada pieza es mantenida firmemente en su lugar por el
polímero. Ninguno vuela en misiones mortales. Originalmente, ya en el año 1905,
Así, pues, puede decirse que se trata de un compromiso entre un material orgánico
y otro inorgánico. Ya en el año 1908, el químico Inglés Frederic Stanley Kipping
formó tales compuestos, y ahora se los conoce como «siliconas».
Durante la Segunda Guerra Mundial, las «resinas de silicona» de larga cadena
adquirieron gran importancia. Tales siliconas son esencialmente más resistentes al
calor que los polímeros orgánicos por completo. Al variar la longitud de la cadena y
la naturaleza de las cadenas laterales, puede obtenerse una serie de propiedades
deseables no poseídas por el propio vidrio. Por ejemplo, algunas siliconas son
líquidas a la temperatura ambiente y cambian muy poco en su viscosidad en un
amplio campo de valores de temperatura. (Es decir, no se licuan con el calor o
aumentan de viscosidad con el frío.) Ésta es una propiedad particularmente útil para
el fluido hidráulico, el tipo de fluido usado, por ejemplo, para bajar el tren de
aterrizaje de los aviones. Otras siliconas forman sustancias de cierre blandas, como
si fueran de masilla, que no se endurecen o rompen a las bajas temperaturas de la
estratosfera y repelen el agua. Existen otras siliconas que sirven para lubricantes
resistentes a los ácidos, etc.
Hacia fines de la década de 1960 se utilizaban ya toda clase de plásticos a razón de
7.000.000 Tm por año, lo cual planteaba un serio problema respecto a la
eliminación de desperdicios.
En 1962 se anunció la posible utilización de un polímero definitivamente asombroso,
cuyas derivaciones potenciales teóricas eran fascinantes. Durante aquel año, el
físico soviético Boris Vladimirovich Deriaguin informó que el agua, conducida por
tubos muy delgados, parecía adquirir propiedades extraordinariamente peculiares.
Casi todos los químicos se mostraron escépticos. Sin embargo, poco tiempo
después, los investigadores estadounidenses confirmaron el hallazgo de Deriaguin.
Al parecer, ocurría lo siguiente: cuando se les imponía unas condiciones
restringentes, las moléculas de agua se alineaban ordenadamente y sus átomos se
aproximaban unos a otros bastante más que en condiciones ordinarias. La
estructura semejaba un polímero compuesto por unidades H2O. Desde entonces se
empleó la expresión «agua polimerizante».
El agua polimerizante era 1,4 veces más densa que el agua ordinaria, soportaba
una temperatura de 500º C sin entrar en ebullición, y sólo se congelaba, formando
un hielo vidrioso, a los –40º C. Lo más interesante para los biólogos fue la
posibilidad de que ese agua polimerizante existiera en los recónditos confines de la
célula interna, y que sus propiedades constituyeran la clave de algún proceso vital.
Sin embargo, los laboratorios químicos empezaron a divulgar informes en los que se
advertía que ese agua polimerizante era, probablemente, un agua ordinaria que tal
vez hubiera disuelto el silicato sódico de materias vítreas o se hubiese contaminado
con la transpiración. En suma, el agua polimerizante era tan sólo agua impura. El
peso de la evidencia pareció hacer derivar aquel asunto hacia lo negativo. Así, pues,
se descartó el agua polimerizante tras su breve pero agitada vida..., no obstante, la
controversia no ha dado fin todavía a la hora de escribir estas líneas.
Las Fibras
Las fibras sintéticas suponen un capítulo particularmente interesante en la historia
de la síntesis orgánica.
Las primeras fibras artificiales (al igual que los primeros plásticos) fueron
elaboradas a partir de la celulosa. Naturalmente, los químicos empezaron a partir
del nitrato de celulosa, ya que se disponía de él en cantidades razonables, disolvió
el nitrato de celulosa en una mezcla de alcohol y éter, e hizo pasar la densa solución
resultante a través de pequeños orificios. Cuando la solución se dispersó, el alcohol
y el éter se evaporaron, dando lugar a que el nitrato de celulosa adquiriera la forma
de finos filamentos de colodión. (Ésta es, esencialmente, la forma en que las arañas
y gusanos de seda forman sus hilos. A través de finos orificios expulsan un líquido
que se convierte en una fibra sólida al exponerse al aire.) Las fibras de nitrato de
celulosa eran demasiado inflamables para ser utilizadas, pero los grupos nitrato
podían eliminarse mediante un tratamiento químico apropiado, y el resultado fue un
hilo de celulosa lustroso que se asemejaba a la seda.
Por supuesto, el método de Chardonnet era caro, dado que primero debían
introducirse grupos nitrato para luego ser eliminados, sin tomar en consideración el
peligroso interludio mientras se hallaban en su lugar y el hecho que la mezcla de
alcohol-éter utilizada como disolvente también era peligrosamente inflamable. En
1892 se descubrieron métodos para disolver la propia celulosa. El químico inglés
Charles Frederick Cross, por ejemplo, la disolvió en disulfuro de carbono y formó un
seda ha seguido siendo un objeto más o menos de lujo. Además, hasta hace poco
no existía ningún buen sustitutivo. El rayón pudo imitar su brillo, pero no su
transparencia o resistencia.
Después de la Primera Guerra Mundial, cuando las medias de seda se convirtieron
en un objeto indispensable del guardarropa femenino, se hizo muy fuerte la presión
para la obtención de mayores cantidades de seda o de algún adecuado sustitutivo
de la misma. Esto ocurrió particularmente en los Estados Unidos, donde la seda era
utilizada en grandes cantidades y donde las relaciones con el principal proveedor, el
Japón, estaban empeorando de forma gradual. Los químicos soñaban en el modo de
obtener una fibra que pudiera compararse con ella.
La seda es una proteína. Su molécula está constituida por monómeros
«aminoácidos» que, a su vez, contiene grupos «amino» (-NH2) y «carboxilo» (-
COOH). Los dos grupos se hallan unidos entre sí por un átomo de carbono;
representando al grupo amino por a y al grupo carboxilo por c, y al carbón
interpuesto por un guión, podemos escribir un aminoácido de la siguiente manera: a
- c. Estos aminoácidos se polimerizan de tal modo que el grupo amino de uno se
condensa con el grupo carboxilo del siguiente. Así, la estructura de la molécula de la
seda es similar a ésta: ...a – c. a – c . a – c . a - c...
En los años 30, un químico de «Du Pont», llamado Wallace Hume Carothers,
investigaba las moléculas que contenían grupos amino y grupos carboxilo, con la
esperanza de descubrir un método para condensarlos de tal forma que dieran lugar
a moléculas con grandes anillos. (Tales moléculas tienen importancia en la
perfumería.) En vez de esto halló que se condensaban formando moléculas de
cadena larga.
Carothers ya había sospechado que eran posibles cadenas largas y, por supuesto, el
resultado no le cogió de sorpresa. Perdió poco tiempo en seguir este desarrollo.
Formó fibras a partir de ácido adípico y la hexametilendiamina. La molécula de ácido
adípico contiene dos grupos carboxílicos separados por cuatro átomos de carbono,
de tal modo que puede simbolizarse de la siguiente manera: c - - - - c. La
hexametilendiamina consiste de dos grupos amínicos separados por 6 átomos de
carbono, así, pues: a - - - - - - a. Cuando Carothers mezcló las dos sustancias, se
condensaron para formar un polímero similar al siguiente: ...a - - - - - - a . c - - - -c
1950, es el «Orlón». Si el cloruro de vinilo (CH2 = ClCH) se añade, de tal modo que
la cadena contenga tantos átomos de cloro como grupos cianuro, se obtiene el
«Dynel». O la adición de grupos acetato, utilizando el acetato de vinilo (CH2 =
CH3CHOOC), da lugar al «Acrilán».
En 1941, los británicos crearon una fibra «poliéster», en la que el grupo carboxilo
de un monómero se condensa con el grupo hidróxilo de otro. El resultado es la usual
cadena larga de átomos de carbono, rota en este caso por la inserción periódica de
un oxígeno en la cadena. Los británicos la llamaron «Terylene», pero en los Estados
Unidos ha aparecido con el nombre de «Dacrón».
Estas nuevas fibras sintéticas repelen aún más el agua que las fibras naturales;
resisten el vapor y no son fácilmente teñidas. No son destruidas por la polilla y otros
insectos. Algunas son resistentes al arrugado y pueden utilizarse para fabricar
prendas de «lavar y poner».
Gomas
Es un tanto sorprendente apreciar que el ser humano va sobre ruedas de caucho
desde hace sólo un centenar de años. Durante miles de años ha viajado sobre
ruedas de madera o metal. Cuando el descubrimiento de Goodyear hizo posible
utilizar el caucho vulcanizado, a una serie de personas se les ocurrió que en torno a
las ruedas podría colocarse caucho en vez de metal. En 1845, un ingeniero
británico, Robert William Thomson, sustituyó esta idea por una mejor: patentó un
dispositivo que consistía en un tubo de goma inflado, que podía adaptarse a una
rueda. Hacia 1980, los «neumáticos» eran utilizados ya usualmente en las bicicletas
y, en 1895, se emplearon en los carruajes tirados por caballos.
Aunque parezca chocante, el caucho, una sustancia relativamente débil y blanda,
resultó ser mucho más resistente a la abrasión que la madera o el metal. Esta
duración, junto con sus cualidades de absorción de los choques y la idea de un cojín
de aire, proporcionó al ser humano una comodidad sin precedentes en los
desplazamientos.
Al aumentar la importancia del automóvil, se incrementó astronómicamente la
demanda de neumáticos de caucho. En medio siglo, la producción mundial de
caucho aumentó 42 veces. Puede tenerse una idea de la cantidad de éste utilizado
para los neumáticos en la actualidad, si indico que en los Estados Unidos dejan no
menos de 200.000 Tm de residuos de goma sobre las autopistas cada año, a pesar
de la cantidad relativamente pequeña de goma sometida a la abrasión procedente
de los neumáticos de un solo automóvil.
La creciente demanda de caucho introdujo una cierta inseguridad en los
aprovisionamientos con destino bélico de muchas naciones. Puesto que la guerra se
mecanizaba, los Ejércitos y el armamento empezaban a moverse sobre goma, y el
caucho solamente podía obtenerse en cantidades apreciables en la península
malaya, muy lejana de las naciones «civilizadas», que con mayor probabilidad se
verían envueltas en una guerra «civilizada». (La Península de Malaca no es el
hábitat natural del árbol del caucho. El árbol fue trasplantado allí, con gran éxito,
procedente del Brasil, donde han disminuido constantemente las existencias
originales de caucho.) Los suministros de los Estados Unidos fueron cortados, al
iniciarse su entrada en la Segunda Guerra Mundial, cuando los japoneses
conquistaron Malaca. Las aprensiones norteamericanas en este sentido
determinaron el hecho que el primer artículo racionado durante la guerra, incluso
antes del ataque a Pearl Harbor, fueran los neumáticos de goma.
En la Primera Guerra Mundial, cuando la mecanización estaba empezando. Alemania
fue perjudicada al serle intervenidos los suministros de caucho por el poder naval
aliado.
Durante la Primera Guerra Mundial, existieron razones para considerar la posibilidad
de fabricar un caucho sintético. El material de partida natural para tal goma
sintética era el isopreno, el sillar de la goma natural. Ya en 1880, los químicos
habían apreciado que al dejar reposar el isopreno, éste tendía a hacerse gomoso y,
si se acidificaba, se convertía en un material similar a la goma. El káiser Guillermo
II tenía los neumáticos de su automóvil oficial hechos de tal material, como una
especie de reclamo publicitario del virtuosismo químico alemán.
Sin embargo, existían dos obstáculos para utilizar el isopreno como material de
partida para sintetizar la goma. Primero, la única fuente importante de isopreno era
la propia goma. Segundo, cuando el isopreno se polimeriza, es más probable que lo
haga de una forma totalmente al azar. La cadena de la goma posee todas las
unidades de isopreno orientadas de la misma manera: - - - uuuuuuuuu - - -. La
La goma Buna era un caucho sintético que podía ser considerado satisfactorio en
caso de apuro. Fue mejorado por la adición de otros monómeros, que alternaban
con el butadieno a intervalos en la cadena. La adición más satisfactoria fue el
«estireno», un compuesto similar al etileno, pero con un anillo de benceno unido a
uno de los átomos de carbono. Este producto fue llamado Buna S.
Sus propiedades eran muy similares a las de la goma natural y, en realidad, gracias
a ella, las fuerzas armadas alemanas no sufrieron una grave carencia de goma en la
Segunda Guerra Mundial. La Unión Soviética también dispuso de suministros
adecuados de caucho de la misma manera. Las materias primas podían obtenerse a
partir del carbón o el petróleo.
Los Estados Unidos desarrollaron tardíamente la goma sintética en cantidades
comerciales, quizá debido a que antes de 1941 no existió un peligro de carencia de
goma. Pero, después de Pearl Harbor, fabricaron goma sintética en cantidad.
Empezaron a producir la goma Buna y otro tipo de goma sintética llamada
«neopreno», obtenida a base del «cloropreno»:
Como puede verse, esta molécula se parece al isopreno, salvo por la sustitución del
grupo metilo por un átomo de cloro.
Los átomos de cloro unidos a intervalos a la cadena del polímero confieren al
neopreno una cierta resistencia que no posee la goma natural. Por ejemplo, es más
resistente a los disolventes orgánicos tales como la gasolina: no se ablanda y
esponja como lo haría la goma natural. Así, el neopreno es realmente preferible a la
goma para usos tales como los tubos flexibles para la conducción de gasolina. El
neopreno demostró claramente, por vez primera, que en el campo de las gomas
sintéticas, como en otros muchos campos, el producto del tubo de ensayo no
precisaba ser un mero sustituto del natural, sino que incluso podía perfeccionarlo.
Los polímeros amorfos sin semejanza química con la goma natural, pero con
cualidades similares a las de la goma, han sido producidos ahora y ofrecen toda una
constelación de propiedades deseables. Ya que realmente no son gomas, son
denominados «elastómeros» (una abreviatura de «polímeros elásticos»).
El primer elastómero distinto de la goma fue descubierto en 1918. Éste era una
«goma de polisulfuro»; su molécula era una cadena compuesta de pares de átomos
de carbono que alternaban con grupos de cuatro átomos de azufre. La sustancia fue
denominada «Thiokol», procediendo el prefijo de la palabra griega para el azufre.
El olor asociado a su preparación impidió durante largo tiempo que fuera producido
comercialmente.
También se han formado elastómeros a partir de monómeros acrílicos,
fluorocarbonos y siliconas. Aquí, como en casi todo campo que toca, el químico
orgánico trabaja como un artista, utilizando materiales para crear nuevas formas y
aventajar a la Naturaleza.
Capítulo 11
LAS PROTEÍNAS
Como puede apreciarse, cada compuesto tiene en su extremo un grupo amina (NH2)
y un grupo carboxilo (COOH). Debido a que el grupo carboxilo confiere propiedades
de ácido a cualquier molécula que lo contenga, las moléculas de este tipo fueron
denominadas «aminoácidos». Aquellos que tienen el grupo amina y el grupo
carboxilo unidos entre sí por un único átomo de carbono, como ocurre en estas
moléculas, se denominan «alfa-aminoácidos».
Con el transcurso del tiempo, los químicos aislaron otros aminoácidos a partir de las
proteínas. Por ejemplo, Liebig consiguió obtener uno de ellos a partir de la proteína
de la leche (caseína), que denominó «tirosina» (de la palabra griega para el
«queso»; el propio término caseína procede también, de la designación latina para
el «queso»).
Las diferencias entre los diversos alfa-aminoácidos radican enteramente en la
naturaleza del conjunto de átomos unidos a aquel átomo de carbono único situado
entre los grupos amínico y carboxílico. La glicina, el más sencillo de todos los
aminoácidos, sólo tiene un par de átomos de hidrógeno unidos a aquél. Los demás
poseen una «cadena lateral» de átomos de carbono unida a aquel átomo de
carbono.
Realmente, la cistina fue aislada por vez primera en 1810 por el químico inglés
William Hyde Wollaston, a partir de un cálculo vesical, y la denominó cistina
basándose en la palabra griega para la «vejiga». Lo que hizo Mörner fue demostrar
que este centenario compuesto era un componente de las proteínas, así como
también la sustancia existente en los cálculos vesicales.
1901 logró la primera condensación de este tipo; uniendo entre sí dos moléculas de
glicina, con eliminación de una molécula de agua:
Ésta es la condensación más simple posible. En 1907, Fischer había sintetizado una
cadena constituida por 18 aminoácidos, 15 de ellos de glicina y los restantes 3 de
leucina. Esta molécula no mostraba ninguna dé las propiedades características de
las proteínas, pero Fischer supuso que esto se debía a que la cadena no era lo
suficientemente larga. Denominó a sus cadenas sintéticas «péptidos», utilizando la
palabra griega que significa «digestión», debido a que creyó que las proteínas se
fragmentaban en tales grupos cuando eran digeridas. Fischer designó a la
combinación del carbón del carboxilo con el grupo amino un «enlace peptídico».
En el año 1932, el bioquímico alemán Max Bergmann (discípulo de Fischer) ideó un
método para sintetizar péptidos a partir de diversos aminoácidos. Utilizando el
método de Bergmann, el bioquímico polaco-americano Joseph Stewart Fruton
preparó péptidos que pudo degradar en fragmentos más pequeños mediante jugos
digestivos. Desde entonces existió una buena razón para suponer que los jugos
digestivos hidrolizaban (es decir, escindían por adición de agua) sólo un tipo de
enlace molecular, significando esto que el enlace entre los aminoácidos, en los
péptidos sintéticos, debía de ser de la misma clase que el que une a los aminoácidos
en las proteínas verdaderas. Esta demostración disipó cualquier duda existente
sobre la validez de la teoría peptídica de Fischer acerca de la estructura de las
proteínas.
No obstante, los péptidos sintéticos eran de dimensiones muy reducidas y no
mostraban ninguna de las propiedades de las proteínas. Como ya he dicho
anteriormente, Fischer había sintetizado uno que consistía de 18 aminoácidos; en
1916, el químico suizo Emil Abderhalden lo aventajó en un punto, al preparar un
péptido con 19 aminoácidos, conservando con ello el «récord» durante treinta años.
Las moléculas proteicas, aún cuando tienen gran tamaño, no son lo suficientemente
pesadas para sedimentar, a partir de una solución, por la simple acción de la
gravedad; ni tampoco sedimentan con rapidez en una centrifugadora ordinaria.
Pero, en los años veinte de este siglo, el químico sueco Theodor Svedberg desarrolló
una «ultracentrifugadora» capaz de separar a las moléculas según su peso. Este
aparato, de gran velocidad, gira a más de 10.000 r.p.seg. y produce fuerzas
centrífugas hasta 900.000 veces más intensas que la fuerza gravitatoria que actúa
sobre la superficie de la Tierra. Por sus contribuciones al estudio de las
suspensiones, Svedberg recibió en 1926 el premio Nobel de Química.
Con la ultracentrifugadora, los químicos fueron capaces de determinar los pesos
moleculares de una serie de proteínas a partir de su velocidad de sedimentación
(medida en «Svedbergs» en honor de aquel químico). Las proteínas pequeñas
mostraron tener pesos moleculares de sólo unos pocos millares y contener quizás a
lo sumo 50 aminoácidos (por supuesto, bastante más que 19). Otras proteínas
tenían pesos moleculares de cientos de miles y aún de millones, lo que significaba
que debían consistir de miles a decenas de millares de aminoácidos. El poseer
moléculas de tan grandes dimensiones situó a las proteínas en una clase de
sustancias que sólo habían sido estudiadas sistemáticamente a partir de mediados
del siglo XIX.
Sin embargo, parece totalmente demostrado, a partir de los análisis químicos y con
rayos X, que las cadenas polipéptidas están constituidas únicamente por L-
aminoácidos. En este caso, las cadenas laterales se desprenden alternativamente de
un lado de la columna vertebral y luego del otro. Una cadena constituida por una
mezcla de ambos isómeros no sería estable, debido a que, si un L-aminoácido y un
D-aminoácido se hallaran uno junto al otro, habría dos cadenas laterales que se
extenderían a partir del mismo lado, lo que determinaría que estuvieran tan
próximas una de otra que los enlaces resultarían sometidos a tensión. Las cadenas
laterales son elementos importantes de unión entre las cadenas polipéptidas
vecinas. Allí donde una cadena lateral cargada negativamente, perteneciente a una
cadena, se halle próxima a una cadena lateral carga da positivamente,
perteneciente a una vecina, se formará un enlace electrostático. Las cadenas
laterales también permiten la formación de enlaces de hidrógeno que pueden actuar
como puentes de unión. Y el aminoácido con dos extremos, la cistina, puede
insertar una de sus secuencias grupo amino-grupo carboxilo en una cadena y la otra
en la próxima. Entonces las dos cadenas se hallarán unidas por los dos átomos de
azufre en la cadena lateral (el «enlace disulfuro»). La unión de las cadenas
polipéptidas aumenta la resistencia de las fibras proteicas. Esto explica la
considerable resistencia del hilo de araña, aparentemente frágil, y el hecho de que
la queratina pueda formar estructuras tan duras como las uñas de los dedos, las
garras del tigre, las escamas del caimán y los cuernos del rinoceronte.
Todo lo expuesto hasta aquí describe bellamente la estructura de las fibras
proteicas. ¿Qué ocurre con las proteínas en solución? ¿Qué tipo de estructura
adquieren entonces? En realidad poseen una estructura definida que, no obstante,
es extremadamente delicada; un suave calentamiento, la agitación de la solución, la
adición de una pequeña cantidad de ácido o de álcali, o cualquiera de una serie de
influencias ambientales, pueden «desnaturalizar» una proteína disuelta. Es decir, la
proteína pierde la capacidad de realizar sus funciones naturales y se alteran muchas
Aminoácidos en la Cadena
Lo que he descrito hasta el momento representa una visión de conjunto de la
estructura de la molécula proteica: la forma general de la cadena. ¿Cuáles son los
detalles de su estructura? Por ejemplo, ¿cuántos aminoácidos de cada clase existen
en una molécula proteica determinada? Podemos fragmentar una molécula proteica
en sus aminoácidos (calentándola con un ácido) y luego determinar la cantidad de
cada aminoácido que se halla presente en la mezcla. Desgraciadamente, algunos de
los aminoácidos se parecen químicamente tanto entre sí, que es casi imposible
obtener separaciones claras mediante los métodos químicos ordinarios. Sin
embargo, los aminoácidos pueden separarse limpiamente mediante la cromatografía
(véase capítulo V).
Un espectrofotómetro. El haz de luz es dividido en dos, de tal modo que uno de los
haces pase a través de la muestra que se está analizando y el otro incida
directamente sobre la célula fotoeléctrica. Puesto que el haz de menor intensidad
que ha atravesado la muestra libera menos electrones en la célula fotoeléctrica de
lo que lo hace el haz no absorbido, los dos haces crean una diferencia de potencial
que mide la cantidad de luz absorbida por la muestra.
En el año 1941, los bioquímicos británicos Archer John, Porter Martin y Richard
Laurence Millington Synge fueron los primeros en aplicar la cromatografía a este
objetivo. Introdujeron el empleo del almidón como material de relleno en la
columna. En el año 1948, los bioquímicos estadounidenses Stanford Moore y William
Howard Stein lograron convertir la cromatografía sobre almidón de los aminoácidos
en un método analítico muy eficaz.
Después de que la mezcla de aminoácidos ha sido vertida en el interior de la
columna de almidón y todos ellos se han unido a las partículas del material de
relleno, los aminoácidos son lentamente arrastrados en sentido descendente a lo
largo de la columna, al pasar el eluyente a su través. Cada aminoácido se desplaza
hacia la parte inferior de la columna a una velocidad que le es característica. A
medida que se desprenden separadamente de ésta, las gotas de la solución de cada
uno de los aminoácidos se recogen en un recipiente distinto. La solución en cada
recipiente se trata posteriormente con un reactivo que convierte el aminoácido en
un producto coloreado. La intensidad del color indica la cantidad del aminoácido
particular presente. A su vez, esta intensidad del color se mide utilizando un
instrumento denominado «espectrofotómetro», que señala dicha intensidad en
función de la cantidad de luz absorbida de una determinada longitud de onda.
Los espectrofotómetros pueden utilizarse para otros tipos de análisis químicos,
como es de suponer. Si se hace pasar luz, de longitud de onda progresivamente
creciente a través de una solución, la magnitud de la absorción varía ligeramente,
alcanzando valores máximos en ciertas longitudes de onda y manifestando valores
mínimos en otras. El resultado es un registro denominado «espectro de absorción».
Un determinado grupo atómico posee su propio pico o picos de absorción
característicos. Esto se aprecia particularmente en la región de los infrarrojos, tal
como demostró por vez primera el físico norteamericano William Weber Coblentz
poco después de 1900. Sus instrumentos tenían por entonces tan escasa
sensibilidad que la técnica no resultaba de utilidad, pero, desde la Segunda Guerra
Mundial, el «espectrofotómetro de infrarrojos» ideado para rastrear
automáticamente el espectro desde los 2 a los 40 micrones y registrar los
resultados, se ha venido utilizando cada vez más para el análisis de la estructura de
compuestos complejos. «Los métodos ópticos» del análisis químico, que implica la
absorción de ondas de radio, la absorción de la luz, su difracción, etc., son
extremadamente «innocuos» y no alteran al producto estudiado -en otras palabras,
la muestra investigada sobrevive a la investigación- y están remplazando
totalmente los métodos analíticos clásicos de Liebig, Dumas y Pregl, que se
mencionaron en el capítulo anterior.
La determinación de los aminoácidos mediante la cromatografía sobre almidón es
plenamente satisfactoria, pero en la época en que este procedimiento se desarrolló,
Martin y Synge elaboraron un método más simple de cromatografía. Es el
denominado «cromatografía sobre papel». Los aminoácidos se separan sobre una
hoja de papel de filtro (un papel absorbente constituido por celulosa particularmente
pura). Una o dos gotas de una mezcla de aminoácidos se colocan cerca de uno de
los ángulos de la hoja y uno de sus lados se sumerge en un disolvente, como por
ejemplo el alcohol butílico. El disolvente asciende lentamente por el papel, por
capilaridad. (Se puede hacer la prueba sumergiendo la punta de un secante en agua
y comprobar así lo que ocurre.) El disolvente arrastra las moléculas en la gota
depositada y las desplaza a lo largo del papel. Como en la cromatografía en
columna, cada uno de los aminoácidos se mueve, esta vez en sentido ascendente,
por el papel a una velocidad característica. Después de un cierto período de tiempo,
los aminoácidos de la mezcla aparecen separados en una serie de manchas sobre el
papel. Algunas de las manchas pueden contener dos o tres aminoácidos. Para
separarlos, el papel de filtro, tras haberse secado, se hace girar 90º con respecto a
su posición primitiva, y el nuevo borde se sumerge a continuación en un segundo
disolvente, que dispondrá a los componentes en manchas separadas. Finalmente,
toda la hoja, tras haber sido secada de nuevo, se lava con reactivos químicos, los
cuales determinan que las áreas ocupadas por los aminoácidos aparezcan como
manchas coloreadas u oscuras. Es algo que merece sin duda la pena ser visto:
todos los aminoácidos, originalmente mezclados en una única solución, aparecen
ahora distribuidos a lo largo y a lo ancho del papel, formando un mosaico de
manchas de vivos colores. Los bioquímicos experimentados pueden identificar cada
aminoácido por la posición que muestran sus manchas correspondientes, y leer de
este modo la composición de la proteína original casi a simple vista. Por disolución
terminal». También fue capaz de separar algunos otros aminoácidos, uno a uno, e
identificar en algunos casos la «secuencia terminal» de una cadena peptídica.
Sanger procedió a atacar la cadena peptídica en toda su longitud. Estudió la
insulina, una sustancia de gran importancia funcional para el organismo, que posee
además la virtud de ser una proteína relativamente pequeña, con un peso molecular
de sólo 6.000, en su forma más simple. El tratamiento con DNF reveló que esta
molécula consistía en dos cadenas peptídicas, pues contenía dos aminoácidos N-
terminales. Las dos cadenas se hallaban unidas entre sí por moléculas de cistina.
Mediante un tratamiento químico que rompía los enlaces entre los dos átomos de
azufre en la cistina, Sanger escindió la molécula de insulina en sus dos cadenas
peptídicas, cada una de ellas intacta. Una de las cadenas tenía la glicina como
aminoácido N-terminal (denominado por él la cadena G), y la otra tenía la
fenilalanina como el aminoácido N-terminal (la cadena P). Ahora podían ser
estudiadas separadamente ambas cadenas.
Sanger y un colaborador, Hans Tuppy, fragmentaron primero las cadenas en los
aminoácidos constituyentes e identificaron los 21 aminoácidos que formaban la
cadena G y los 30 que componían la cadena P. Luego, para establecer algunas de
las secuencias, rompieron las cadenas, no en aminoácidos individuales, sino en
fragmentos constituidos por 2 ó 3 aminoácidos. Esto podía realizarse por hidrólisis
parcial, la cual fragmentaba sólo los enlaces más débiles en la cadena, o bien
atacando la insulina con ciertas sustancias digestivas, que sólo rompían
determinados enlaces entre aminoácidos y dejaban intactos a los restantes.
De este modo, Sanger y Tuppy fragmentaron cada una de las cadenas en un gran
número de piezas distintas. Por ejemplo, la cadena P dio lugar a 48 fragmentos
distintos, 22 de los cuales estaban formados por dos aminoácidos (dipéptidos), 14
por tres y 12 por más de tres aminoácidos.
Los diversos péptidos de pequeñas dimensiones, después de ser separados, podían
ser fragmentados en sus aminoácidos individuales por cromatografía sobre papel.
Así, pues, los investigadores estaban ya en disposición de determinar el orden de
los aminoácidos en cada uno de estos fragmentos. Supongamos que poseyeran un
dipéptido constituido por la valina y la isoleucina. El problema que entonces se
plantearía podría ser: ¿El orden era el de Val-Ileu o el de Ileu-Val? En otras
vez primera. Por este logro, a Sanger le fue concedido el premio Nobel de Química
en 1958.
Los bioquímicos adoptaron inmediatamente los métodos de Sanger para determinar
la estructura de otras moléculas proteicas. La ribonucleasa, una molécula proteica
que consta de una única cadena peptídica con 124 aminoácidos, fue conquistada en
1959, y la unidad proteica del virus del mosaico del tabaco, con 158 aminoácidos,
en el año 1960. En 1964 fue a su vez descifrada la tripsina, una molécula con 223
aminoácidos.
En 1967 se automatizó esta técnica. El bioquímico sueco-australiano P. Edman creó
un «secuenciador» que podía trabajar con 5 mg de proteína pura,
«descascarillando» e identificando los aminoácidos uno por uno. De este modo, en
cuatro días fueron identificados sesenta aminoácidos de la cadena de la mioglobina.
Una vez dilucidado el orden de los aminoácidos en la cadena polipeptídica, resultó
posible intentar unir a los aminoácidos en el orden correcto. Naturalmente, los
comienzos fueron modestos. La primera proteína sintetizada en el laboratorio fue la
«oxitocina», una hormona con importantes funciones en el organismo. La oxitocina
es extremadamente pequeña para poder ser considerada realmente una molécula
proteica: se compone únicamente de 8 aminoácidos. En 1953, el bioquímico
americano Vincent du Vigneaud logró sintetizar una cadena peptídica exactamente
igual a aquella que, al parecer, representaba la molécula de exoticina. Y, además, el
péptido sintético mostraba todas las propiedades de la hormona natural. A Du
Vigneaud se le otorgó el premio Nobel de Química del año 1955.
Con el paso de los años se sintetizaron moléculas proteínicas cada vez más
complejas, pero si se quisiera sintetizar una molécula específica con especiales
aminoácidos dispuestos en un orden preconcebido, sería preciso «enhebrar la sarta»
por así decirlo, paso a paso. En los años 1950 eso resultó tan dificultoso como
medio siglo antes, es decir, la época de Fischer. Cada vez que se consiguió aparejar
un aminoácido determinado con una cadena, fue preciso separar el nuevo
compuesto del resto mediante procedimientos sumamente laboriosos y luego partir
nuevamente desde el principio para agregar otro aminoácido determinado. Con cada
paso se perdió una porción considerable del material en reacciones secundarias y,
por tanto, sólo fue posible formar cantidades mínimas de cadenas sin excluir
siquiera las más elementales.
Sin embargo, hacia principios de 1959, un equipo bajo la dirección del bioquímico
norteamericano Robert Bruce Merrifield, tomó una orientación inédita: un
aminoácido, comienzo de la ambicionada cadena, asociado a los glóbulos de la
resina de poliestireno. Tales glóbulos fueron insolubles en el líquido utilizado y de
este modo resultó fácil separarlos de todo lo restante mediante una sencilla
filtración. Se agregó cada nueva solución conteniendo el siguiente aminoácido que
se asociase con el anterior. Otra filtración, otra más y así sucesivamente. Los
manejos entre esas adiciones fueron tan simples y rápidos que se les pudo
automatizar con muy escasas pérdidas. En 1965 se sintetizó por este medio la
molécula de insulina; en 1969 le llegó el turno a la cadena todavía más larga de los
ribonucleicos con sus 124 aminoácidos. Más tarde, en 1970, el bioquímico
estadounidense de origen chino Cho Hao Li sintetizó la hormona del crecimiento
humano, una cadena de 188 aminoácidos.
Con la molécula proteínica entendida, por así decirlo, como una hilera de
aminoácidos, parecía conveniente obtener una visión aún más sofisticada. ¿Cuál era
la manera exacta en que la cadena de aminoácidos se inclinaba y curvaba? ¿Cuál
era la forma exacta de la molécula proteínica? Enfrascados en este problema se
hallaban el químico austro-inglés Max Ferdinand Perutz y su colega inglés John
Cowdery Kendrew. Perutz tomó como objeto de estudio la hemoglobina, la proteína
de la sangre que transporta el oxígeno y que contiene unos 12.000 átomos.
Kendrew estudió la mioglobina, una proteína muscular, similar en su función a la
hemoglobina, pero sólo con una cuarta parte de su tamaño. Como herramienta
utilizaron los estudios de difracción de los rayos X.
Perutz empleó el ardid de combinar las moléculas proteicas con un átomo pesado,
como el del oro o el mercurio, átomo que era particularmente eficaz en difractar los
rayos X. Esto les proporcionó algunas pistas, a partir de las que pudo deducir con
más exactitud la estructura de la molécula, sin dicho átomo pesado. Hacia el año
1959, la mioglobina, y, un año más tarde, la hemoglobina, fueron dilucidadas
estructuralmente. Fue posible preparar modelos tridimensionales en los cuales se
situaba cada uno de los átomos en el lugar que parecía ser con mayor probabilidad
Enzimas
Por supuesto, existe una buena razón para justificar la complejidad y casi
infinita variedad que manifiestan las moléculas proteicas. Las proteínas tienen una
multiplicidad de funciones que cumplir en los organismos vivos.
Una de ellas, de cierta importancia, es constituir el armazón estructural del
cuerpo. De la misma manera que la celulosa constituye el armazón de las plantas,
así las proteínas fibrosas cumplen el mismo papel en los animales complejos. Las
arañas producen los hilos de sus telas, y las larvas de insectos las hebras de sus
capullos, en ambos casos gracias a las fibras proteicas. Las escamas de los peces y
los reptiles están constituidas principalmente por la proteína denominada queratina.
Los pelos, plumas, cuernos, pezuñas, garras y uñas de los dedos -todo ello
simplemente escamas modificadas- también contienen queratina. La piel debe su
resistencia y flexibilidad a su elevado contenido de queratina. Los tejidos de sostén
internos -cartílago, ligamentos, tendones, e incluso el armazón orgánico de los
huesos- están constituidos en gran parte por moléculas proteicas tales como el
colágeno y la elastina. A su vez, el músculo está formado por una proteína fibrosa
compleja denominada actomiosina.
En todos estos casos, las fibras proteicas son algo más que un simple sustitutivo de
la celulosa. Representan un perfeccionamiento; son más resistentes y más flexibles.
La celulosa podrá soportar una planta que no tenga que realizar más que el simple
movimiento de doblarse bajo la acción del viento. Pero las fibras proteicas tienen la
misión de plegar y flexionar los apéndices del cuerpo, debiendo estar adaptadas a
movimientos rápidos, vibraciones, etc.
Sin embargo, las fibras se encuentran entre las proteínas más sencillas, tanto en su
forma como en su función. La mayoría de las otras proteínas tienen funciones
mucho más sutiles y complejas que realizar.
Para mantener la vida en todos sus aspectos, deben producirse numerosas
reacciones químicas en el organismo. Éstas se producen a una velocidad elevada y
con gran diversidad, hallándose además cada reacción íntimamente relacionada con
las restantes, pues no es sólo una, sino de todas ellas conjuntamente, que
dependen los fluidos procesos vitales. Además, todas las reacciones deben
producirse en el más suave de los medios ambientes: sin altas temperaturas,
reactivos químicos enérgicos o presiones elevadas. Las reacciones deben hallarse
bajo un control estricto, y a la vez flexible, y deben ser constantemente ajustadas a
las variables características del medio ambiente y a las distintas necesidades
momentáneas del organismo. La indebida reducción de la velocidad o la aceleración
de incluso una sola reacción, entre los muchos miles de ellas, desorganizaría más o
menos gravemente al organismo.
Todo esto es realizado por las moléculas proteicas.
Hacia finales del siglo XVIII, los químicos, siguiendo las enseñanzas de Lavoisier,
comenzaron a estudiar las reacciones químicas de forma cuantitativa; en particular
para medir las velocidades a que se producían dichas reacciones.
Inmediatamente observaron que la velocidad de las reacciones podía ser
drásticamente modificada por alteraciones pequeñas en comparación con el medio
ambiente. Por ejemplo, cuando Kirchhoff descubrió que el almidón podía ser
convertido en azúcar en presencia de ácido, apreció también que el ácido aceleraba
Durante mucho tiempo, los químicos establecieron una clara distinción entre los
fermentos vivos, tales como las células de levadura, y los fermentos no vivos o «no
organizados», como la pepsina. En el año 1878, el fisiólogo alemán Wilhelm Kühne
sugirió que a estos últimos debía de nominárseles «enzimas», a partir de las
palabras griegas que significaban «en la levadura», debido a que su actividad era
similar a la manifestada por las sustancias catalizadoras en la levadura. Kühne no
llegó a presenciar cuán importante, en realidad cuán universal, llegaría a ser el
término «enzima».
En 1897, el químico alemán Eduard Buchner, utilizando arena, molió células de
levadura, con objeto de romperlas todas, y logró extraer un jugo que podía ejercer
la misma actividad fermentativa que aquella desarrollada por las células de levadura
originales. Bruscamente se desvaneció la distinción entre fermentos en el interior y
en el exterior de las células. Representó otro rudo golpe para la semimística
distinción sostenida por los vitalistas entre lo vivo y lo inerte. El término «enzima»
fue aplicado desde entonces a todos los fermentos.
Por su descubrimiento, Buchner recibió el premio Nobel de Química de 1907.
Desde entonces fue posible definir una enzima simplemente como un catalizador
orgánico. Los químicos iniciaron estudios encaminados a lograr el aislamiento de las
enzimas y a precisar qué tipo de sustancias eran realmente. El primer problema que
se les planteó fue motivado por el hecho que la cantidad de enzimas en las células y
jugos naturales era muy pequeña, y los extractos obtenidos eran, invariablemente,
algún tipo de mezclas, siendo en ésas muy difícil deslindar lo que era propiamente
una enzima y lo que no lo era.
Muchos bioquímicos sospecharon que las enzimas eran sencillamente proteínas,
debido a que sus propiedades enzimáticas podían ser destruidas con facilidad, tal
como ocurriría en las proteínas, al ser desnaturalizadas por calentamiento suave.
Pero, hacia 1920, el bioquímico alemán Richard Willstätter indicó que ciertas
soluciones enzimáticas purificadas, de las que él consideraba había eliminado toda
proteína, mostraban marcados efectos catalíticos.
A partir de esto llegó a la conclusión de que las enzimas no eran en realidad
proteínas, sino sustancias químicas relativamente sencillas, que podían, además,
utilizar una proteína como «molécula transportadora». La mayoría de los
bioquímicos siguieron las ideas de Willstätter, que poseía el premio Nobel y gozaba
de gran prestigio.
Sin embargo, el bioquímico James Batcheller Sumner, de la Universidad de Cornell,
aportó pruebas evidentes en contra de esta teoría, casi al mismo tiempo en que fue
dada a conocer. A partir de las semillas blancas de una planta americana tropical,
Sumner aisló ciertos cristales que, en solución, mostraban las propiedades de una
enzima denominada «ureasa». Esta enzima catalizaba la degradación de la urea en
anhídrido carbónico y amoníaco.
Los cristales obtenidos por Sumner mostraban propiedades proteicas definidas, y no
consiguió separar la actividad proteica de la enzimática. Todo lo que desnaturalizaba
a la proteína también destruía a la enzima. Esto parecía demostrar que lo que había
obtenido era una enzima en forma pura y cristalina, y, al mismo tiempo, establecer
que la enzima era efectivamente una proteína.
La gran fama de Willstätter restó importancia durante un cierto tiempo al
descubrimiento de Sumner. Pero, en 1930, el químico John Howard Northrop y sus
colaboradores en el «Instituto Rockefeller» aportaron argumentos irrefutables en
favor de los hallazgos de Sumner. Cristalizaron una serie de enzimas, inclusive la
pepsina, y comprobaron que todas ellas eran ciertamente proteínas. Además,
Northrop mostró que estos cristales eran proteínas muy puras y retenían su
actividad catalítica, aún cuando se disolvieran o dividieran hasta un punto tal, que
las pruebas químicas ordinarias, como las utilizadas por Willstätter, no pudieran
detectar ya la presencia de proteínas.
Así, pues, se estableció definitivamente que las enzimas eran «catalizadores
proteicos». Por aquel entonces se había cristalizado ya un centenar de enzimas y
todas ellas resultaron sin excepción proteínas.
Por su trabajo, Sumner y Northrop compartieron el premio Nobel de Química de
1946 (con Stanley).
Las enzimas son catalizadores peculiares en dos aspectos: eficacia y especificidad.
Por ejemplo, existe una enzima denominada catalasa, que cataliza la transformación
del peróxido de hidrógeno en agua y oxígeno. No obstante, el peróxido de
hidrógeno en solución puede descomponerse bajo la acción catalítica de limaduras
de hierro o del dióxido de manganeso. Sin embargo, ponderalmente, la catalasa
tanto, desempeñar un papel muy importante. Realmente, toda enzima debe poseer
una superficie muy compleja, pues tiene una serie de diferentes cadenas laterales
que emergen de la columna peptídica central. Algunas de estas cadenas laterales
tienen una carga negativa, otras una positiva, y aún otras no poseen carga eléctrica
alguna. Unas cadenas son de grandes dimensiones, otras en cambio, pequeñas.
Puede suponerse que cada enzima posee una superficie que se ajusta
especialmente a un sustrato particular. En otras palabras, se adapta al sustrato
como una llave lo hace a la cerradura correspondiente. Por lo tanto, se combinará
de forma fácil con aquella sustancia, pero sólo difícilmente, o de ninguna manera,
con todas las restantes. Esto podría explicar la gran especificidad de las enzimas;
cada una de ellas tiene una superficie elaborada con el fin, digamos, de combinarse
con un compuesto particular. Si así fuera, no es de maravillar que las proteínas
sean formadas con tantas unidades diferentes y sean elaboradas por los tejidos
vivos en una variedad tan grande.
Este punto de vista sobre el mecanismo de acción de las enzimas surgió del
descubrimiento de que la presencia de una sustancia de estructura similar a la de
un sustrato dado podía hacer más lenta e inhibir la reacción del sustrato catalizado
por la enzima. El caso mejor conocido es el de una enzima denominada
deshidrogenasa del ácido succínico, que cataliza la eliminación de dos átomos de
hidrógeno a partir de dicho ácido. Esa reacción no tendrá lugar si se halla presente
una sustancia denominada ácido malónico, muy similar al ácido succínico. Las
estructuras de ambos ácidos son
La única diferencia entre estas dos moléculas es que el ácido succínico tiene un
grupo CH2 más, en el lado izquierdo de la fórmula. Seguramente el ácido malónico,
Por supuesto, esta separación existe sólo en la cadena considerada como una cinta
extendida. En la molécula operante, la cadena se muestra arrollada adoptando una
configuración tridimensional específica, mantenida por cuatro moléculas de cistina,
que se extienden como puentes entre los segmentos curvados de la cadena. En
dicha molécula, los tres aminoácidos necesarios se hallan próximos entre sí,
formando una unidad íntimamente entrelazada. Se especificó más todavía la
cuestión del centro activo en el caso de la lisocima, una enzima presente en muchos
lugares incluidas las lágrimas y la mucosidad nasal. Provoca la disolución de las
células bacterianas, catalizando la descomposición de los eslabones básicos en
algunas sustancias que componen la pared celular bacteriana. Es como si
ocasionara el resquebrajamiento de esa pared y dejara escapar el contenido de las
células.
La lisocima fue la primera enzima cuya estructura se sometió a un análisis completo
(1965) en las tres dimensiones. Se descubrió el eslabón básico entre un átomo de
oxígeno en la cadena ramificada del ácido glutámico (posición # 35) y otro átomo
de oxígeno en la cadena ramificada del ácido aspártico (posición # 52). Se
conjuraron ambas posiciones mediante el pliegue de la cadena de ácido amínico con
la separación suficiente entre ambas para el alojamiento de la molécula que se
debería atacar. En tales circunstancias podía tener lugar fácilmente la reacción
química necesaria para romper el eslabón. Ésta es la forma específica que permite
trabajar ordenadamente a la lisocima.
Por otra parte, algunas veces ocurre también que el borde cortante de la molécula
enzimática no es en absoluto un grupo de aminoácidos, sino una combinación
atómica de naturaleza totalmente distinta. Más adelante se mencionarán algunos
ejemplos.
No podemos jugar con este borde cortante, pero ¿podríamos modificar el mango del
cuchillo sin afectar la eficacia de la herramienta? La existencia de variedades
distintas, por ejemplo, de una proteína como la insulina, nos permite considerar que
sí podemos hacerlo. La insulina es una hormona, no una enzima, pero su función es
muy específica. En una cierta posición de la cadena G de la insulina existe una
secuencia de 3 aminoácidos, que es distinta en los diferentes animales. En el
ganado vacuno es la alanina-serina-valina; en el cerdo, treoninaserina-isoleucina;
Metabolismo
Un organismo tal como el cuerpo humano es una fábrica de productos químicos de
gran diversidad. Respira oxígeno y bebe agua. Incorpora como alimentos hidratos
de carbono, grasas, proteínas, sustancias minerales y otras materias primas.
Elimina diversos materiales no digeribles, así como bacterias y los productos de la
putrefacción que producen. También excreta anhídrido carbónico a través de los
pulmones, elimina agua por dichos órganos y las glándulas sudoríparas, y expele
orina, que transporta una serie de compuestos en solución, el principal de los cuales
es la urea. Estas reacciones químicas determinan el metabolismo del organismo.
Los diminutos corpúsculos dentro del citoplasma contienen todas las sustancias y
enzimas participantes en la fosforización oxidásica. Las detectó por primera vez en
1898 el biólogo alemán C. Benda, quien -como es natural- no percibió su alcance
por aquellas fechas. Él las llamó «mitocondrios» (tomándolas erróneamente por
«filamentos de cartílago») y el nombre perduró.
El mitocondrio usual parece por su forma, un balón de rugby con 1/25.000
centímetros de longitud y 1/62.500 centímetros de grosor. Una célula mediana
puede contener entre varios centenares y un millar de mitocondrios. Las células
excepcionalmente grandes contienen unos doscientos mil, mientras que las
bacterias anaeróbicas no contienen ninguno. Después de la Segunda Guerra
Mundial, la investigación con microscopio electrónico mostró que el mitocondrio
tenía una estructura enormemente compleja para su minúsculo tamaño; poseía una
doble membrana cuya parte externa era lisa, mientras que la interna ofrecía una
gran superficie de laberínticas arrugas. En esta superficie interna del mitocondrio se
alojaban varios millares de exiguas estructuras denominadas «partículas
elementales». Y eran ellas las que parecían representar el verdadero laboratorio de
la fosforización oxidásica.
Mientras tanto, los bioquímicos habían obtenido algunos progresos en la resolución
del problema que representaba el metabolismo de las grasas. Se sabía que las
moléculas de las grasas eran cadenas de átomos de carbono que podían ser
hidrolizadas en «ácidos grasos» (en la mayor parte de los casos cadenas de 16 a 18
átomos de carbono dispuestos sucesivamente), y que las moléculas se
fragmentaban cada vez en elementos de 2 átomos de carbono. En 1947, Fritz
Lipmann descubrió un compuesto bastante complejo que desempeñaba un papel
importante en la «acetilación», es decir, la transferencia de un fragmento de 2
átomos de carbono de un compuesto a otro. Denominó al compuesto «coenzima A»
(la A procede del término de acetilación). Tres años más tarde, el bioquímico
alemán Feodor Lynen halló que la coenzima A se hallaba íntimamente implicada en
el metabolismo de las grasas. Una vez unida a un ácido graso, seguía una secuencia
de 4 etapas que terminaban en el desprendimiento de un fragmento de dos átomos
de carbono del extremo de la cadena a la que se hallaba unida la coenzima. Luego,
otra molécula de coenzima A se unía a lo que se había separado del ácido graso, se
Trazadores
Las investigaciones del metabolismo mediante todos estos artificios mantenían aún
a los bioquímicos en la posición de estar viendo lo que ocurría, por así decirlo
«desde la barrera». Podían elaborar ciclos generales, pero, para hallar qué era lo
que realmente estaba teniendo lugar en el animal vivo, necesitaban algún sistema
trazador que les permitiera seguir con detalle el curso de los acontecimientos a
través de los estadios del metabolismo; es decir, precisar el destino de las
moléculas individuales allí donde se hallaran. Realmente, las técnicas que lo hacían
posible se descubrieron a principios de este siglo, pero los químicos comenzaron a
emplearlas más bien lentamente en todas sus posibilidades.
El primer pionero en este campo fue el bioquímico alemán Franz Knoop. En 1904
concibió la idea de administrar a perros, con los alimentos, moléculas grasas
marcadas para ver cuál era el destino de dichas moléculas. Las marcó uniéndoles un
anillo de benceno a un extremo de la cadena; hizo uso del anillo de benceno debido
a que los mamíferos no poseen enzimas que puedan metabolizarlo. Knoop esperaba
que lo que el anillo de benceno llevara con él, cuando apareciera en la orina, podría
decirle algo acerca de cómo la molécula de grasa había sido metabolizada por el
organismo, y estaba en lo cierto. El anillo de benceno invariablemente aparecía
unido a una cadena lateral de dos átomos de carbono. De esto dedujo que el
organismo separaba en cada ocasión de la molécula de grasa fragmentos de dos
átomos de carbono. (Como hemos visto, 40 años más tarde, los trabajos realizados
con la coenzima A confirmaron su deducción.) Las cadenas de átomos de carbono
de las grasas más frecuentes contienen todas ellas un número par de átomos de
carbono. ¿Qué ocurriría si se utilizara una grasa cuya cadena poseyera un número
impar de átomos de carbono? En este caso, si los átomos fueran separados de la
cadena de dos en dos, el producto final resultante estaría formado por el anillo de
benceno con un átomo de carbono unido a él. Knoop administró a perros este tipo
de molécula grasa y, por supuesto, obtuvo dicho resultado.
primeros hechos dilucidados con el uso del deuterio como trazador fue que los
átomos de hidrógeno en el organismo se hallaban mucho menos fijados a sus
compuestos de lo que se había creído. Se puso de relieve que eran liberados y
transferidos de un compuesto a otro, intercambiando posiciones entre los átomos de
oxígeno de las moléculas de azúcar, en las moléculas de agua, etc. Ya que un
átomo de hidrógeno ordinario no puede ser distinguido de otro, este intercambio no
pudo ser detectado antes de que los átomos de deuterio lo descubrieran.
Lo que el hallazgo implicaba era que los átomos de hidrógeno iban de un lado a otro
del organismo, y, si los átomos del deuterio se unían al oxígeno, podrían difundir a
través del organismo, independientemente de que experimentaran una
transformación química global, los compuestos implicados, o, por el contrario no lo
hicieran. En consecuencia, el investigador tenía que estar seguro de que un átomo
de deuterio, hallado en un compuesto, había llegado allí por alguna reacción
definida, catalizada por una enzima determinada, y no simplemente por un proceso
de salto o intercambio. Por fortuna, los átomos de hidrógeno unidos al carbono no
se intercambian, de tal manera que el deuterio hallado a lo largo de las cadenas de
carbono adquiere una significación metabólica.
Los hábitos errantes de los átomos fueron destacados en primer plano en 1937,
cuando el bioquímico norteamericano, de origen alemán, Rudolf Schoenheimer y sus
colegas empezaron a utilizar el nitrógeno 15. Alimentaron a ratas con aminoácidos
marcados con nitrógeno 15, las sacrificaron después de un cierto período de tiempo,
y analizaron los tejidos para ver qué compuestos contenían el nitrógeno 15. De
nuevo aquí se observó que, poco después de que un aminoácido marcado hubiera
penetrado en el organismo, casi todos los aminoácidos contenían nitrógeno 15. En
1942, Schoenheimer publicó un libro titulado The Dynamic State of Body
Constituents (El estado dinámico de los constituyentes en el organismo). El título
describe la nueva perspectiva que los isótopos trazadores han permitido adoptar en
Bioquímica. Casi al margen de los cambios químicos aparentes, se produce un
tráfico incesante de átomos.
Poco a poco el empleo de trazadores ha aportado multitud de detalles relativos a las
vías metabólicas. Corrobora el esquema general de procesos tales como el
metabolismo del azúcar, el ciclo del ácido cítrico y el ciclo de la urea. Ha permitido
descubrir nuevos intermediarios, establecer vías alternativas de reacción, etc.
Cuando, gracias al reactor nuclear, pudo disponerse en cantidad de más de 100
diferentes isótopos radiactivos, después de la Segunda Guerra Mundial, los trabajos
con trazadores experimentaron un enorme impulso. Compuestos ordinarios podían
ser bombardeados con neutrones en un reactor y aparecer cargados con isótopos
radiactivos. Casi todos los laboratorios de Bioquímica en los Estados Unidos (y
podría decirse que en todo el mundo, pues, poco después, los Estados Unidos
pusieron a disposición de otros países isótopos para fines científicos) iniciaron
programas de investigación en los que se utilizaban trazadores radiactivos.
A los trazadores estables se sumaron entonces el hidrógeno radiactivo (tritio), el
fósforo radiactivo (fósforo 32), el azufre radiactivo (azufre 35), el potasio radiactivo
(potasio 42), sodio radiactivo, yodo radiactivo, hierro radiactivo, cobre radiactivo y,
el más importante de todos ellos, el carbono radiactivo (carbono 14). El carbono 14
fue descubierto en 1940 por los químicos estadounidenses Martin D. Kamen y
Samuel Ruben, y, para su sorpresa, tenía una vida media de más de 5.000 años,
insospechadamente larga para un isótopo radiactivo de un elemento ligero.
El carbono 14 permitió resolver problemas que habían desafiado a los químicos
durante años, y en los cuales no habían logrado, al parecer, ningún progreso. Una
de las cuestiones de la cual esbozó una respuesta fue la relativa a la producción de
la sustancia conocida como «colesterol». La fórmula del colesterol, elaborada
después de muchos años de penosa investigación por hombres tales como Wieland
(que recibió el premio Nobel de Química de 1927 por su trabajo sobre compuestos
relacionados con el colesterol), ha resultado ser:
de carbono que hacían de puentes entre los anillos pirrólicos. Esto arrojaba una
diferencia de 12 átomos de carbono en el anillo de porfirina y de 14 en las diversas
cadenas laterales. Se observó que éstos procedían del ion acetato, algunos a partir
del carbono del CH3 y otros a partir del carbono del COO-. De la distribución de los
átomos trazadores fue posible deducir la manera como el acetato y la glicina eran
incorporados a la porfirina. Primero formaban un único pirrólico; luego, dos de tales
anillos se combinaban, y, finalmente, dos combinaciones de dos anillos se unían
para formar la estructura porfirínica de cuatro anillos.
En 1952 fue aislado un compuesto denominado «porfobilinógeno» en forma pura,
como resultado de una línea independiente de investigación, por el químico inglés R.
G. Westall. Este compuesto aparecía en la orina de personas con defectos en el
metabolismo de la porfirina, de tal modo que se sospechó que tenía algo que ver
con las porfirinas. Su estructura resultó ser casi idéntica a aquélla de un solo anillo
pirrólico que Shemin y sus colaboradores habían postulado como una de las fases
previas en la síntesis de la porfirina. El porfobilinógeno representaba un estadio
crucial en esta vía metabólica.
Seguidamente se demostró que el ácido «delta-aminolevulínico», una sustancia de
estructura similar a la de la molécula del porfobilinógeno escindida por la mitad,
podía aportar todos los átomos necesarios para su incorporación en el anillo
porfirínico por las células sanguíneas. La conclusión más plausible es que las células
forman primero el ácido delta-aminolevulínico a partir de la glicina y el acetato
(eliminando, en el proceso, el grupo COOH de glicina como dióxido de carbono), que
dos moléculas del ácido delta-aminolevulínico se combinan luego para formar
porfobilinógeno (un único anillo pirrólico), y para este último, a su vez, se combina
formando primero un anillo con dos pirroles y, finalmente, la estructura con cuatro
anillos pirrólicos de la porfirina.
Fotosíntesis
De todos los triunfos de la investigación con trazadores, quizás el mayor ha sido
haber dilucidado la compleja serie de fases que conducen al desarrollo de las
plantas verdes, de las que depende toda la vida en este planeta.
El reino animal no podría existir si los animales sólo pudieran comerse los unos a los
otros, de la misma manera que una comunidad de personas tampoco podría
enriquecerse si solamente se apoderaran de sus mutuas ganancias, ni tampoco un
hombre podría sostenerse a sí mismo apretándose el cinturón. Un león que se come
a una cebra o un hombre que ingiere un bisté están consumiendo una sustancia
preciosa, que se obtuvo con grandes esfuerzos y considerable atrición por parte del
mundo vegetal. La segunda ley de la termodinámica nos dice que, en cada fase del
ciclo, se está perdiendo algo. Ningún animal almacena la totalidad de los hidratos de
carbono, grasas y proteínas contenidas en los alimentos que come, ni puede hacer
uso de toda la energía disponible en los alimentos. Inevitablemente una gran parte,
por no decir la mayor parte, de la energía es disipada en forma de calor no
utilizable. En cada nivel de la ingestión de alimentos se está perdiendo algo de
energía química. Así, si todos los animales fueran exclusivamente carnívoros, la
totalidad del reino animal moriría en muy pocas generaciones. Más bien diremos
que nunca habría llegado a ocupar el primer plano.
El hecho afortunado es que la mayor parte de los animales son herbívoros. Se
alimentan de la hierba de los campos, de las hojas de los árboles, de semillas,
nueces y frutas, o de las algas y células vegetales verdes microscópicas que en
cantidades ingentes se hallan en las capas superficiales de los océanos. Tan sólo
una minoría de animales pueden permitirse el lujo de ser carnívoros.
Por lo que respecta a las propias plantas, éstas no se hallarían en mejores
condiciones, si no les fuera cedida la energía necesaria desde una fuente externa.
Elaboran hidratos de carbono, grasas y proteínas a partir de moléculas sencillas,
tales como anhídrido carbónico y agua. Esta síntesis presupone una aportación de
energía, y las plantas la obtienen a partir de la fuente de energía más abundante
posible: la luz solar. Las plantas verdes convierten la energía de la luz solar en la
energía química de los compuestos complejos, y ésta hace posible todas las formas
de vida (excepto la de ciertas bacterias). Esto fue claramente indicado en 1845 por
el físico alemán Julius Robert von Mayer, uno de los primeros en abogar por la ley
de la conservación de la energía, y que, por lo tanto, conocía particularmente bien
el problema del equilibrio energético. El proceso por el cual las plantas verdes hacen
uso de la luz solar se denomina «fotosíntesis», derivado de las palabras griegas que
significan «sintetizar por la luz».
El primer intento de una investigación científica del crecimiento de las plantas fue
realizado ya a principios del siglo XVII por el químico flamenco Jan Baptista van
Helmont. Hizo crecer un pequeño sauce en un recipiente que contenía una cierta
cantidad, escrupulosamente pesada, de tierra, y halló, ante la sorpresa general, que
aunque el árbol crecía, el peso de la tierra se mantenía invariable. Se había
considerado hasta entonces como un hecho indudable que las plantas obtenían las
sustancias constitutivas a partir del suelo. (Realmente las plantas toman del suelo
algunos minerales e iones, pero no en una cantidad fácilmente ponderable.) Si no la
obtienen de él. ¿de dónde la consiguen? Van Helmont decidió que las plantas debían
elaborar sus sustancias constituyentes a partir del agua, con la que él había regado
abundantemente la tierra. Sólo en parte estaba en lo cierto.
Un siglo más tarde, el fisiólogo inglés Stephen Hales mostró que las plantas
formaban sus propias sustancias constituyentes en gran medida a partir de un
material más etéreo que el agua, a saber, el aire. Medio siglo después, el médico
holandés Jan Ingen-Housz identificó el ingrediente nutritivo en el aire como el
anhídrido carbónico. También demostró que una planta no absorbe el anhídrido
carbónico en la oscuridad; precisa de la luz (la «foto» de la palabra fotosíntesis).
Entretanto Priestley, el descubridor del oxígeno, demostraba que las plantas verdes
liberaban oxígeno, y, en 1804, el químico suizo Nicholas Théodore de Saussure
demostró que el agua era incorporada a los tejidos vegetales, tal como había
sugerido Van Helmont.
La siguiente contribución de importancia tuvo lugar en los años 1850-1860, cuando
el ingeniero de minas francés Jean-Baptiste Boussingault hizo crecer plantas en un
suelo totalmente libre de materia orgánica. De esta manera demostró que las
plantas podían obtener su carbono a partir únicamente del anhídrido carbónico
atmosférico. Por otra parte, las plantas no conseguían crecer en un terreno exento
de compuestos nitrogenados, y esto demostraba que obtenían su nitrógeno a partir
del suelo y que no utilizaban el atmosférico (salvo en el caso de ciertas bacterias).
Desde la época de Boussingault se hizo patente que la participación del suelo como
alimento directo para las plantas se limitaba a ciertas sales inorgánicas, tales como
ciertos nitratos y fosfatos. Eran estos ingredientes lo que los fertilizantes orgánicos
(tales como el estiércol) añadían al terreno. Los químicos comenzaron a defender el
empleo de fertilizantes químicos, que servían excelentemente para este fin y que
eliminaban los desagradables olores así como reducían los peligros de infección y
enfermedad, en gran parte derivados de los estercoleros.
De este modo pudo establecerse el esqueleto del proceso de la fotosíntesis. En
presencia de la luz solar, una planta toma el anhídrido carbónico y lo combina con
agua, para formar sus tejidos, liberando oxígeno en el proceso. Por lo tanto, es
evidente que las plantas verdes no sólo proporcionan alimentos, sino que además
renuevan las existencias de oxígeno en la Tierra. Si no fuera por ello, en cosa de
unos siglos, el contenido de oxígeno en la atmósfera descendería hasta un nivel
mínimo, y el aire contendría tanto anhídrido carbónico que asfixiaría la vida animal.
Es enorme la escala a la que las plantas verdes de la tierra crean materia orgánica y
liberan oxígeno. El bioquímico ruso-estadounidense Eugene I. Rabinovich, uno de
los más importantes investigadores de la fotosíntesis, estima que cada año las
plantas verdes de la tierra combinan un total de 150 mil millones de toneladas de
carbono (a partir del anhídrido carbónico) con 25 mil millones de toneladas de
hidrógeno (a partir del agua), y liberan 400 mil millones de toneladas de oxígeno.
En esta gigantesca producción, las plantas de los bosques y campos de la tierra
firme sólo contribuyen en un 10 %; el restante 90 % debemos agradecerlo a las
plantas unicelulares y algas marinas de los océanos.
Ahora bien, aún seguimos conociendo únicamente el esqueleto del proceso. ¿Cuáles
son sus detalles? En 1817, Pierre-Joseph Pelletier y Joseph-Bienaimé Caventou, de
Francia, que más tarde serían los descubridores de la quinina, cafeína, estricnina y
algunos otros productos vegetales especializados, aislaron el más importante
producto vegetal de todos: el único que da el color verde a las plantas verdes.
Denominaron al compuesto «clorofila», de las palabras griegas que significan «hoja
verde». Luego, en 1865, el botánico alemán Julius von Sachs mostró que la clorofila
no se hallaba distribuida de forma general en las células vegetales (aún cuando las
hojas aparecen uniformemente verdes), sino que se hallaba localizada en pequeños
cuerpos subcelulares, llamados más tarde «cloroplastos».
Se hizo evidente que la fotosíntesis tenía lugar dentro del cloroplasto y que la
clorofila era esencial para ese proceso. Sin embargo, la clorofila no bastó. Aunque
se la extrajera meticulosamente, ella no podía catalizar por sí sola la reacción
fotosintética en un tubo de ensayo.
Por lo general, el cloroplasto es bastante mayor que el mitocondrio. Algunas plantas
unicelulares poseen solamente un gran cloroplasto como célula. Ahora bien, casi
todas las células vegetales contienen muchos cloroplastos pequeños, y cada uno es
dos o tres veces más largo y grueso que el típico mitocondrio.
La estructura del cloroplasto parece ser todavía más compleja que la del
mitocondrio. Su interior está compuesto por muchas membranas sutiles que se
extienden de una pared a otra. Éstas son las Lamellae. En casi todos los tipos de
cloroplasto, esas Lamellae engruesan y se oscurecen por sectores para producir
«grana» y es precisamente dentro de la grana donde se encuentran las moléculas
clorofílicas.
Si observamos las Lamellae dentro de la grana con el microscopio electrónico,
veremos que ellas parecen a su vez estar formadas por diminutas unidades apenas
visibles que semejan los mosaicos de un cuarto de baño. Cada uno de esos objetos
puede ser una unidad fotosintetizadora conteniendo entre 250 y 300 moléculas
clorofílicas.
Es más difícil aislar y mantener intacto al cloroplasto que al mitocondrio. Por fin, en
1954, el bioquímico norteamericano de origen polaco Daniel I. Arnon, trabajando
con células disociadas de espinaca, logró extraer totalmente intactos los
cloroplastos y llevar a cabo la reacción fotosintética completa. El cloroplasto no
contiene solamente clorofila, sino también un complemento de enzimas y sustancias
asociadas, todas ellas dispuestas en un esquema preciso e intrincado. Contiene
incluso citocromos donde la energía de la luz solar captada por la clorofila puede
convertirse en TFA mediante la fosforización oxidásica. Pero, ¿qué decir entretanto
sobre la estructura de la clorofila, la sustancia más característica de los
cloroplastos? Durante décadas, los químicos atacaron esta sustancia de crucial
importancia con todas las herramientas de que disponían, pero sólo lentamente se
hizo la luz. Por último, en 1906, Richard Willstätter, de Alemania (que redescubrió la
cromatografía e insistió incorrectamente en que las enzimas no eran proteínas)
Capítulo 12
LA CÉLULA
Cromosomas
Constituye una verdadera paradoja el hecho que, hasta tiempos recientes, el
hombre conociera muy poco acerca de su propio organismo. En realidad,
únicamente hace unos 300 años que aprendió algo sobre la circulación de la sangre,
y tan sólo en el curso de, aproximadamente, los últimos 50 años ha conseguido
descubrir las funciones de muchos de sus órganos.
El hombre prehistórico, al trocear los animales para cocinarlos y al embalsamar los
restos humanos preparándolos para la vida futura, tuvo conocimiento de la
existencia de los grandes órganos tales como el cerebro, el hígado, el corazón, los
pulmones, el estómago, los intestinos y los riñones. Este conocimiento fue
aumentado debido al frecuente uso de la observación de los diversos órganos
internos del animal sacrificado con fines rituales (particularmente su hígado), para
prever el futuro o estimar el grado con que la divinidad daba su beneplácito o
desaprobaba una determinada cuestión. Papiros egipcios que tratan de forma
correcta sobre las técnicas quirúrgicas y presuponen una cierta familiarización con la
estructura del organismo, datan ya de unos 2.000 años a. de J.C.
Los antiguos griegos llegaron a disecar animales y, en ocasiones, cadáveres
humanos, con el propósito de aprender algo acerca de la «anatomía» (de las
palabras griegas que significan «seccionar»). Se consiguieron incluso algunos
trabajos delicados. Alcmaeón de Crotón, aproximadamente unos 500 años a. de
J.C., describió por vez primera el nervio óptico y la trompa de Eustaquio. Dos siglos
mas tarde, en Alejandría, Egipto (entonces el centro mundial de la Ciencia), se inició
brillantemente una escuela de anatomía griega con Herófilo y su discípulo
Erasístrato. Investigaron las partes del cerebro, distinguiendo entre éste y el
cerebelo, y estudiaron asimismo los nervios y vasos sanguíneos.
La Anatomía antigua alcanzó su nivel más alto con Galeno, médico de origen
griego que practicó en Roma en la segunda mitad del siglo II. Galeno elaboró ciertas
teorías sobre las funciones del organismo, que fueron aceptadas como un evangelio
durante los siguientes 1.500 años. Sin embargo, sus nociones sobre el cuerpo
detalle dicha teoría. Expuso sus ideas y experiencias en un pequeño y mal impreso
libro titulado De Motus Cordis («relativo al movimiento del corazón»), que fue
publicado en 1628 y que, desde entonces, ha sido considerado como una de las
mayores obras clásicas de la Ciencia.
La cuestión principal que había dejado sin contestar la labor de Harvey fue:
¿Cómo pasa la sangre de las arterias a las venas? Harvey opinaba que debían de
existir vasos que las conectaran de alguna manera, vasos que debían de tener un
tamaño demasiado reducido para poderse ver. He aquí una reminiscencia de la
teoría de Galeno sobre los pequeños orificios en la pared del corazón, pero,
mientras que nunca se hallaron tales orificios -y en realidad no existen-, los vasos
de conexión de Harvey fueron descubiertos tan pronto como se dispuso del
microscopio. En 1661, tan sólo cuatro años después de la muerte de Harvey, un
médico italiano llamado Marcello Malpighi, examinando los tejidos pulmonares de
una rana con un microscopio primitivo, apreció que, con toda seguridad, existían
finos vasos sanguíneos que conectaban las arterias con las venas. Malpighi los
denominó «capilares», de la palabra latina que significa «similares a cabellos».
El uso de este nuevo instrumento hizo posible estudiar otras estructuras
microscópicas. El naturalista holandés Jan Swammerdam descubrió los eritrocitos,
mientras que el anatomista, también holandés, Regnier de Graaf descubrió los
pequeños «folículos ováricos» en los ovarios de animales. Desde entonces pudieron
estudiarse con todo detalle criaturas pequeñas tales como los insectos.
Los trabajos hechos con tanta precisión animaron a la realización de cuidadosas
comparaciones de las estructuras de una especie con las estructuras de otras. El
botánico inglés Nehemiah Grew fue el primer estudioso de importancia de la
Anatomía comparada. En 1675 publicó sus estudios, en los que se comparan entre
sí las estructuras del tronco de diversos árboles, y, en 1681, los estudios,
comparativos también, sobre los estómagos de diversos animales.
La introducción del microscopio situó a los biólogos en un nivel más básico de la
organización de los seres vivos: un nivel en el que todas las estructuras ordinarias
podían ser reducidas a un denominador común. En 1665, el científico inglés Robert
Hooke, utilizando un microscopio compuesto construido por él mismo, descubrió que
el corcho, la corteza de cierto árbol, estaba constituido por compartimentos
En el siguiente siglo y medio se hizo gradualmente más patente a los biólogos que
toda la materia viva estaba constituida por células y que cada una de éstas
constituía una unidad independiente de vida. Algunas formas de vida -tal como
ciertos microorganismos- estaban formados por una única célula; los de mayores
dimensiones eran el resultado de muchas células en cooperación. Uno de los
primeros en proponer tal punto de vista fue el fisiólogo francés René-Joachim-Henri
Dutrochet. No obstante, su comunicación, publicada en 1824, pasó inadvertida, y la
teoría celular ganó importancia tan sólo después de que Matthias Jakob Schleiden y
Theodor Schwann, de Alemania, la formularan, independientemente, en 1838 y
1839.
El líquido coloidal que llenaba ciertas células fue denominado «protoplasma» («la
primera forma») por el fisiólogo checo Jan Evangelista Purkinje en 1839, y el
botánico alemán Hugo von Mohl extendió el término para designar el contenido de
todas las células. El anatomista alemán Max Johann Sigismund Schultze destacó la
importancia del protoplasma como la «base física de la vida» y demostró la
semejanza esencial del protoplasma en todas las células, tanto vegetales como
animales y, asimismo, tanto en criaturas muy simples como en criaturas muy
complejas.
La teoría celular es, respecto a la Biología, como la teoría atómica lo es respecto a
la Química y a la Física.
Su importancia en la dinámica de la vida fue establecida cuando, alrededor de 1860,
el patólogo alemán Rudolf Virchow afirmó, en una sucinta frase latina, que todas las
células proceden de células. Demostró que las células de los tejidos enfermos eran
producidas por la división de células originalmente normales.
En aquel entonces ya resultaba evidente que todo organismo vivo, incluso los de
mayores dimensiones, empezaba su vida como una célula única. Uno de los
primeros microscopistas, Johann Ham, ayudante de Leeuwenhoek, había
descubierto en el semen pequeños cuerpos que más tarde fueron denominados
«espermatozoos» (de las palabras griegas que significan «semilla animal»). Mucho
más tarde, en 1827, el fisiólogo alemán Karl Ernst von Baer identificó el óvulo, o
célula huevo, de los mamíferos. Los biólogos llegaron a la conclusión de que la
unión de un óvulo y un espermatozoide formaba un óvulo fertilizado, a partir del
cual eventualmente se desarrollaba el animal por repetidas divisiones y
subdivisiones.
luego se corta la fotografía en secciones, cada una de las cuales contiene un solo
cromosoma. Si, seguidamente, se unen estos cromosomas por parejas y se los
dispone en orden de longitud recreciente, se obtendrá un «cariotipo», una imagen
del contenido cromosómico de la célula con numeración consecutiva.
El cariotipo es un instrumento muy útil y sutil para las diagnosis médicas, pues la
separación entre los cromosomas no es siempre perfecta. En el proceso de la
división celular cualquier cromosoma puede sufrir daños o incluso romperse.
Algunas veces la separación no es regular y entonces alguna de las células
nacientes puede tener un cromosoma de más, mientras que a otra le faltará uno.
Estas anomalías deben perjudicar el trabajo celular, a veces en tal medida que la
célula no podrá funcionar. (He aquí lo que presta una exactitud aparente al proceso
de la mitosis que no es tan exacto como parece, pues tan sólo ocurre que se ocultan
los errores.) Tales irregularidades resultan particularmente desastrosas cuando se
producen en el proceso de la meiosis, porque entonces las células-huevo o cigotos
nacen con imperfecciones en el complemento-cromosoma. Si un organismo
consigue desarrollarse partiendo de ese estado imperfecto (usualmente no lo
consigue) cada célula de su cuerpo, tendrá la misma imperfección y el resultado
será una grave dolencia congénita.
La enfermedad más frecuente de este tipo acarrea un grave retraso mental. Se la
denomina «síndrome de Down» (porque el médico inglés John Langdon Haydon
Down fue quien la descubrió en 1866) y su caso se repite una vez por cada mil
nacimientos. Se la conoce vulgarmente por el nombre de «mongolismo» porque
entre sus síntomas figuran esos párpados sesgados que recuerdan el repliegue
epicántico de los pueblos asiáticos orientales. La elección de ese nombre es
deplorable, pues el síndrome tiene tanto que ver con los asiáticos como con los
demás.
Hasta 1959 no se descubrió la causa del síndrome de Down. Durante aquel año, tres
genetistas franceses -Jerôme-Jean Lejeune, M. Gautier y P. Turpin- contaron los
cromosomas en las células de tres casos y encontraron que cada uno tenía 47
cromosomas en lugar de 46. Se comprobó que el error correspondía a tres
miembros del par cromosomático ≠ 21. Bastante más tarde, en 1967, se localizó la
imagen especular del mal. Se verificó que una niña subnormal de tres años tenía un
Genes
Hacia 1860, un monje austriaco llamado Gregor Johann Mendel, que estaba
demasiado ocupado con sus quehaceres monásticos para prestar atención a la
excitación que el fenómeno de la división celular ocasionaba en el biólogo, había
realizado pacientemente algunas experiencias en su jardín, que estaban destinadas,
eventualmente, a dar sentido a la existencia de los cromosomas. Gregor Johann
Mendel era un botánico aficionado, y estaba particularmente interesado en los
resultados del cruzamiento de guisantes de diversas características. Su gran
intuición fue estudiar una característica claramente definida en cada caso. Cruzó
plantas cuyas semillas mostraban una diferente coloración (verde o amarilla), o
guisantes de semillas lisas con otras de semillas rugosas, o plantas de tallo largo
con otras de tallo corto, y se dedicó a observar los resultados en las plantas de las
sucesivas generaciones. Con sumo cuidado, Mendel anotó estadísticamente dichos
resultados, y las conclusiones a que llegó pueden resumirse esencialmente de este
modo:
1. Cada característica estaba gobernada por «factores» que (en los casos estudiados
por Mendel) podían existir en una de dos formas distintas. Una versión del factor
para el color de las semillas, por ejemplo, causaría que estas semillas fueran
verdes; la otra forma determinaría que fueran amarillas. (Por comodidad,
permítasenos utilizar los términos en la actualidad vigentes. Los factores son
denominados hoy en día «genes», término acuñado en 1909 por el biólogo danés
Wilhelm Ludwig Johannsen a partir de una palabra griega que significa «generar», y
las diferentes formas de un gen que controlan una característica dada se denominan
«alelos». Así, el gen que determina el color de las semillas poseía dos alelos, uno
para las semillas verdes, y el otro para las amarillas.)
2. Cada planta tenía un par de genes para cada característica, siendo aportado cada
uno de ellos por un progenitor. La planta transmitía uno de su par a una célula
germinal, de tal modo que cuando las células germinales de dos plantas se unían
por polinización, las nuevas plantas generadas tenían de nuevo dos genes para la
característica. Los dos genes podían ser idénticos o alelos.
3. Cuando las dos plantas progenitoras aportaban alelos de un gen particular a la
planta generada, un alelo podía neutralizar el efecto del otro. Por ejemplo, si una
planta que producía semillas amarillas se cruzaba con una que producía semillas
verdes, todos los miembros de la generación siguiente producirían semillas
amarillas. El alelo amarillo del gen determinante del color de las semillas era
«dominante», el alelo verde «recesivo».
4. No obstante, el alelo recesivo no resultaba destruido. El alelo verde, en el caso
últimamente citado, todavía se hallaba presente, aún cuando no produjera un efecto
detectable. Si se cruzaban dos plantas que contenían genes mezclados (es decir,
cada una con un alelo amarillo y uno verde), algunas de las plantas generadas
tendrían dos alelos verdes en el óvulo fertilizado; en este caso, las plantas que se
originaran darían lugar a semillas verdes, y los descendientes de tales progenitores
volverían a producir también semillas verdes. Mendel indicó que existían cuatro
formas posibles de combinar los alelos de un par de progenitores híbridos, cada uno
de los cuales poseyera un alelo amarillo y uno verde. Un alelo amarillo procedente
del primer progenitor se combinaría con un alelo amarillo proveniente del segundo;
un alelo amarillo a partir del primer progenitor se combinaría con un alelo verde
procedente del segundo; un alelo verde del primero se combinaría con un alelo
amarillo del segundo; y, finalmente, un alelo verde del primero se combinaría con
un alelo verde del segundo. De las cuatro combinaciones, tan sólo la última daría
lugar a una planta productora de semillas verdes. Suponiendo que la totalidad de
las cuatro combinaciones fueran igualmente probables, la cuarta parte de las
plantas de una nueva generación produciría semillas verdes. Mendel pudo
comprobar que esto ocurría realmente así.
5. También demostró Mendel que las características de diferente clase -por ejemplo,
color de las semillas y color de las flores- eran heredadas independientemente unas
de otras. Es decir, las flores rojas podían aparecer asociadas tanto a semillas
amarillas, como a semillas verdes. Lo mismo ocurría con las flores blancas.
Mendel realizó estas experiencias en los albores de la década 1860-1870; las anotó
con sumo cuidado y envió una copia de su trabajo a Karl Wilhelm von Nägeli, un
botánico suizo de gran reputación. La reacción de Nägeli fue negativa. Von Nägeli
tenía, aparentemente, predilección por las teorías más generalizadas (su propia
labor teórica era semimística y estaba oscuramente expresada), y concedió escaso
mérito al simple recuento de los guisantes como medio conducente a la verdad. Por
añadidura, Mendel era un aficionado desconocido.
Al parecer, Mendel se descorazonó por los comentarios de Nägeli, pues regresó a
sus quehaceres monásticos, engordó (demasiado para trabajar en el jardín) y
abandonó sus investigaciones. Sin embargo, publicó sus trabajos en 1866 en una
revista austriaca de provincias, no consiguiendo atraer la atención durante toda una
generación.
Pero otros científicos se dirigían lentamente hacia las mismas conclusiones a que
había llegado Mendel (a pesar de desconocerlas). Una de las sendas por la que
llegaron a adquirir interés por la Genética fue el estudio de las «mutaciones», es
decir, de animales de extravagante naturaleza, o monstruos, que siempre habían
sido considerados como malos augurios. (La palabra «monstruo» procede de una
latina que significa «peligro».) En 1791, un agricultor de Massachusetts, llamado
Seth Wright, adoptó un punto de vista más práctico al contemplar una rara variedad
animal que había aparecido en su rebaño de ovejas. Uno de los corderos había
nacido con las extremidades extraordinariamente cortas, y se le ocurrió al sagaz
yanqui que con semejantes patas no podría saltar las bajas paredes de piedra que
circundaban su granja. Por ello, y deliberadamente, creó una raza de ovejas de
patas cortas partiendo de su no desafortunado accidente.
Esta demostración práctica estimuló a que otros exploraran la utilidad de diversas
mutaciones. A finales del siglo XIX, el horticultor norteamericano Luther Burbank
consiguió una serie de éxitos al obtener cientos de nuevas variedades de plantas,
que ofrecían ciertas ventajas con respecto a las antiguas, en un sentido o en otro,
y, no sólo por mutaciones, sino mediante juiciosos cruzamientos e injertos.
Mientras tanto, los botánicos intentaban hallar por su cuenta una explicación para
las mutaciones, y, constituyendo quizá la más sorprendente coincidencia en la
historia de la Ciencia, no menos de tres hombres, de manera independiente y en el
mismo año, llegaron precisamente a las mismas conclusiones que Mendel había
alcanzado una generación antes. Estos hombres fueron Hugo de Vries, holandés,
Karl Erich Correns, alemán y Erich van Tschermak, austriaco. En ningún caso se
conocían entre sí, ni tampoco la obra de Mendel. Los tres publicaron sus trabajos en
1900. Los tres, en una revisión final de las publicaciones anteriores en este campo,
descubrieron el trabajo de Mendel, siendo grande su sorpresa. Los tres publicaron
sus resultados en 1900, citando cada uno de ellos el trabajo de Mendel y
atribuyendo a éste el mérito del descubrimiento, a la vez que calificaban su propio
trabajo de una simple confirmación de los trabajos del monje. Inmediatamente, una
serie de biólogos vieron la relación que existía entre los genes de Mendel y los
cromosomas que podían verse con el microscopio. El primero en trazar un paralelo
en este sentido fue el citólogo norteamericano Walter S. Sutton en 1904. Indicó que
los cromosomas, al igual que los genes, aparecían a pares, uno de los cuales era
heredado a partir del padre y el otro de la madre. El único inconveniente que surgía
con esta analogía era que el número de cromosomas en las células de cualquier
organismo era mucho menor que el número de características heredadas. El
hombre, por ejemplo, tiene sólo 23 pares de cromosomas y, sin embargo, posee
millares de características hereditarias. Por ello, los biólogos llegaron a la conclusión
que los cromosomas no eran genes. Cada uno de ellos debía de ser una agrupación
de genes. Poco después, los biólogos descubrieron una magnífica herramienta para
estudiar los genes específicos. No se trataba de un instrumento físico, sino de una
nueva clase de animal de laboratorio. En 1906, el zoólogo Thomas Hunt Morgan, de
la Universidad de Columbia, concibió la idea de utilizar moscas de la fruta
(Drosophila melanogaster) para las investigaciones en genética. (El término
«Genética» fue inventado aproximadamente en esta época por el biólogo británico
William Bateson.) Las moscas de la fruta ofrecen considerables ventajas con
respecto a los guisantes (o cualquier animal común de laboratorio) para el estudio
absolvió a otro asesino en Australia alegándose que era un XYY y, por tanto, no
responsable de sus actos. Aproximadamente, el 4 % de los reclusos en cierta prisión
escocesa han resultado ser XYY y se calcula que la combinación XYY puede darse en
uno de cada 3.000 hombres.
Parece, pues, plausible que se estime conveniente realizar un examen cromosómico
de cada persona, e inexcusablemente de cada recién nacido. Como en el caso de
otros procedimientos, sencillos teóricamente pero muy laboriosos a la hora de
practicarlos, se está ensayando la realización de ese proceso con el concurso de la
computadora.
La investigación con moscas de la fruta mostró que los caracteres no eran
necesariamente heredados de forma independiente, como había supuesto Mendel.
Ocurría que las siete características en los guisantes que él había estudiado eran
gobernadas por genes en cromosomas distintos. Morgan descubrió que, cuando dos
genes que gobernaban dos características diferentes se hallaban situados sobre el
mismo cromosoma, aquellas características, por lo general, eran heredadas
conjuntamente (del mismo modo como un pasajero en el asiento anterior de un
coche y uno en el sentido posterior viajan juntos). Sin embargo, esta unión genética
no es inalterable. Del mismo modo que un pasajero puede cambiar de coche,
también un fragmento de un cromosoma puede, en ocasiones, unirse a otro
cromosoma, intercambiándose con un fragmento del otro. Tal cruzamiento (crossing
over) puede producirse durante la división de una célula. A consecuencia de ello, se
separan caracteres ligados y, barajados de nuevo, dan lugar a una nueva ligazón.
Por ejemplo, existe una variedad de la mosca de la fruta con ojos escarlata y alas
rizadas. Cuando esta variedad es cruzada con una mosca de la fruta de ojos blancos
y alas pequeñas, los descendientes tendrán, por lo general, ojos rojos y alas rizadas
u ojos blancos y alas pequeñas. Pero el acoplamiento puede, en ocasiones, dar
lugar a una mosca con ojos blancos y alas rizadas o a una con ojos rojos y alas
pequeñas, a consecuencia del cruzamiento (crossing over). La nueva forma
persistirá en las generaciones sucesivas, a menos que se produzca un nuevo
cruzamiento.
Ahora imaginemos un cromosoma con un gen para los ojos rojos en un extremo y
un gen para las alas rizadas en el otro. Permítasenos suponer que en la parte
central del cromosoma existen dos genes adyacentes que gobiernan otras dos
características. Evidentemente, la probabilidad de que tenga lugar una rotura de ese
punto particular, que separa a esos dos genes, es menor que la probabilidad de que
se produzca una rotura en uno de los muchos puntos a lo largo del segmento del
cromosoma que separa a los genes en los extremos opuestos. Mediante la anotación
de la frecuencia de separación por cruzamiento de pares dados de características
ligadas, Morgan y sus colaboradores, sobre todo Alfred Henry Sturtevant, fueron
capaces de deducir la localización relativa de los genes en cuestión y, de este modo,
elaboraron «mapas» cromosómicos de las localizaciones de los genes en la mosca
de la fruta. La localización así determinada constituye el locus de un gen.
A partir de tales mapas cromosómicos y del estudio de los cromosomas gigantes,
muchas veces más grande que los de tamaño ordinario, hallados en las glándulas
salivares de la mosca de la fruta, se ha establecido que el insecto tiene un mínimo
de 10.000 genes en un par de cromosomas. Esto significa que el gen individual
debe tener un peso molecular de 60 millones. Según este hallazgo, los cromosomas
algo mayores del ser humano deberían contener de 20.000 a 90.000 genes por par
de cromosomas o, en conjunto, unos dos millones. Por su trabajo sobre la genética
de las moscas de la fruta, Morgan recibió en 1933 el premio Nobel de Medicina y
Fisiología.
El conocimiento creciente sobre los genes permite esperar que algún día sea posible
analizar y modificar la herencia genética de los individuos humanos, bien sea
interceptando el desarrollo de condiciones anómalas graves o corrigiéndolas tan
pronto como acusen desviaciones. Esa «ingeniería genética» requerirá mapas
cromosómicos del organismo humano, lo cual implicará, evidentemente, una labor
mucho más complicada que la referente a la mosca de la fruta. En 1967 se
consiguió simplificar esa tarea de forma sorprendente cuando Howard Green, de la
Universidad de Nueva York, compuso células híbridas con cromosomas humanos y
de ratón. Relativamente pocos cromosomas humanos persistieron después de varias
divisiones celulares; y se pudo localizar con más facilidad el efecto resultante de su
actividad.
En 1969 se dio otro paso hacia el conocimiento y la manipulación del gen cuando el
bioquímico norteamericano Jonathan Beckwith y sus colaboradores lograron aislar
vital importancia. Landsteiner halló, sin embargo, que algunos tipos de sangre
podían mezclarse sin causar tal aglutinación nociva.
Hacia el año 1902, Landsteiner fue capaz de anunciar que existían cuatro tipos de
sangre humana, a los que llamó A, B, AB y O. Un individuo dado poseía sólo la
sangre de uno de estos tipos, y, por supuesto, un tipo particular de sangre podía ser
transfundido sin peligro a otra persona que tuviera el mismo tipo. Por añadidura, la
sangre del tipo O podía ser transfundida sin ningún riesgo a otra persona, fuera cual
fuere su tipo, en tanto la sangre A y la sangre B podían ser mezcladas con las de un
paciente AB. Sin embargo, tendría lugar una aglutinación de glóbulos rojos, si la
sangre AB se transfundía a un individuo A o B, al mezclarse la A y la B, o cuando
una persona con el tipo O recibiera la transfusión de cualquier sangre distinta a la
suya. (Por ello, debido a las posibles reacciones séricas, por lo general se administra
a los pacientes únicamente la sangre de su propio tipo.) En 1930, Landsteiner (que
por entonces adquirió la ciudadanía estadounidense) recibió el premio Nobel de
Medicina y Fisiología.
Los genetistas han establecido que estos tipos de sangre (y todos los otros
descubiertos desde entonces, incluso las variaciones del factor Rh), son heredadas
de forma estrictamente acorde con las leyes de Mendel. Parece que existen tres
alelos génicos, responsables respectivamente de la sangre A, B y O. Si ambos
progenitores tienen la sangre de tipo O, todos los niños generados por éstos
poseerán sangre del tipo O. Si un progenitor tiene sangre del tipo O y el otro del
tipo A, la sangre de todos estos niños será del tipo A, pues el alelo A es dominante
con respecto al O. El alelo B, de manera similar, es dominante con relación al alelo
O. Sin embargo, los alelos B y A no muestran dominación entre sí y un individuo
que posee ambos alelos tendrá sangre del tipo AB.
Las leyes de Mendel son seguidas de forma tan estricta, que los grupos sanguíneos
pueden ser, y son, utilizados para determinar la paternidad. Si una madre con
sangre del tipo O tiene un niño con sangre del tipo B, el padre del niño debe ser de
tipo B, pues el alelo B tiene que haber procedido forzosamente de algún lado. Si el
marido de dicha mujer pertenece al A o al O, es evidente que ésta ha sido infiel (o
bien que ha tenido lugar un cambio de niños en el hospital). Si una mujer del tipo O
con un niño del tipo B, acusa a un hombre A u O de ser el padre, es claro que se ha
confundido o bien que miente. Por otra parte, mientras que el tipo de sangre puede
en ocasiones excluir una posibilidad, nunca constituye, en cambio, una prueba
positiva. Si el marido de la mujer, o el hombre acusado, es del tipo B, el problema
no estará totalmente resuelto. Cualquier hombre del tipo B, o cualquier hombre del
tipo AB, podría haber sido el padre.
La aplicabilidad de las leyes de Mendel de la herencia a los seres humanos también
ha sido confirmada por la existencia de caracteres ligados al sexo. La acromaptosia
y la hemofilia (un defecto hereditario de la coagulación de la sangre) se observan de
modo casi exclusivo en los varones, y son heredadas precisamente de la misma
manera a como las características ligadas al sexo son heredadas en la mosca de la
fruta.
Naturalmente, surge la idea de la conveniencia de prohibir a las personas con tales
afecciones que tengan hijos y, de esta manera, suprimir la afección. Dirigiendo
adecuadamente los cruzamientos, podría incluso llegar a mejorarse la especie
humana, de modo similar a lo que se hace con el ganado. Por supuesto, ésta no es
una idea nueva.
Los antiguos espartanos ya la tuvieron, e intentaron ponerla en práctica hace unos
2.500 años. En la actualidad esta idea fue revivida por un científico inglés, Francis
Galton (primo de Charles Darwin). En 1883, acuñó el término «Eugenesia» para
describirlo (la palabra deriva del griego y significa «buen nacimiento»).
Galton desconocía en su tiempo los hallazgos de Mendel. No comprendía que las
características podían estar ausentes y ser, no obstante, transmitidas como
recesivas. No comprendía tampoco que se heredaban grupos de características de
forma intacta y que sería difícil eliminar una no deseable sin suprimir al propio
tiempo una deseable. Ni siquiera sabía que las mutaciones podían introducir
características indeseables en cada generación.
La genética humana es un tema enormemente complicado, que no es probable que
se estudie en toda su extensión en un futuro previsible. El ser humano no da lugar a
descendientes ni con tanta frecuencia ni en número tan grande a como lo hace la
mosca de la fruta; sus descendientes no pueden ser sometidos a un control de
laboratorio con fines experimentales; tiene muchos más cromosomas y
características heredadas que la mosca de la fruta; las características humanas en
las que estamos más interesados, tales como el genio creador, la inteligencia, la
fuerza moral, son extraordinariamente complejas e implican la interrelación de
numerosos genes e influencias ambientales. Por todas estas razones, los
profesionales no pueden estudiar la genética humana con la misma confianza con
que abordan la genética de la mosca de la fruta.
Por lo tanto, la Eugenesia sigue siendo un sueño, confuso e insustancial, debido a la
falta de conocimientos. Aquellos que en la actualidad abogan decididamente en
favor de programas elaborados de Eugenesia, tienden a ser racistas o excéntricos.
¿De qué modo determina un gen la manifestación de la característica física de la
cual es responsable? ¿Cuál es el mecanismo por el que da origen a semillas
amarillas en los guisantes, a alas rizadas en las moscas de la fruta, o a ojos azules
en los seres humanos? Hoy en día los biólogos tienen la certeza de que los genes
ejercen sus efectos a través de las enzimas. Uno de los casos más evidentes es el
del color de los ojos, el pelo y la piel. El color (azul o pardo, amarillo o negro, rosa o
pardo, o mezclas de ellos) viene determinado por la cantidad existente del pigmento
denominado melanina (de la palabra griega para «negro»), que se halla presente en
el iris de los ojos, en el pelo o en la piel. La melanina se forma a partir de un
aminoácido, la tirosina, a través de una serie de fases, cuya naturaleza se ha
dilucidado en la mayor parte de los casos. Se hallan implicadas una serie de
enzimas, y la cantidad de melanina formada dependerá de la cantidad de éstas. Por
ejemplo, una de las enzimas que cataliza las dos primeras fases, es la tirosina.
Seguramente, algún gen particular controla la producción de tirosinasa por las
células. De este modo controlará también la coloración de la piel, el pelo y los ojos.
Y, puesto que el gen es transmitido de una generación a otra, los niños
naturalmente se parecerán a sus padres en el color. Si una mutación determina la
aparición de un gen defectuoso que no pueda formar tirosinasa, no existirá
melanina y el individuo será «albino » La ausencia de una simple enzima (y, por lo
tanto, la deficiencia de un único gen) será suficiente para determinar un cambio
importante en las características personales.
Establecido el hecho que las características de un organismo son controladas por su
dotación de enzimas, que a su vez es controlada por los genes, se plantea la
siguiente cuestión: ¿Cómo actúan los genes? Desgraciadamente, incluso la mosca
Esta enfermedad había sido comunicada por vez primera en 1910 por un médico de
Chicago llamado James Bryan Herrick. Examinando con el microscopio una muestra
de sangre de un joven paciente negro, halló que los glóbulos rojos, normalmente
redondos, adoptaban formas irregulares, muchos de ellos la forma de media luna de
la hoz. Otros médicos empezaron a observar el mismo peculiar fenómeno, casi
siempre en pacientes de raza negra.
Por fin, los investigadores llegaron a la conclusión que la anemia falciforme era, en
general, una enfermedad hereditaria. Seguía las leyes mendelianas de la herencia.
Al parecer, en los pacientes con células falciformes existe un gen que, cuando es
heredado a partir de ambos progenitores, produce estos glóbulos rojos deformados.
Tales células son incapaces de transportar apropiadamente el oxígeno y tienen una
vida excepcionalmente corta, de tal forma que se produce una deficiencia de
glóbulos rojos en la sangre. Aquellos que heredan dicho gen a partir de ambos
progenitores suelen morir durante la infancia a consecuencia de la enfermedad. Por
otra parte, cuando una persona sólo posee un gen determinante de las células
falciformes, a partir de uno de sus progenitores, la enfermedad no aparece. El
desarrollo de células falciformes sólo se aprecia en aquellas personas sometidas a
una escasa concentración de oxígeno, como ocurre en las grandes altitudes. Se
considera que tales personas tienen un «carácter de células falciformes», pero no la
enfermedad.
Se halló que, aproximadamente, el 9 % de los negros estadounidenses tenían este
carácter y que el 0,25 % padecían la enfermedad. En algunas localidades del África
Central, cerca de la cuarta parte de la población negra muestra este carácter.
Aparentemente, el gen que determina las células falciformes se originó en África a
consecuencia de una mutación y fue heredado desde entonces por los individuos de
raza africana. Si la enfermedad es letal, ¿por que no ha desaparecido el gen
defectuoso? Los estudios llevados a cabo en África durante la década de los
cincuenta dieron la respuesta. Al parecer, las personas con el carácter de células
falciformes parecen tener una mayor inmunidad a la malaria que los individuos
normales. Las células falciformes son, de algún modo, menos adecuadas para
contener el parásito de la malaria. Se estima que en las áreas infestadas de
malaria, los niños con dicho carácter tienen un 25 % más de probabilidades de
sobrevivir hasta la edad en que pueden procrear, que aquellos sin este carácter. Por
lo tanto, poseer un solo gen de los que determinan la formación de células
falciformes (pero no los dos genes, que causan la anemia) confiere una ventaja. Las
dos tendencias opuestas -favorecimiento de la persistencia del gen defectuoso por
el efecto protector de uno solo de ellos y desaparición del gen por su efecto letal,
cuando es heredado a partir de ambos progenitores- crean un equilibrio que permite
la persistencia del gen en un cierto porcentaje de la población. En las regiones
donde la malaria no constituye un grave problema, el gen tiende a desaparecer. En
América, la incidencia de los genes determinantes de la formación de células
falciformes entre los negros puede haber sido originalmente del orden del 25 %.
Aún suponiendo una reducción de, aproximadamente, un 15 % por cruzamiento con
individuos de raza no negra, la presente frecuencia de sólo un 9 % demuestra que
el gen está desapareciendo. Con toda probabilidad seguirá esta tendencia. Si África
llega a verse libre de la malaria, seguramente ocurrirá allí lo mismo.
La significación bioquímica del gen determinante de la formación de células
falciformes adquirió de repente una gran importancia en 1949, cuando Linus Pauling
y sus colaboradores, en el Instituto de Tecnología de California (donde también
estaba trabajando Beadle), demostraron que los genes afectaban a la hemoglobina
de los glóbulos rojos. Las personas con dos genes determinantes de la formación de
células falciformes eran incapaces de formar la hemoglobina normal. Pauling
demostró este hecho mediante la técnica denominada «electroforesis», método que
utiliza una corriente eléctrica para separar las proteínas gracias a las diferencias de
la carga eléctrica neta existente en las diversas moléculas proteicas. (La técnica
electroforética fue desarrollada por el químico sueco Ame Wilhelm Kaurin Tiselius,
quien recibió el premio Nobel de Química en 1948 por esta valiosa contribución.)
Pauling, por análisis electroforético, halló que los pacientes con anemia falciforme
poseían una hemoglobina anormal (denominada «hemoglobina S»), que podía ser
separada de la hemoglobina normal. El tipo normal fue denominado hemoglobina A
(de «adulto»), para distinguirla de una hemoglobina en los fetos, denominada
hemoglobina F.
Desde 1949, los bioquímicos han descubierto otra serie de hemoglobinas
anormales, aparte de aquellas en las células falciformes, y las han diferenciado con
Podía apreciarse, pues, que la única diferencia entre las tres hemoglobinas consistía
en aquel único aminoácido que ocupaba la posición siete en el péptido: era el ácido
glutámico en la hemoglobina A, la valina en la hemoglobina S y la lisina en la
hemoglobina C. Ya que el ácido glutámico da origen a una carga negativa, la lisina a
una carga positiva y la valina no aporta ninguna carga, no es sorprendente que las
tres proteínas se comporten de manera diferente en la electroforesis, pues su carga
global es distinta.
Pero, ¿por qué una modificación tan ligera en la molécula determina un cambio tan
drástico en el glóbulo rojo? Bien, una tercera parte del glóbulo rojo normal la
constituye la hemoglobina A. Las moléculas de hemoglobina A se hallan tan
densamente dispuestas en el interior de la célula, que apenas si tienen espacio para
moverse libremente; es decir, se hallan a punto de precipitar la solución. Uno de los
factores que determinan que una proteína precipite o no es la naturaleza de su
carga. Si todas las proteínas tienen la misma carga neta, se repelen entre sí y no
precipitan. Cuanto mayor sea la carga (es decir la repulsión), tanto menos probable
será que las proteínas precipiten. En la hemoglobina S, la repulsión intramolecular
puede ser algo menor que en la hemoglobina A, y, en su consecuencia, la
hemoglobina S será menos soluble y precipitará con mayor facilidad. Cuando una
célula falciforme posee un gen normal, este último puede determinar la formación
de suficiente hemoglobina A para mantener, aunque a duras penas, la hemoglobina
S en solución. Pero cuando los dos genes sean mutantes determinantes de la
formación de células falciformes, sólo producirán hemoglobina S. Esta molécula no
puede permanecer en solución. Precipita, dando lugar a cristales que de forman y
debilitan los hematíes.
Esta teoría explicaría por qué la variación en simplemente un aminoácido, en cada
mitad de una molécula constituida por casi 600 aminoácidos, basta para provocar
una enfermedad grave, casi siempre con un precoz desenlace fatal.
Ácidos Nucleicos
durante un cierto período de tiempo, que esto podía representar una diferencia
química general entre los animales y las plantas.
El bioquímico alemán Albrecht Kossel, otro discípulo de Hoppe-Seyler, fue el primero
en efectuar una investigación sistemática de la estructura de la molécula del ácido
nucleico. Por hidrólisis cuidadosa aisló, a partir de él, una serie de compuestos
nitrogenados, que denominó «adenina», «guanina», «citosina» y «timina». En la
actualidad se sabe que sus fórmulas son:
(Esto fue, en aquel tiempo, un hallazgo poco usual. Los azúcares mejor conocidos,
tales como la glucosa, contenían 6 átomos de carbono.) Levene dedujo este hecho
al observar que las dos variedades de ácido nucleico diferían en la naturaleza del
azúcar con 5 átomos de carbono.
El ácido nucleico de la levadura contenía «ribosa», mientras que el ácido
timonucleico contenía un azúcar idéntico a la ribosa, salvo por la ausencia de un
átomo de oxígeno, de tal modo que este azúcar fue denominado «desoxirribosa».
Sus fórmulas son:
Hacia 1934 Levene fue capaz de demostrar que los ácidos nucleicos podían ser
escindidos en fragmentos que contenían una purina o una pirimidina, la ribosa o la
los ácidos nucleicos eran materiales de distribución universal, que existían en todas
las células vivientes.
El bioquímico sueco Torbjörn Caspersson estudió más detalladamente la cuestión,
suprimiendo uno de los ácidos nucleicos (mediante una enzima que los escindía en
fragmentos solubles, que podían ser eliminados de las células mediante su lavado) y
concentrando el otro. Seguidamente fotografió la célula con luz ultravioleta; ya que
un ácido nucleico absorbe este tipo de luz con mucha más intensidad de lo que lo
hacen los otros componentes celulares, se pudo apreciar claramente la localización
del ADN o del ARN, según fuera el que permanecía en la célula. El ADN aparecía
localizado sólo en los cromosomas. El ARN se hallaba principalmente en ciertas
partículas de citoplasma. Parte del ARN también se encontraba en el «nucleolo»,
una estructura en el interior del núcleo. (En 1948, el bioquímico Alfred Ezra Mirsky,
del «Instituto Rockefeller», demostró que pequeñas cantidades del ARN se hallaban
presentes en los cromosomas, mientras que Ruth Sager demostró a su vez que el
ADN podía encontrarse en el citoplasma, particularmente en los cloroplastos de las
plantas.)
Las fotografías de Caspersson pusieron de manifiesto que el ADN se hallaba
localizado en bandas existentes en los cromosomas. ¿Era posible que las moléculas
de ADN no fueran otra cosa que genes, los cuales, hasta entonces, sólo habían
tenido una existencia vaga y amorfa?
Durante los años cuarenta, los bioquímicos siguieron esta senda con creciente
excitación. Consideraban particularmente significativo que la cantidad de ADN en las
células del organismo fuera siempre rígidamente constante, salvo en los
espermatozoides y óvulos, que contenían la mitad de esta cantidad, lo que era de
esperar ya que tenían sólo la mitad del número de cromosomas de las células
normales. La cantidad de ARN y de proteína en los cromosomas podía variar
considerablemente, pero la cantidad de ADN permanecía fija. Éste, evidentemente,
parecía indicar una estrecha relación entre el ADN y los genes.
Por supuesto, existían una serie de hechos que hablaban en contra de esta idea. Por
ejemplo, ¿cuál era el papel que desempeñaban las proteínas en los cromosomas?
Proteínas de diversas clases se hallaban asociadas a los ácidos nucleicos, formando
una combinación denominada «núcleo proteína». Considerando la complejidad de
A=T
G=C
A+G=T+C
Aunque el ADN es el que replica en las células, muchos de los virus más simples
(subcelulares) contienen solamente ARN. Las moléculas ARN, en doble hilera,
replican en esos virus. El ARN de las células forma una sola hilera y no replica.
Sin embargo, la estructura de una sola hilera y la réplica no se excluyen
mutuamente. El biofísico norteamericano Robert Louis Sinsheimer descubrió un
rastro de virus que contenía ADN formando una sola hilera. La molécula ADN
tendría que replicar por sí misma, pero, ¿cómo lo haría con una sola hilera? La
respuesta no fue difícil. La cadena simple induciría la producción de su propio
complemento y éste induciría después la producción del «complemento del
complemento», es decir, una copia de la cadena original.
Es evidente que la disposición en una sola cadena es menos eficiente que la
disposición en cadena doble (motivo por el cual probablemente la primera existe
sólo en ciertos virus muy simples, y la última en todas las restantes criaturas
vivientes). En efecto, en primer lugar, una cadena sencilla debe replicarse a sí
misma en dos fases sucesivas, mientras que la cadena doble lo hace en una sola
fase. Segundo, ahora parece ser que sólo una de las cadenas de la molécula de ADN
es la estructura operante, el borde cortante de la molécula, por así decirlo. Su
complemento puede imaginarse como una vaina protectora del borde cortante. La
cadena doble representa el borde cortante protegido por la vaina, excepto cuando
aquél está realizando su función; la cadena simple es el borde cortante en todo
momento expuesto y sometido a un posible accidente que lo haga romo.
Sin embargo, la replicación simplemente determina la formación de una molécula de
ADN. ¿Cómo realiza su trabajo, cuál es el de determinar la síntesis de una enzima
específica, es decir, de una molécula proteica específica? Para formar una proteína,
la molécula de ADN tiene que determinar la disposición de los aminoácidos en un
cierto orden en una molécula constituida por cientos o miles de unidades. Para cada
posición debe elegir el aminoácido correcto de entre, aproximadamente, 20
aminoácidos distintos. Si hubiera 20 unidades correspondientes en la molécula de
ADN, el problema sería fácil. Pero el ADN está constituido por sólo cuatro sillares
distintos: los cuatro nucleótidos. Reflexionando a este respecto, el astrónomo
George Gamow sugirió en 1954 que los nucleótidos, en diversas combinaciones,
pueden usarse como un código «genético» (de manera similar a como el punto y el
guión en la clave Morse pueden combinarse de diversas maneras para representar
las letras del alfabeto, los números, etc.).
Si se toman los cuatro nucleótidos distintos (A, G, C, T), de dos en dos, existirán 4
x 4, ó 16 posibles combinaciones (AA, AG, AC, AT, GA, GG, GC, GT, CA, CG, CC, CT,
TA, TG, TC y TT). Éstas no son suficientes. Si se toman de tres en tres, existirán 4 X
4 X 4, ó 64 combinaciones distintas, más que suficientes. (El lector puede distraerse
anotando las diferentes combinaciones y viendo si puede hallar la 65.a.) Parece
como si cada diferente «terceto de nucleótidos» representara un aminoácido
particular. En vista del gran número de diferentes tercetos posibles, puede ocurrir
muy bien que dos, o aún tres, diferentes tercetos representen un aminoácido
particular. En este caso, la clase venética sería «degenerada», según la terminología
de los criptógrafos.
Esto plantea dos problemas fundamentales: ¿Qué terceto (o tercetos) corresponde a
cada aminoácido? ¿Y de que modo la información del terceto (que fue encerrada
cuidadosamente en el núcleo, allí donde sólo se hallará el ADN) alcanza los lugares
de formación de enzimas que se encuentran en el citoplasma? Abordemos
primeramente el segundo problema y consideremos las sospechas que han recaído
sobre el ARN como posible sustancia transmisora de la información. Su estructura
es muy similar a la del ADN, con diferencias que no afectan a la clave genética. El
ARN tiene ribosa en lugar de desoxirribosa (un átomo de oxígeno más por
nucleótido) y uracilo en lugar de timina (un grupo metílico, CH3, menos por
nucleótido). Además, el ARN se halla presente principalmente en el citoplasma, pero
también, en una pequeña proporción, en los propios cromosomas.
No fue difícil ver, y posteriormente demostrar, lo que ocurría en realidad. Cuando
las dos cadenas enrolladas de la molécula de ADN se desenrollan, una de estas
cadenas (siempre la misma, el borde cortante) replica su estructura, no sobre los
nucleótidos que forman una molécula de ADN, sino sobre aquellos que forman una
molécula de ARN. En este caso, la adenina de la cadena de ADN no se unirá a los
nucleótidos de la timina, sino, por el contrario, a los nucleótidos del uracilo. La
molécula de ARN resultante, que transporta la clave genética impresa sobre su
estructura nucleotídica, puede luego abandonar el núcleo y penetrar en el
citoplasma.
Ya que transmite el «mensaje» del ADN, ha sido de nominado «ARN-mensajero» o
simplemente «mARN».
El bioquímico rumano George Emil Paladeo gracias a una cuidadosa investigación
con el microscopio electrónico, demostró, en 1956, que el lugar de producción de
enzimas en el citoplasma eran unas minúsculas partículas, ricas en ARN y por lo
tanto denominadas «ribosomas». En una célula bacteriana hay 15.000 ribosomas,
quizá diez veces más que en una célula de mamífero. Son las más pequeñas de las
partículas subcelulares u «orgánulas». Se pudo determinar pronto que el ARN
mensajero, que transporta la clave genética en su estructura, se dirige hacia los
ribosomas y se sitúa en uno o más de ellos; se descubrió asimismo que la síntesis
de la proteína se realiza en los ribosomas.
La siguiente etapa fue salvada por el bioquímico norteamericano Mahlon Busch
Hoagland, quien investigó activamente el problema del mARN; demostró que en el
citoplasma existía una variedad de pequeñas moléculas de ARN, que podían
denominarse «ARN-soluble» o «sARN», debido a que sus pequeñas dimensiones les
permitían hallarse libremente disueltas en el líquido citoplasmático.
En un extremo de cada molécula sARN había, un terceto especial de nucleótidos que
se correspondía exactamente con otro terceto complementario en algún lugar de la
cadena mARN. Es decir, si el terceto sARN estaba compuesto por AGC se ajustaría
firme y exclusivamente al terceto UCG de la mARN. En el otro extremo de la
molécula sARN había un punto donde ésta se combinaría con un aminoácido
específico, y también exclusivamente. Así, pues, en cada molécula sARN el terceto
de un extremo comportaba un aminoácido específico en el otro. Por consiguiente un
terceto complementario en la mARN significaba que sólo se adheriría allí una
determinada molécula sARN portadora de cierta molécula de aminoácidos. Un
número muy elevado de moléculas sARN se adherirían consecutivamente en toda la
línea a los tercetos constitutivos de la estructura mARN (tercetos que se habían
moldeado justamente en la molécula ADN de un determinado gen). Entonces, una
vez alineados adecuadamente todos los aminoácidos, se les podría acoplar con
facilidad para formar una molécula de enzima.
Como quiera que la información transmitida desde la mensajera ARN es transferible
por ese conducto a la molécula proteínica de la enzima, se ha dado en llamarla
«transferencia-ARN», denominación que se ha generalizado hoy día.
En 1964, un equipo dirigido por el bioquímico norteamericano Robert W. Holley
analizó minuciosamente la molécula «transferencia-ARN» de la alanina (la
transferencia-ARN que se adhiere a la alanina, raíz de diversos aminoácidos). Se
empleó el método Sanger, es decir, de integración de la molécula en pequeños
fragmentos mediante las apropiadas enzimas, para analizar seguidamente esos
fragmentos y deducir cómo encajaban unos con otros. Se averiguó que la
transferencia-ARN de la alanina -el primer ácido nucleico de formación natural que
se analizó totalmente- está constituido por una cadena de 77 nucleótidos. Entre
éstos no figuran solamente los cuatro nucleótidos característicos del ARN (A, G. C y
U), sino también otros siete estrechamente asociados a ellos.
Al principio se supuso que la cadena lineal de la transferencia-ARN se doblaría por el
centro como una horquilla y los dos extremos se entrecruzarían formando una doble
hélice. Sin embargo, la estructura de la transferencia-ARN de alanina no se adaptó a
ese modelo. En su lugar pareció estar constituido por tres bucles que le daban el
aspecto de un trébol trifoliado asimétrico. En años subsiguientes se analizaron
concienzudamente otras moléculas de transferencia-ARN y todas ellas parecieron
tener la misma estructura de trébol trifoliado. Como recompensa por su trabajo,
Código Genético6
Primera posición Segunda posición Tercera posición
U C A G
U Fe Ser Tir Cis U
Fe Ser Tir Cis C
(«full stop »«full
Leu Ser A
normal) stop»
(«full stop» menos
Leu Ser Trip G
corriente)
C Leu Pro His Arg U
Leu Pro His Arg C
6
Código genético. En la primera columna de la izquierda están las iniciales de las cuatro bases ARN (uracilo,
citosina, adenina, guanina) que representan la primera letra del tercero; la segunda letra se representa por las
iniciales de la columna superior, en tanto que la tercera aunque no menos importante letra aparece en la columna
final de la derecha. Por ejemplo, la tirosina (Tir) se codifica tanto como UAU o UAC. Los aminoácidos codificados por
cada terceto se abrevian del modo siguiente: Fe, fenilalanina; Leu, leucina; Ileu, isoleucina; Met, metionina, Val,
valina; Ser, serina; Pro, prolina; Tre, treonina; Ala, alanina; Tir, tirosina; His, histidina: Glun, glutamina; Aspn,
asparagina; lis, lisina; asp, ácido aspártico; Glu, ácido glutámico; Cis, cisteína; Trip, triptófano; Arg, arginina; Gli,
glicina.
Es evidente que las células tienen métodos para interceptar u abrir paso a las
moléculas ADN de los cromosomas. Mediante ese esquema de interceptación y
desobstrucción, células diferentes pero con idénticos modelos génicos pueden
producir distintas combinaciones de proteínas, mientras que una célula particular
con un modelo génico inalterable produce combinaciones distintas muy raras veces.
En 1961, Jacob y Monod opinaron que cada gen tiene su propio represor, cifrado por
un «gen regulador». Este represor -dependiente de su geometría que puede
alterarse dentro de la célula según las circunstancias- interceptará o dará paso libre
al gen. En 1967 se consiguió aislar ese represor y se descubrió que era una
pequeña proteína. Jacob y Monod, junto con un colaborador, André Michael Lwoff,
recibieron por su trabajo el premio Nobel de Medicina y Fisiología el año 1965.
Ahora bien, la afluencia de información no sigue una dirección única, es decir, desde
el gen a la enzima. Hay también una «realimentación». Así. Pues, hay un gen que
promueve la formación de una enzima, cataliza una reacción y transforma el
aminoácido treonina en otro aminoácido, la isoleucina. La presencia de esta
isoleucina sirve por alguna razón desconocida para activar al represor que entonces
reprime paulatinamente la acción del mismo gen que ha producido la específica
enzima causante de esa presencia. En otras palabras, cuanto más aumenta la
concentración de isoleucina menos cantidad se forma; si la concentración
disminuye, el gen tendrá paso libre y se formará más isoleucina. La maquinaria
química dentro de la célula -genes, represores, enzimas, «productos acabados»- es
normalmente compleja y sus interrelaciones muy intrincadas. No parece que sea
posible por ahora descubrir rápida y totalmente ese esquema. (Véase página
anterior.)
Pero, preguntémonos entretanto acerca de otra cuestión: ¿Con qué aminoácido se
corresponde cada terceto? El comienzo de esa respuesta llegó en 1961, gracias al
trabajo de los bioquímicos norteamericanos Marshall Warren Nirenberg y J. Heinrich
Matthaei. Ambos empezaron utilizando el ácido nucleico sintético, elaborado con
arreglo al sistema de Ochoa, es decir, partiendo exclusivamente de los nucleótidos
uracilos. Este «ácido poliuridílico» estaba constituido por una larga cadena
de...UUUUUUU..., y sólo podía poseer un terceto, el UUU.
Nirenberg y Mattahaei agregaron este ácido poliuridílico a un sistema que contenía
varios aminoácidos, enzimas, ribosomas y todos los restantes componentes
necesarios para sintetizar las proteínas. De esa mezcla se desprendió una proteína
constituida únicamente por el aminoácido fenilalanina, lo cual significó que el UUU
equivalía a la fenilalanina. Así se elaboró el primer apartado del «diccionario de los
tercetos».
El siguiente paso fue preparar un nucleótido en cuya composición preponderaran los
nucleótidos de uridina más una pequeña porción de adenina. Ello significó que,
junto con el terceto UUU, podría aparecer ocasionalmente un codon UVA o AUU o
UAU. Ochoa y Nirenberg demostraron que, en tal caso, la proteína formada era
mayormente fenilalanina, si bien solía contener asimismo leucina, isoleucina y
tirosina, es decir, otros tres aminoácidos.
Mediante métodos similares a ése se amplió progresivamente el diccionario. Se
comprobó que el código adolecía de cierta redundancia, pues, por ejemplo, GAU y
GAC podían representar el ácido aspártico y la glicina estaba representada nada
menos que por GUU, GAU, GUC GUA y GUG. Por añadidura, hubieron algunas
El Origen de la Vida
Una vez dilucidada la estructura y significación de las moléculas de ácido nucleico,
nos encontramos tan próximos a los fundamentos de la vida como en la actualidad
nos es posible. Aquí seguramente se halla la sustancia primigenia de la propia vida.
Sin el ADN, los organismos vivos no podrían reproducirse, y la vida, tal como la
conocemos, no podría haberse iniciado. Todas las sustancias de la materia viva -las
enzimas y todas las demás cuya producción es catalizada por las enzimas-
dependen en última instancia del ADN. Así, pues, ¿cómo se inició el ADN y la vida?
Ésta es una pregunta que la Ciencia siempre ha titubeado en responder. En los
últimos años, un libro, titulado precisamente El origen de la vida, del bioquímico
ruso A. I. Oparin, ha permitido centrar mucho más el problema. El libro fue
publicado en la Unión Soviética en 1924, y su traducción inglesa apareció en 1936.
En él, el problema del origen de la vida es tratado por vez primera con detalle, a
partir de un punto de vista totalmente científico.
La mayor parte de las culturas primitivas humanas desarrollaron mitos sobre la
creación de los primeros seres humanos (y algunas veces también de otras formas
de vida) por los dioses o los demonios. Sin embargo, la formación de la propia vida
fue rara vez considerada como una prerrogativa únicamente divina. Al menos, las
formas más inferiores de vida podrían originarse de forma espontánea, a partir de la
materia inerte, sin la intervención sobrenatural. Por ejemplo, los insectos y gusanos
podían originarse de la carne en descomposición, las ranas a partir del lodo, los
ratones a partir del trigo roído. Esta idea se basaba en la observación del mundo
real, pues la carne descompuesta, para elegir el ejemplo más evidente, daba
indudablemente origen a cresas. Fue muy natural suponer que dichas cresas se
formaban a partir de la carne.
Aristóteles creyó en la existencia de la «generación espontánea». Así lo hicieron
también grandes teólogos de la Edad Media, tales como santo Tomás de Aquino.
Igualmente abundaron en esta opinión William Harvey e Isaac Newton. Después de
todo, la evidencia que se ofrece a nuestros propios ojos es difícil de rechazar.
El primero en poner en tela de juicio esta creencia y someterla a una
experimentación fue el médico italiano Francesco Redi. En 1668, decidió comprobar
si las cresas realmente se formaban a partir de la carne en descomposición. Colocó
fragmentos de carne en una serie de tarros y luego recubrió algunos de ellos con
una fina tela, dejando a los restantes totalmente al descubierto. Las cresas se
desarrollaron sólo en la carne de los tarros descubiertos, a los que tenían libre
acceso las moscas. Redi llegó a la conclusión que las cresas se habían originado a
partir de huevos microscópicamente pequeños, depositados sobre la carne por las
moscas. Sin las moscas y sus correspondientes huevos, insistió, la carne nunca
podría haber producido cresas, independientemente del tiempo que se estuviera
descomponiendo y pudriendo.
Los experimentadores que siguieron a Redi confirmaron este hecho, y murió así la
creencia de que ciertos organismos visibles se originaban a partir de la materia
muerta. Pero, cuando se descubrieron los microbios, poco después de la época de
Redi, muchos científicos decidieron que al menos estas formas de vida debían de
proceder de la materia muerta. Incluso en tarros recubiertos por una fina tela, la
carne pronto empezaba a contener numerosos microorganismos. Durante los dos
siglos que siguieron a las experiencias de Redi, permaneció aún viva la creencia de
la posibilidad de la generación espontánea de los microorganismos.
Fue otro italiano, el naturalista Lazzaro Spallanzani, quien por vez primera puso
seriamente en duda esta hipótesis. En 1765, dispuso dos series de recipientes que
contenían pan. Una de estas series la mantuvo en contacto con el aire. La otra, a la
que había hervido para matar a todos los organismos presentes, fue cerrada, al
objeto de evitar que cualquier organismo que pudiera hallarse suspendido en el aire
entrara en contacto con el pan. El pan de los recipientes de la primera serie pronto
contuvo microorganismos, pero el pan hervido y aislado permaneció estéril. Esto
demostró, para satisfacción de Spallanzani, que incluso la vida microscópica no se
originaba a partir de la materia inanimada. Incluso aisló una bacteria y afirmó que
se había dividido en dos bacterias.
Los defensores de la generación espontánea no estaban convencidos. Mantenían
que la ebullición destruía algún «principio vital» y que éste era el motivo por el cual
no se desarrollaba vida microscópica en los recipientes cerrados y hervidos de
Spallanzani. Pasteur zanjó la cuestión, al parecer de forma definitiva. Ideó un
recipiente con un largo cuello de cisne, que presentaba la forma de una S
horizontal. Por la abertura no tapada, el aire podía penetrar en el recipiente, pero
no lo podían hacer las partículas de polvo y los microorganismos, ya que el cuello
curvado actuaba como una trampa, igual que el sifón de una alcantarilla. Pasteur
introdujo algo de pan en el recipiente, conectó el cuello en forma de S, hirvió el
caldo hasta emitir vapor (para matar cualquier microorganismo en el cuello, así
como en el caldo) y esperó a ver qué ocurría. El caldo permaneció estéril. Así, pues,
no existía ningún principio vital en el aire. Aparentemente, la demostración de
Pasteur puso fin de forma definitiva a la teoría de la generación espontánea.
Todo esto sembró un germen de intranquilidad en los científicos. Después de todo,
¿cómo se había originado la vida, si no era por creación divina o por generación
espontánea? Hacia finales del siglo XIX, algunos teóricos adoptaron la otra posición
extrema, al considerar que la vida era eterna. La teoría más popular fue la
propuesta por Svante Arrhenius (el químico que había desarrollado el concepto de la
ionización). En 1907 publicó el libro titulado La creación de mundos, en el cual
describía un Universo donde la vida siempre había existido y que emigraba a través
del espacio, colonizando continuamente nuevos planetas. Viajaba en forma de
esporas, que escapaban de la atmósfera de un planeta por movimiento al azar y
luego eran impulsadas a través del espacio por la presión de la luz procedente del
sol.
En modo alguno debe despreciarse esta presión de la luz como una posible
fuerza impulsadora. La existencia de la presión de radiación había sido predicha en
primer lugar por Maxwell, a partir de bases teóricas, y, en 1899, fue demostrada
experimentalmente por el físico ruso Piotr Nikolaievich Lebedev.
Según Arrhenius, estas esporas se desplazarían impulsadas por la radiación
luminosa a través de los espacios interestelares, y lo harían hasta morir o caer en
algún planeta, donde podrían dar lugar a vida activa y competir con formas de vida
ya existentes, o inocular vida al planeta si éste estaba inhabitado pero era
habitable.
A primera vista, esta teoría ofrece un cierto atractivo. Las esporas bacterianas,
protegidas por un grueso revestimiento, son muy resistentes al frío y a la
deshidratación, y es concebible que se conserven durante un prolongado período de
tiempo en el vacío del espacio. Asimismo tienen las dimensiones apropiadas para
ser más afectadas por la presión externa de la radiación solar, que por el empuje
centrípeto de su gravedad. Pero la sugerencia de Arrhenius se desmoronó ante el
obstáculo, que representaba la luz ultravioleta. En 1910, los investigadores
observaron que dicha luz mataba rápidamente las esporas bacterianas; y en los
espacios interplanetarios la luz ultravioleta del sol es muy intensa (por no hablar de
otras radiaciones destructoras, tales como los rayos cósmicos, los rayos X solares, y
zonas cargadas de partículas, por ejemplo los cinturones de Van Allen que rodean a
la Tierra). Concebiblemente pueden existir en algún lugar esporas que sean
resistentes a las radiaciones, pero las esporas constituidas por proteínas y ácido
nucleico, tales como las que nosotros conocemos, evidentemente no soportarían la
prueba que aquéllas implican.
Sin embargo, por aquella época se formaron algunos agregados similares a los
mitocondrios que contenían clorofila, la antecesora del moderno cloroplasto. En
1966, los bioquímicos canadienses G. W. Hodson y B. L Baker empezaron a trabajar
con pirrol y paraformaldehído (los cuales se pueden formar empleando sustancias
todavía más simples, como las utilizadas en los experimentos del tipo Miller) y
demostraron que se formaban anillos de porfidina -la estructura básica de la
clorofila- tras un mero caldeamiento suave de tres horas.
El ineficaz empleo de la luz visible por los primitivos agregados clorofílicos debe de
haber sido incluso preferible al procedimiento de sistemas no clorofílicos durante el
período formativo de la capa ozónica. La luz visible podría atravesar fácilmente el
ozono, y su deficiente energía (comparada con la ultravioleta) bastaría para activar
el sistema clorofílico.
Los primeros organismos que consumieron clorofila no habrán sido probablemente
más complicados que los cloroplastos individuales de nuestros días. En realidad, un
grupo de organismos unicelulares y fotosintetizadores denominados «algas
verdiazules» cuenta con dos mil especies (aunque no todos sean verdiazules, sí lo
fueron los primeros sometidos a estudio). Éstos son células muy simples, más bien
se diría bacterias por su estructura si no contuvieran clorofila. Las algas verdiazules
pueden haber sido los descendientes más elementales del cloroplasto original; por
otra parte, las bacterias lo habrán sido de los cloroplastos que perdieron su clorofila
y tendieron al parasitismo o se nutrieron de los tejidos muertos y sus componentes.
Cuando los cloroplastos se multiplicaron en los antiguos mares, el anhídrido
carbónico se consumió gradualmente y el oxígeno molecular ocupó su lugar.
Entonces se formó nuestra atmósfera, la Atmósfera III. Las células vegetales
ganaron progresivamente eficiencia, cada una llegó a contener numerosos
cloroplastos. Al propio tiempo, las células elaboradas sin clorofila no podrían haber
existido sobre la base precedente, pues las células vegetales arrebataron a los
océanos todas sus reservas alimenticias y éstas ya no se formaron más excepto
dentro de dichas células. No obstante, las células sin clorofila pero con un elaborado
equipo mitocondrial capaz de manejar eficientemente células complejas y almacenar
la energía producida por su disgregación, pudieron haber vivido ingiriendo las
células vegetales y despojando las moléculas que estas últimas habían construido
laboriosamente. Así se originó la célula animal del presente día. A su debido tiempo
los organismos adquirieron suficiente complejidad para dejar los vestigios fósiles
(vegetales y animales) que conocemos actualmente.
Entretanto, el medio ambiente terrestre ha cambiado de forma radical, desde el
punto de vista de la creación de nueva vida. La vida ya no puede originarse y
desarrollarse merced a un proceso de evolución puramente química. Por un simple
hecho, las formas de energía que la hicieron surgir en un principio -la energía de las
radiaciones ultravioleta y de la radiactividad- han cesado prácticamente.
Por otro lado, las formas de vida bien establecidas consumirían con gran rapidez
cualquier molécula orgánica que se originara de forma espontánea. Por estas dos
razones no existe virtualmente la posibilidad de un resurgimiento independiente de
lo inanimado en lo animado (salvo por alguna futura intervención del ser humano, si
llega alguna vez a descubrir el procedimiento). Hoy en día la generación espontánea
es tan improbable, que puede ser considerada como básicamente imposible.
Sin embargo, las rocas traídas desde la Luna por las sucesivas expediciones a
nuestro satélite, iniciada en 1969, han mostrado una ausencia absoluta de agua y
materia orgánica. Desde luego, son simples rocas de superficie y tal vez resultara
distinto si se recogieran algunas subyacentes a varios metros bajo esa superficie.
Pese a todo, las pruebas en nuestro poder parecen indicar que no hay vida de
ninguna clase -ni la más elemental siquiera- en la Luna.
Venus parece un candidato mejor situado para la vida, aunque sólo sea por su masa
(pues, en cuestión de tamaño, se asemeja mucho a la Tierra) y por el hecho
irrefutable de que posee una atmósfera, e incluso más densa que la nuestra. En
1959, Venus eclipsó a la brillante estrella Regulus. Gracias a ello se pudo observar
cómo atravesaba esa viva luz de Regulus la atmósfera venusiana, y adquirir así
nuevos conocimientos referentes a su profundidad y densidad. El astrónomo
norteamericano Donald Howard Menzel recogió suficientes datos para poder
anunciar que el diámetro del cuerpo sólido de Venus medía 6.057,6 km, es decir,
112 menos que el más aproximado de los cálculos precedentes.
La atmósfera venusiana parece ser principalmente de anhídrido carbónico. Venus no
tiene oxígeno libre perceptible, pero esa falta no representa una barrera
infranqueable para la vida. Como ya expliqué anteriormente, la Tierra mantuvo vida
probablemente durante infinidad de tiempo antes de poseer oxígeno libre en su
atmósfera (aunque, a buen seguro, esa vida sería sumamente primitiva).
Hasta épocas bastante recientes no se descubrió vapor en el aire de Venus, y ello
fue un fatal impedimento para la posibilidad de vida allí. A los astrónomos les
incomodó sobremanera la imposibilidad de encontrar agua en Venus, pues esa
circunstancia les impedía satisfactoriamente la presencia de una envoltura nubosa
sobre el planeta. Entonces, en 1959, Charles B. Moore, del laboratorio de la «Arthur
D. Little Company», ascendió en un aerostato a 24 km de altura, es decir hasta la
estratosfera sobre casi toda la atmósfera terrestre interferente, y tomó fotografías
de Venus con un telescopio. Su espectro mostró en la banda infrarroja que la
atmósfera externa de Venus contenía tanto vapor de agua como la terrestre.
Sin embargo, las posibilidades de vida en Venus sufrieron otra caída de bruces, y
esta vez aparentemente definitiva, por causa de su temperatura superficial.
Radioondas procedentes de Venus indicaron que su temperatura de superficie
podría superar largamente el punto de ebullición del agua. Sin embargo, quedó la
esperanza de que esas radioondas indicadoras de temperaturas procedieran de la
atmósfera externa venusiana y que, por consiguiente la superficie del planeta
tuviera una temperatura más soportable.
No obstante, esa esperanza se esfumó en diciembre de 1962 cuando la sonda
americana a Venus, el Mariner II, se acercó a la posición de Venus en el espacio y
escudriñó su superficie buscando fuentes de radioondas. Los resultados de esos
análisis demostraron claramente que la superficie venusiana estaba demasiado
caliente para conservar un océano. Las nubes retenían todas sus reservas de agua.
La temperatura de Venus -que tal vez supere incluso los 500º C a juzgar por las
temperaturas de superficie transmitidas desde una sonda soviética en diciembre de
1970- parece eliminar efectivamente toda posibilidad de vida, según la conocemos
nosotros. También debemos eliminar a Mercurio, más próximo al Sol que Venus,
más pequeño, caliente asimismo y carente de atmósfera.
Sin duda, Marte representa una posibilidad más prometedora. Tiene una atmósfera
tenue de anhídrido carbónico y nitrógeno, y parece poseer suficiente agua para
formar delgadas capas de hielo (su grosor es, probablemente, de unos 2,5 cm a lo
sumo) que se crean y derriten con las estaciones. Las temperaturas marcianas son
bajas pero no demasiado para la vida, y posiblemente no más inclementes que las
de la Antártica. Incluso esa temperatura alcanza ocasionalmente unos 27º C muy
reconfortantes en el ecuador marciano durante las horas más cálidas del día estival.
La posibilidad de vida en Marte ha intrigado al mundo entero durante casi un siglo.
En 1877, el astrónomo italiano Giovanni Virginio Schiaparelli detectó unas líneas
finas y rectas en la superficie del planeta. Él las denominó «canali». Esta palabra
italiana significa «cauces», pero fue traducida erróneamente como canales, lo cual
hizo deducir a la gente que aquellas líneas eran canales artificiales, construidos
quizá para acarrear agua desde los ventisqueros a otros lugares necesitados de
irrigación. El astrónomo norteamericano Percival Lowell abogó enérgicamente por
esa interpretación de las marcas; los suplementos dominicales de los periódicos (así
como las historias de ciencia ficción) armaron gran revuelo sobre la «evidencia» de
vida inteligente en Marte.
estrellas fuera algún día practicable) sin un esfuerzo excesivo. Existen, según los
cálculos de Dole, 17 mil millones de tales estrellas en nuestra galaxia.
Una estrella con estas características podría poseer un planeta habitable o no
poseer ninguno. Dole calcula la probabilidad de que una estrella de tamaño
adecuado pueda tener un planeta de la masa conveniente y a la distancia correcta,
con un apropiado período de rotación y una órbita adecuadamente regular, y,
haciendo lo que le parece una razonable estimación, llega a la conclusión de que
probablemente hay 600.000.000 de planetas habitables solamente en nuestra
galaxia, conteniendo ya cada uno de ellos alguna forma de vida.
Si estos planetas habitables estuvieran más o menos homogéneamente distribuidos
por la galaxia, Dole estima que debería existir un planeta habitable por cada 50.000
años-luz cúbicos. Esto significa que el planeta habitable más próximo a nosotros
puede distar de la Tierra unos 27 años-luz, y que a unos 100 años-luz de distancia,
deben encontrarse también un total de 50 planetas habitables.
Dole cita a continuación 14 estrellas distantes de nosotros a lo sumo 22 años-luz,
que pueden poseer planetas habitables y sopesa las probabilidades de que esto
pueda ser así en cada caso. Llega a la conclusión de que la mayor probabilidad de
planetas habitables se da precisamente en las estrellas más cercanas a nosotros, las
dos estrellas similares al Sol del sistema Alfa Centauro, la Alfa Centauro A y la Alfa
Centauro B. Según estima Dole, estas dos estrellas compañeras tienen,
consideradas en conjunto, una posibilidad entre diez de poseer planetas habitables.
La probabilidad total para el conjunto de las 14 estrellas vecinas es de
aproximadamente 2 entre 5.
Si consideramos la vida como la consecuencia de las reacciones químicas descritas
en el apartado anterior, podemos ver que su desarrollo es inevitable en cualquier
planeta similar a la Tierra. Por supuesto, un planeta puede poseer vida y, no
obstante, no poseer aún vida inteligente. No tenemos forma de hacer siquiera una
conjetura razonable acerca de la probabilidad del desarrollo de la inteligencia sobre
un planeta, y en este sentido, Dole, por ejemplo, tiene el buen acierto de no hacer
ninguna. Después de todo, nuestra propia Tierra, el único planeta habitable que
realmente conocemos y podemos estudiar, existió durante al menos dos mil
millones de años con vida, ciertamente, pero sin vida inteligente.
Es posible que las marsopas y algunas otras especies emparentadas con ellas sean
inteligentes, pero, por su condición de criaturas marinas, carecen de extremidades y
no han podido desarrollar el uso del fuego; en consecuencia, su inteligencia, caso de
que exista, no ha podido dirigirse en el sentido de una tecnología desarrollada. Es
decir, si sólo consideramos la vida terrestre, entonces hace sólo aproximadamente
un millón de años que la Tierra ha sido capaz de albergar una criatura viva con una
inteligencia superior a la de un mono.
Además, esto significa que la Tierra ha poseído vida inteligente durante 1/2.000
(como burda aproximación) del tiempo en que ha tenido vida de algún tipo. Si
podemos afirmar que, de todos los planetas que contienen vida, uno de cada 2.000
posee vida inteligente, esto representaría que, de los 640 millones de planetas
habitables de los que habla Dole, en 320.000 podría darse vida inteligente. Puede
muy bien ocurrir que no estemos en absoluto solos en el Universo.
Hasta muy recientemente, esta clase de posibilidad era considerada con seriedad
únicamente en las novelas de ciencia ficción. Aquellos de mis lectores que saben
que he escrito algunas novelas de este tipo hace algún tiempo, y que pueden tildar
mis afirmaciones aquí como excesivamente entusiastas, les puedo asegurar que hoy
en día muchos astrónomos aceptan como muy probable la existencia de vida
inteligente en otros planetas.
En realidad, los científicos de los Estados Unidos aceptan esta posibilidad con la
suficiente seriedad como para haber iniciado una investigación, bajo la dirección de
Frank D. Drake, el llamado Proyecto Ozma (cuyo nombre deriva de uno de los libros
para niños del Mago de Oz), que se propone registrar posibles señales de radio
procedentes de otros mundos. La idea es intentar distinguir algún tipo de
regularidad en las ondas de radio que proceden del espacio. Si detectan señales que
siguen un cierto orden, distintas a aquellas al azar procedentes de estrellas
emisoras de ondas de radio o de materia excitada en el espacio, podría suponerse
que tales señales representan mensajes a partir de alguna inteligencia
extraterrestre. Por supuesto, aunque tales mensajes fueran recibidos, la
comunicación con dicha inteligencia distante constituiría un problema. Los mensajes
pueden haber estado mucho tiempo en camino, y una respuesta también precisaría
Capítulo 13
LOS MICROORGANISMOS
Bacterias
Antes del siglo XVII, los seres vivientes más pequeños conocidos eran insectos
diminutos. Naturalmente, se daba por sentado que no existía organismo alguno más
pequeño. Poderes sobrenaturales podían hacer invisibles a los seres vivientes (todas
las culturas así lo creían de una u otra forma), pero nadie pensaba, por un instante,
que existieran criaturas de tamaño tan pequeño que no pudieran verse.
Si el hombre hubiera llegado siquiera a sospecharlo, acaso se iniciara mucho antes
en el uso deliberado de instrumentos de aumento. Incluso los griegos y los romanos
sabían ya que objetos de cristal de ciertas formas reflejaban la luz del sol en un
punto dado, aumentando el tamaño de los objetos contemplados a través de ellos.
Por ejemplo, así ocurría con una esfera de cristal hueca llena de agua. Ptolomeo
trató sobre la óptica del espejo ustorio, y escritores árabes, tales como Alhakén,
ampliaron sus observaciones en el año 1.000 de la Era Cristiana.
Robert Grosseteste, obispo inglés, filósofo y sagaz científico aficionado, fue el
primero en sugerir, a principios del siglo XIII, el uso pacífico de dicho instrumento.
Destacó el hecho de que las lentes -así llamadas por tener forma de lentejas-
podían ser útiles para aumentar aquellos objetos demasiado pequeños para ver los
de forma conveniente. Su discípulo, Roger Bacon, actuando de acuerdo con dicha
sugerencia, concibió las gafas para mejorar la visión deficiente.
Al principio tan sólo se hicieron lentes convexos para corregir la vista cansada
(hipermetropía). Hasta 1400 no se concibieron lentes cóncavos para corregir la vista
corta o miopía. La invención de la imprenta trajo consigo una demanda creciente de
gafas, y hacia el siglo XVI la artesanía de las gafas se había convertido en hábil
profesión, llegando a adquirir especial calidad en los Países Bajos.
(Benjamín Franklin inventó, en 1760, los lentes bifocales, utilizables tanto para la
hipermetropía como para la miopía. En 1827, el astrónomo británico, George Biddell
Airy, concibió los primeros lentes para corregir el astigmatismo, que él mismo
padecía. Y alrededor de 1888, un médico francés introdujo la idea de las lentes de
contacto, que algún día convertirían en más o menos anticuadas las gafas
Con tales investigaciones, Pasteur logró algo más que dar nuevo impulso a la
sericultura: generalizó sus conclusiones y enunció la «teoría de los gérmenes
patógenos», que constituyó, sin duda alguna, uno de los descubrimientos más
grandes que jamás se hicieran (y esto, no por un médico, sino por un químico,
como estos últimos se complacen en subrayar).
Tipos de bacterias: coco, A); bacilos, B), y espirilos, C). Cada uno de estos tipos
tiene una serie de variedades.
Antes de Pasteur los médicos poco podían hacer por sus pacientes, a no ser
recomendarles descanso, buena alimentación, aires puros y ambiente sano,
tratando, ocasionalmente, algunos tipos de emergencias. Todo ello fue ya
propugnado por el médico griego Hipócrates («el padre de la Medicina»), 400 años
a. de J.C. Fue él quien introdujo el enfoque racional de la Medicina, rechazando las
flechas de Apolo y la posesión demoníaca para proclamar que, incluso la epilepsia
denominada por entonces la «enfermedad sagrada», no era resultado de sufrir la
influencia de algún dios, sino simplemente un trastorno físico y como tal debía ser
tratado. Las generaciones posteriores jamás llegaron a olvidar totalmente la lección.
No obstante, la Medicina avanzó con sorprendente lentitud durante los dos milenios
siguientes. Los médicos podían incidir forúnculos, soldar huesos rotos y prescribir
algunos remedios específicos que eran simplemente producto de la sabiduría del
pueblo, tales como la quinina, extraída de la corteza del árbol chinchona (que los
goma esterilizados durante las operaciones; para 1900, el médico británico William
Hunter había incorporado la máscara de gasa para proteger al paciente contra los
gérmenes contenidos en el aliento del médico.
Entretanto, el médico alemán Robert Koch había comenzado a identificar las
bacterias específicas responsables de diversas enfermedades. Para lograrlo,
introdujo una mejora vital en la naturaleza del tipo de cultivo (esto es, en la clase
de alimentos en los que crecían las bacterias). Mientras Pasteur utilizaba cultivos
líquidos, Koch introdujo el elemento sólido. Distribuía muestras aisladas de gelatina
(que más adelante fue sustituida por el agar-agar, sustancia gelatinosa extraída de
las algas marinas). Si se depositaba con una aguja fina tan sólo una bacteria en un
punto de esa materia, se desarrollaba una auténtica colonia alrededor del mismo,
ya que sobre la superficie sólida del agar-agar, las bacterias se encontraban
imposibilitadas de moverse o alejarse de su progenitora, como lo hubieran hecho en
el elemento líquido. Un ayudante de Koch, Julius Richard Petri, introdujo el uso de
cápsulas cóncavas con tapa a fin de proteger los cultivos de la contaminación por
gérmenes bacteriológicos flotantes en la atmósfera; desde entonces han seguido
utilizándose a tal fin las «cápsulas de Petri».
De esa forma, las bacterias individuales darían origen a colonias que entonces
podrían ser cultivadas de forma aislada y utilizadas en ensayos para observar las
enfermedades que producirían sobre animales de laboratorio. Esa técnica no sólo
permitió la identificación de una de terminada infección, sino que también posibilitó
la realización de experimentos con los diversos tratamientos posibles para aniquilar
bacterias específicas.
Con sus nuevas técnicas, Koch consiguió aislar un bacilo causante del ántrax y, en
1882, otro que producía la tuberculosis. En 1884, aisló también la bacteria que
causaba el cólera. Otros siguieron el camino de Koch, Por ejemplo, en 1883, el
patólogo alemán Edwin Klebs aisló la bacteria causante de la difteria. En 1905, Koch
recibió el premio Nobel de Medicina y Fisiología.
Una vez identificadas las bacterias, el próximo paso lo constituía el descubrimiento
de las medicinas capaces de aniquilarlas sin matar al propio tiempo al paciente. A
dicha investigación consagró sus esfuerzos el médico y bacteriólogo alemán, Paul
Ehrlich, que trabajara con Koch. Consideró la tarea como la búsqueda de una «bala
mágica», que no dañaría el cuerpo aniquilando tan sólo las bacterias.
Ehrlich mostró su interés por tinturas que colorearan las bacterias. Esto guardaba
estrecha relación con la investigación de las células. La célula, en su estado natural,
es incolora y transparente, de manera que resulta en extremo difícil observar con
detalle su interior. Los primeros microscopistas trataron de utilizar colorantes que
tiñeran las células, pero dicha técnica sólo pudo ponerse en práctica con el
descubrimiento, por parte de Perkin, de los tintes de anilinas (véase capítulo X).
Aunque Ehrlich no fue el primero que utilizara los tintes sintéticos para colorear, en
los últimos años de la década de 1870 desarrolló la técnica con todo detalle,
abriendo así paso al estudio de Flemming sobre mitosis y al de Feulgen del ADN en
los cromosomas (véase capítulo XII).
Pero Ehrlich tenía también otras bazas en reserva. Consideró aquellos tintes como
posibles bactericidas. Era factible que una mancha que reaccionara con las bacterias
más intensamente que con otras células, llegara a matar las bacterias, incluso al ser
inyectada en la sangre en concentración lo suficientemente baja como para no
dañar las células del paciente. Para 1907, Ehrlich había descubierto un colorante
denominado «rojo tripán», que serviría para teñir tos tripanosomas, organismos
responsables de la temida enfermedad africana del sueño, transmitida a través de la
mosca tse-tsé. Al ser inyectado en la sangre a dosis adecuadas, el rojo tripán
aniquilaba los tripanosomas sin matar al paciente.
Pero Ehrlich no estaba satisfecho; quería algo que aniquilara de forma más radical
los microorganismos. Suponiendo que la parte tóxica de la molécula del rojo tripán
estaba constituida por la combinación «azo», o sea, un par de átomos de nitrógeno
(-N = N-), hizo suposiciones sobre lo que podría lograrse con una combinación
similar de átomos de arsénico (-As = As-). El arsénico es químicamente similar al
nitrógeno, pero mucho más tóxico. Ehrlich empezó a ensayar compuestos de
arsénico, uno tras otro, en forma casi indiscriminada, numerándolos metódicamente
a medida que lo hacía. En 1909, un estudiante japonés de Ehrlich, Sahachiro Hata,
ensayó el compuesto 606, que fracasara contra los tripanosomas, en la bacteria
causante de la sífilis. Demostró ser letal para dicho microbio (denominado
«espiroqueta» por su forma en espiral).
Ehrlich se dio cuenta inmediatamente de que había tropezado con algo mucho más
importante que una cura para la tripanosomiasis, ya que, al fin y al cabo, se trataba
de una enfermedad limitada, confinada a los trópicos. Hacía ya más de
cuatrocientos años que la sífilis constituía un azote secreto en Europa, desde
tiempos de Cristóbal Colón. (Se dice que sus hombres la contrajeron en el Caribe;
en compensación, Europa obsequió con la viruela a los indios.) No sólo no existía
curación para la sífilis, sino que una actitud gazmoña había cubierto la enfermedad
con un manto de silencio, permitiendo así que se propagara sin restricciones.
Ehrlich consagró el resto de su vida (murió en 1915) a tratar de combatir la sífilis
con el compuesto 606 o «Salvarsán» como él lo llamara («arsénico inocuo»). La
denominación química es la de arsfenamina. Podía curar la enfermedad, pero su uso
no carecía de riesgos, y Ehrlich hubo de imponerse a los hospitales para que lo
utilizaran en forma adecuada.
Con Ehrlich se inició una nueva fase de la quimioterapia. Finalmente, en el siglo xx,
la Farmacología -el estudio de la acción de productos químicos independientes de
los alimentos, es decir, los «medicamentos»-, adquirió carta de naturaleza como
auxiliar de la medicina. La arsfenamina fue la primera medicina sintética, frente a
los remedios vegetales, como la quinina o los minerales de Paracelso y de quienes
le imitaban.
Como era de esperar, al punto se concibieron esperanzas de que podrían combatirse
todas las enfermedades con algún pequeño antídoto, bien preparado y etiquetado.
Pero durante la cuarta parte de siglo que siguiera al descubrimiento de Ehrlich, la
suerte no acompañó a los creadores de nuevas medicinas. Tan sólo logró éxito la
síntesis, por químicos alemanes, de la «plasmoquina», en 1921, y la «atebrina», en
1930; podían utilizarse como sustitutivos de la quinina contra la malaria (prestaron
enormes servicios a los ejércitos aliados en las zonas selváticas, durante la Segunda
Guerra Mundial, con ocasión de la ocupación de Java por los japoneses, ya que ésta
constituía la fuente del suministro mundial de quinina que, al igual que el caucho, se
había trasladado de Sudamérica al Sudeste asiático).
En 1932, al fin se obtuvo algún éxito. Un químico alemán, llamado Gerhard Domagk
había estado inyectando diversas tinturas en ratones infectados. Ensayó un nuevo
colorante rojo llamado «Prontosil» en ratones infectados con el letal estreptococo
Fue la primera de las «medicinas milagrosas». Ante ella fueron cayendo las
bacterias, una tras otra. Los químicos descubrieron que, mediante la sustitución de
varios grupos por uno de los átomos hidrógeno en el grupo que contenía azufre,
podían obtener una serie de compuestos, cada uno de los cuales presentaba
propiedades antibactericidas ligeramente diferentes. En 1937, se introdujo la
«sulfapiridina»; en 1939, el «sulfatiazol», y en 1941, la «sulfadiacina». Los médicos
tenían ya para elegir toda una serie de sulfamidas para combatir distintas
infecciones. En los países más adelantados en Medicina descendieron de forma
sensacional los índices de mortalidad a causa de enfermedades bacteriológicas, en
especial la neumonía neumocócica.
En 1939, Domagk recibió el premio Nobel de Medicina y fisiología. Al escribir la
carta habitual de aceptación, fue rápidamente detenido por la Gestapo; el gobierno
nazi, por razones propias peculiares, se mostraba opuesto a toda relación con los
premios Nobel. Domagk consideró lo más prudente rechazar el premio. Una vez
terminada la Segunda Guerra Mundial, libre ya de aceptar el premio, Domagk se
trasladó a Estocolmo para recibirlo en forma oficial.
Los medicamentos a base de sulfamidas gozaron tan sólo de un breve período de
gloria, ya que pronto quedaron relegados al olvido por el descubrimiento de un
arma antibacteriológica de mucha mayor potencia, los antibióticos.
Toda materia viva (incluido el hombre), acaba siempre por retornar a la tierra para
convertirse en podredumbre y descomponerse. Con la materia muerta y los
despojos de los seres vivos van los gérmenes de las muchas enfermedades que
infectan a esas criaturas. Entonces, ¿por qué la tierra se encuentra, por lo general,
tan notablemente limpia de todo germen infeccioso? Muy pocos de ellos (el bacilo
del ántrax es uno de esos raros gérmenes) sobreviven en el suelo. Hace unos años,
los bacteriólogos empezaron a sospechar que la tierra contenía microorganismos o
sustancias capaces de destruir las bacterias.
Ya en 1877, por ejemplo, Pasteur había advertido que algunas bacterias morían en
presencia de otras y, si esto es así, el suelo ofrece una gran variedad de organismos
en los que investigar la muerte de otros de su clase. Se estima que cada hectárea
de terreno contiene alrededor de 900 kg de mohos, 450 kg de bacterias, 90 kg de
protozoos, 45 kg de algas y 45 kg de levadura.
René Jules Dubos, del Instituto Rockefeller, fue uno de los que llevó a cabo una
deliberada investigación de tales bactericidas. En 1939, aisló de un microorganismo
del suelo, el Bacillus brevis, una sustancia llamada «tirotricina», de la que a su vez
aisló dos compuestos destructores de bacterias a los que denominó «gramicidina» y
«tirocidina». Resultaron ser péptidos que contenían D-aminoácidos, el auténtico
modelo representativo de los L-aminoácidos ordinarios contenidos en la mayor parte
de las proteínas naturales.
La gramidicina y la tirocidina fueron los primeros antibióticos producidos como tales.
Pero doce años antes se había descubierto un antibiótico que demostraría ser
inconmensurablemente más importante... aún cuando se habían limitado a hacerlo
constar en un documento científico.
El bacteriólogo británico Alexander Fleming se encontró una mañana con que
algunos cultivos de estafilococos (la materia común que forma el pus) que dejara
sobre un banco estaban contaminados por algo que había destruido las bacterias.
En los platillos de cultivos aparecían claramente unos círculos en el punto donde
quedaran destruidos los estafilococos. Fleming, que mostraba interés por la
antisepsia (había descubierto que una enzima de las lágrimas llamada «lisosoma»
poseía propiedades antisépticas), trató al punto de averiguar lo que había matado a
la bacteria, descubriendo que se trataba de un moho común en el pan, Penicillum
notatun. Alguna sustancia producida por dicho moho resultaba letal para los
gérmenes. Como era usual, Fleming publicó sus resultados en 1929, pero en aquella
época nadie le prestó demasiada atención.
Diez años después, el bioquímico británico Howard Walter Florey y su colaborador
de origen alemán, Ernst Boris Chain, se mostraron intrigados ante aquel
descubrimiento ya casi olvidado y se consagraron a aislar la sustancia
antibactericida. Para 1941 habían obtenido un extracto que se demostró
clínicamente efectivo contra cierto número de bacterias «grampositivas» (bacteria
que retiene una tintura, desarrollada en 1884 por el bacteriólogo danés Hans
Christian Joachim Gram).
A causa de la guerra, Gran Bretaña no se encontraba en situación de producir el
medicamento, por lo que Florey se trasladó a los Estados Unidos y colaboró en la
realización de un programa para desarrollar métodos de purificación de la penicilina
y apresurar su producción con tierra vegetal. Al término de la guerra se encontraba
ya en buen camino la producción y uso a gran escala de la penicilina. Ésta no sólo
llegó a suplantar casi totalmente a las sulfamidas, sino que se convirtió -y aún sigue
siéndolo- en uno de los medicamentos más importantes en la práctica de la
Medicina. Es en extremo efectiva contra gran número de infecciones, incluidas la
neumonía, la gonorrea, la sífilis, la fiebre puerperal, la escarlatina y la meningitis.
(A la escala de efectividad se la llama «espectro antibiótico».) Además, está
prácticamente exenta de toxicidad o de efectos secundarios indeseables, excepto en
aquellos individuos alérgicos a la penicilina.
En 1945, Fleming, Florey y Chain recibieron, conjuntamente, el premio Nobel de
Medicina y Fisiología.
Con la penicilina se inició una elaborada búsqueda, casi increíble, de otros
antibióticos. (El vocablo fue ideado por el bacteriólogo Selman A. Waksman, de la
Rutgers University.)
En 1943, Waksman aisló de un moho del suelo, del género Streptomyces, el
antibiótico conocido como «estreptomicina». Ésta atacaba las bacterias
«gramnegativas» (aquellas que perdían con facilidad el colorante de Gram).
Su mayor triunfo lo consiguió contra el bacilo de la tuberculosis. Pero la
estreptomicina, a diferencia de la penicilina, es tóxica y debe usarse con gran
cautela.
Waksman recibió el premio Nobel de Medicina y Fisiología en 1952, por su
descubrimiento de la estreptomicina.
En 1947, se aisló otro antibiótico, el cloranfenicol, del género Streptomyces. Ataca
no sólo a ciertos organismos más pequeños, en especial a los causantes de la fiebre
tifoidea y la psitacosis (fiebre del loro). Pero, a causa de su toxicidad, es necesario
un cuidado extremado en su empleo.
Luego llegaron toda una serie de antibióticos de «amplio espectro», encontrados al
cabo de minuciosos exámenes de muchos millares de muestras de tierra,
aureomicina, terramicina, acromicina, y así sucesivamente. El primero de ellos, la
aureomicina, fue aislado por Benjamin Minge Duggar y sus colaboradores, en 1944,
apareciendo en el mercado en 1948. Estos antibióticos se denominan
«tetraciclinas», porque en todos los casos su molécula está compuesta por cuatro
anillos, uno al lado de otro. Son efectivos contra una amplia gama de
microorganismos y especialmente valiosos porque su toxicidad es relativamente
baja. Uno de sus efectos secundarios más molestos se debe a la circunstancia de
que, al romper el equilibrio de la flora intestinal, entorpecen el curso natural de la
acción intestinal y a veces producen diarrea.
Después de la penicilina (que resulta mucho menos onerosa), las tetraciclinas
constituyen en la actualidad los medicamentos más recetados y comunes en caso de
infección. Gracias a todos los antibióticos en general, los índices de mortalidad en
muchos casos de enfermedades infecciosas han descendido a niveles
satisfactoriamente bajos.
(Desde luego, los seres humanos que se conservan vivos por el incesante dominio
del hombre sobre las enfermedades infecciosas, corren un peligro mucho mayor de
sucumbir a trastornos del metabolismo. Así, durante los últimos ocho años, la
Nuevos aliados contra las bacterias resistentes los constituyen algunos otros nuevos
antibióticos y versiones modificadas de los antiguos. Sólo cabe esperar que el
enorme progreso de la ciencia química logre mantener el control sobre la tenaz
versatilidad de los gérmenes patógenos.
El mismo problema del desarrollo de cadenas resistentes surge en la lucha del
hombre contra otros enemigos más grandes, los insectos, que no sólo le hacen una
peligrosa competencia en lo que se refiere a los alimentos, sino que también
propagan las enfermedades. Las modernas defensas químicas contra los insectos
surgieron en 1939, con el desarrollo por un químico suizo, Paul Müller, del producto
químico «dicloro-difenil-tricloroetano», comúnmente conocido por las iniciales
«DDT». Por su descubrimiento, se le concedió a Müller el premio Nobel de Medicina
y Fisiología, en 1948.
Por entonces, se utilizaba ya el DDT a gran escala, habiéndose desarrollado tipos
resistentes de moscas comunes. Por tanto, es necesario desarrollar continuamente
nuevos «insecticidas», o «pesticidas» para usar un término más general que
abarque los productos químicos utilizados contra las ratas y la cizaña. Han surgido
críticas respecto a la superquímica en la batalla del hombre contra otras formas de
vida. Hay quienes se sienten preocupados ante la posible perspectiva de que una
parte cada vez mayor de la población conserve la vida tan sólo gracias a la química;
temen que si, llegado un momento, fallara la organización tecnológica del hombre,
aún cuando sólo fuera temporalmente, tendría lugar una gran mortandad al caer la
población víctima de las infecciones y enfermedades contra las cuales carecerían de
la adecuada resistencia natural.
En cuanto a los pesticidas, la escritora científica americana, Rachel Louise Carson,
publicó un libro, en 1962, Silent Spring (Primavera silenciosa), en el que
dramáticamente llama la atención sobre la posibilidad de que, por el uso
indiscriminado de los productos químicos, la Humanidad pueda matar especies
indefensas e incluso útiles, al mismo tiempo que aquellas a las que en realidad trata
de aniquilar. Además, Rachel Carson sostenía la teoría de que la destrucción de
seres vivientes, sin la debida consideración, podría conducir a un serio desequilibrio
del intrincado sistema según el cual unas especies dependen de otras y que, en
definitiva, perjudicaría al hombre en lugar de ayudarle. El estudio de ese
Esto resulta más evidente en el caso de las sulfamidas. Son muy semejantes al
«ácido paraminobenzoico» (generalmente escrito ácido p-aminobenzoico), que tiene
la estructura:
contiene ornitina; por ello, quizás inhiba a las enzimas a utilizar arginina, a la que
se asemeja la ornitina. La situación es similar con la estreptomicina; sus moléculas
contienen una extraña variedad de azúcar capaz de interferir con alguna enzima que
actúe sobre uno de los azúcares normales de las células vivas. Asimismo, el
cloranfenicol se asemeja al aminoácido fenilalanina; igualmente, parte de la
molécula penicilina se parece al aminoácido cisteína. En ambos casos existe gran
probabilidad de inhibición competitiva.
La evidencia más clara de acción competitiva por un antibiótico que hasta ahora se
baya presentado, nos la ofrece la «piromicina», sustancia producida por un moho
Streptomyces. Este compuesto presenta una estructura muy semejante a la de los
nucleótidos (unidades constructoras de los ácidos nucleicos); Michael Yarmolinsky y
sus colaboradores de la «Johns Hopkins University» han demostrado que la
puromicina, en competencia con el ARN-transfer, interfiere en la síntesis de
proteínas. Por su parte, la estreptomicina interfiere con el ARN-transfer, forzando la
mala interpretación del código genético y la formación de proteínas inútiles. Por
desgracia, ese tipo de interferencia la hace tóxica para otras células además de la
bacteria, al impedir la producción normal de las proteínas necesarias. De manera
que la piromicina es un medicamento demasiado peligroso para ser utilizado igual
que la estreptomicina.
Virus
Para la mayoría de la gente acaso resulte desconcertante el hecho de que los
«medicamentos milagrosos» sean tan eficaces contra las enfermedades
bacteriológicas y tan poco contra las producidas por virus. Si después de todo, los
virus sólo pueden originar enfermedades si logran reproducirse, ¿por qué no habría
de ser posible entorpecer el metabolismo de los virus, como se hace con las
bacterias? La respuesta es muy sencilla e incluso evidente, con sólo tener en cuenta
el sistema de reproducción de los virus. En su calidad de parásito absoluto, incapaz
de multiplicarse como no sea dentro de una célula viva, el virus posee escaso
metabolismo propio, si es que acaso lo tiene. Para hacer fenocopias depende
totalmente de las materias suministradas por la célula que invade, y, por tanto,
resulta, difícil privarle de tales materias o entorpecer su metabolismo sin destruir la
propia célula, Hasta fecha muy reciente no descubrieron los biólogos los virus, tras
la serie de tropiezos con formas de vida cada vez más simples. Acaso resulte
adecuado iniciar esta historia con el descubrimiento de las causas de la malaria.
Un año tras otro, la malaria probablemente ha matado más gente en el mundo que
cualquier otra dolencia infecciosa, ya que, hasta épocas recientes alrededor del 10
% de la población mundial padecía dicha enfermedad, que causaba tres millones de
muertes al año. Hasta 1880 se creía que tenía su origen en el aire contaminado
(mala aria en italiano) de las regiones pantanosas. Pero entonces, un bacteriólogo
francés, Charles-Louis-Alphonse Laveran, descubrió que los glóbulos rojos de los
individuos atacados de malaria estaban infestados con protozoos parásitos del
género Plasmodium. (Laveran fue galardonado con el premio Nobel de Medicina y
Fisiología en 1907, por este descubrimiento.) En los primeros años de la década de
1890, un médico británico llamado Patrick Manson, que dirigiera el hospital de una
misión en Hong Kong, observó que en las regiones pantanosas pululaban los
mosquitos al igual que en la atmósfera insana y sugirió que acaso los mosquitos
tuvieran algo que ver con la propagación de la malaria. En la India, un médico
británico, Ronald Ross, aceptó la idea y pudo demostrar que el parásito de la
malaria pasaba en realidad parte del ciclo de su vida en mosquitos del género
Anopheles. El mosquito recogía el parásito chupando la sangre de una persona
infectada y luego se lo transmitía a toda persona que picaba.
Por su trabajo al sacar a luz, por vez primera, la transmisión de una enfermedad por
un insecto «vector», Ross recibió el premio Nobel de Medicina y Fisiología, en 1902.
Fue un descubrimiento crucial de la medicina moderna, por demostrar que se puede
combatir una enfermedad matando al insecto que la transmite. Basta con desecar
los pantanos donde se desarrollan los mosquitos, con eliminar las aguas estancadas,
con destruir los mosquitos por medio de insecticidas y se detendrá la enfermedad.
Desde la Segunda Guerra Mundial, de esta forma se han visto libres de malaria
extensas zonas del mundo, y la cifra de muertes por esta enfermedad ha
descendido, por lo menos, en una tercera parte.
La malaria fue la primera enfermedad infecciosa cuya trayectoria se ha seguido
hasta un microorganismo no bacteriológico (en este caso, un protozoo). Casi al
mismo tiempo se siguió la pista a otra enfermedad no bacteriológica con una causa
similar. Se trataba de la mortal fiebre amarilla, que en 1898, durante una epidemia
en Río de Janeiro, mataba nada menos que casi al 95 % de los que la contrajeron.
En 1899, al estallar en Cuba una epidemia de fiebre amarilla, se desplazó a aquel
país, desde los Estados Unidos, una comisión investigadora, encabezada por el
bacteriólogo Walter Reed, para tratar de averiguar las causas de la enfermedad.
Reed sospechaba que, tal como acababa de demostrarse en el caso del transmisor
de la malaria, se trataba de un mosquito vector. En primer lugar, dejó firmemente
establecido que la enfermedad no podía transmitirse por contacto directo entre los
pacientes y los médicos o a través de la ropa de vestir o de cama del enfermo.
Luego, algunos de los médicos se dejaron picar deliberadamente por mosquitos que
con anterioridad habían picado a un hombre enfermo de fiebre amarilla. Contrajeron
la enfermedad, muriendo uno de aquellos valerosos investigadores, Jesse William
Lazear. Pero se identificó al culpable como el mosquito Aedes aegypti. Quedó
controlada la epidemia en Cuba, y la fiebre amarilla ya no es una enfermedad
peligrosa en aquellas partes del mundo en las que la Medicina se encuentra más
adelantada.
Como tercer ejemplo de una enfermedad no bacteriológica tenemos la fiebre
tifoidea. Esta infección es endémica en África del Norte y llegó a Europa vía España
durante la larga lucha de los españoles contra los árabes.
Comúnmente conocida como «plaga», es muy contagiosa y ha devastado naciones.
Durante la Primera Guerra Mundial, los ejércitos austriacos hubieron de retirarse de
Servia a causa del tifus, cuando el propio ejército servio no hubiera logrado
rechazarlos. Los estragos causados por el tifus en Polonia y Rusia durante esa
misma guerra y después de ella (unos tres millones de personas murieron a causa
de dicha enfermedad) contribuyeron tanto a arruinar a esas naciones como la acción
militar.
Al iniciarse el siglo xx, el bacteriólogo francés Charles Nicolle, por entonces al frente
del «Instituto Pasteur» de Túnez, observó que, mientras el tifus imperaba en la
ciudad, en el hospital nadie lo contraía. Los médicos y enfermeras estaban en
contacto diario con los pacientes atacados de tifus y el hospital se encontraba
abarrotado; sin embargo, en él no se produjo contagio alguno de la enfermedad.
Nicolle analizó cuanto ocurría al llegar un paciente al hospital y le llamó la atención
El tifus, al igual que la fiebre amarilla, tiene su origen en un agente más pequeño
que una bacteria; ahora habremos de introducirnos en el extraño y maravilloso
reino poblado de organismos subbacteriológicos.
Para tener una ligera idea de las dimensiones de los objetos en ese mundo,
considerémoslos en orden de tamaño decreciente. El óvulo humano tiene un
diámetro de unas cien micras (cien millonésimas de metro) y apenas resulta visible
a simple vista. El paramecio, un gran protozoo, que a plena luz puede vérsele
mover en una gota de agua,tiene aproximadamente el mismo tamaño. Una célula
humana ordinaria mide solo 1/10 de su tamaño (alrededor de diez micras de
diámetro), y es totalmente invisible sin microscopio. Aún más pequeño es el
hematíe que mide unas siete micras de diámetro máximo. La bacteria, que se inicia
con especies tan grandes como las células ordinarias, decrece a niveles más
diminutos; la bacteria de tipo medio en forma de vástago mide tan sólo dos micras
de longitud y las bacterias más pequeñas son esferas de un diámetro no superior a
4/10 de micra. Apenas pueden distinguirse con un microscopio corriente.
Al parecer, los organismos han alcanzado a tal nivel el volumen más pequeño
posible en que puede desarrollarse toda la maquinaria de metabolismo necesaria
para una vida independiente. Cualquier organismo más pequeño ya no puede
constituir una célula con vida propia y ha de vivir como parásito. Por así decirlo,
tiene que desprenderse de casi todo el metabolismo enzimático. Es incapaz de
crecer o multiplicarse sobre un suministro artificial de alimento, por grande que éste
sea; en consecuencia, no puede cultivarse en un tubo de ensayo como se hace con
las bacterias. El único lugar en que puede crecer es en una célula viva, que le
suministra las enzimas de que carece. Naturalmente, un parásito semejante crece y
se multiplica a expensas de la célula que lo alberga.
Un joven patólogo americano llamado Howard Taylor Ricketts fue el descubridor de
la primera subbacteria. En 1909 se encontraba estudiando una enfermedad llamada
fiebre manchada de las Montañas Rocosas, propagada por garrapatas (artrópodos
chupadores de sangre, del género de las arañas más que de los insectos). Dentro
de las células infectadas encontró «cuerpos de inclusión», que resultaron ser
organismos muy diminutos llamados hoy día «rickettsia» en su honor. Durante el
proceso seguido para establecer pruebas de este hecho, el descubridor contrajo el
tifus y murió en 1910 a los 38 años de edad.
La rickettsia es aún lo bastante grande para poder atacarla con antibióticos tales
como el cloranfenicol y las tetraciclinas. Su diámetro oscila desde cuatro quintos a
un quinto de micra. Al parecer, aún poseen suficiente metabolismo propio para
diferenciarse de las células que los albergan en su reacción a los medicamentos. Por
tanto, la terapéutica antibiótica ha reducido en forma considerable el peligro de las
enfermedades rickettsiósicas.
Por último, al final de la escala se encuentran los virus. Superan a la rickettsia en
tamaño; de hecho, no existe una divisoria entre la rickettsia y los virus. Pero el
virus más pequeño es, desde luego, diminuto. Por ejemplo, el virus de la fiebre
amarilla tiene un diámetro que alcanza tan sólo un 1/50 de micra. Los virus son
demasiado pequeños para poder distinguirlos en una célula y para ser observados
con cualquier clase de microscopio óptico. El tamaño promedio de un virus es tan
sólo un 1/1.000 del de una bacteria promedio.
Un virus está prácticamente desprovisto de toda clase de metabolismo. Depende
casi totalmente del equipo enzimático de la célula que lo alberga. Algunos de los
virus más grandes se ven afectados por determinados antibióticos, pero los
medicamentos carecen de efectividad contra los virus diminutos.
Ya se sospechaba la existencia de virus mucho antes de que finalmente llegaran a
ser vistos. Pasteur, en el curso de sus estudios sobre hidrofobia, no pudo encontrar
organismo alguno del que pudiera sospecharse con base razonable que fuera el
Utilizó membranas finas de colodión, graduadas para conservar partículas cada vez
más pequeñas y así prosiguió hasta llegar a membranas lo suficientemente finas
para separar al agente infeccioso de un líquido. Por la finura de la membrana capaz
de retener al agente de una enfermedad dada, fue capaz de calibrar el tamaño de
dicho virus. Descubrió que Beijerinck se había equivocado; ni siquiera el virus más
pequeño era más grande que la mayor parte de las moléculas. Los virus más
grandes alcanzaban aproximadamente el tamaño de la rickettsia.
Durante algunos de los años siguientes, los biólogos debatieron la posibilidad de que
los virus fueran partículas vivas o muertas. Su habilidad para multiplicarse y
transmitir enfermedades sugería, ciertamente, que estaban vivas. Pero, en 1935, el
bioquímico americano Wendell Meredith Stanley presentó una prueba que parecía
favorecer en alto grado la tesis de que eran partículas «muertas». Machacó hojas de
tabaco sumamente infectadas con el virus del mosaico del tabaco y se dedicó a
aislar el virus en la forma más pura y concentrada que le fue posible, recurriendo, a
tal fin, a las técnicas de separación de proteínas. El éxito logrado por Stanley superó
toda esperanza, ya que logró obtener el virus en forma cristalina. Su preparado
resultó tan cristalino como una molécula cristalizada y, sin embargo, era evidente
que el virus seguía intacto; al ser disuelto de nuevo en el líquido seguía tan
infeccioso como antes. Por su cristalización del virus, Stanley compartió, en 1946, el
premio Nobel de Química con Sumner y Northrop, los cristalizadores de enzimas
(véase el capítulo II).
Aún así, durante los veinte años que siguieron al descubrimiento de Stanley, los
únicos virus que pudieron ser cristalizados fueron los «virus de las plantas», en
extremo elementales (o sea, los que infectan las células de las plantas). Hasta 1955
no apareció cristalizado el primer «virus animal». En ese año, Carlton E. Schwerdt y
Frederick L. Schaffer cristalizaron el virus de la poliomielitis.
El hecho de poder cristalizar los virus pareció convencer a muchos, entre ellos al
propio Stanley, de que se trataba de proteínas muertas. Jamás pudo ser cristalizado
nada en que alentara la vida, pues la cristalización parecía absolutamente
incompatible con la vida. Esta última era flexible, cambiante, dinámica; un cristal
era rígido, fijo, ordenado de forma estricta, y, sin embargo, era inmutable el hecho
de que los virus eran infecciosos, de que podían crecer y multiplicarse, aún después
Resultó ser del grueso de unas 0,25 micras, aproximadamente el tamaño de la más
pequeña de las rickettsias. El virus del mosaico del tabaco era semejante a un
delgado vástago de 0,28 micras de longitud por 0,015 micras de ancho. Los virus
más pequeños, como los de la poliomielitis, la fiebre amarilla y la fiebre aftosa
(glosopeda), eran esferas diminutas, oscilando su diámetro desde 0,025 hasta
0.020 micras. Esto es considerablemente más pequeño que el tamaño calculado de
un solo gen humano. El peso de estos virus es tan sólo alrededor de 100 veces el de
una molécula promedio de proteína. Los virus del mosaico del bromo, los más
pequeños conocidos hasta ahora, tienen un peso molecular de 4,5. Es tan sólo una
décima parte del tamaño del mosaico del tabaco y acaso goce del título de la «cosa
viva más pequeña».
En 1959, el citólogo finlandés Alvar P. Wilska concibió un microscopio electrónico
que utilizaba electrones de «velocidad reducida». Siendo menos penetrantes que los
electrones de «velocidad acelerada», pueden revelar algunos de los detalles
internos de la estructura de los virus. Y en 1961, el citólogo francés Gaston DuPouy
ideó la forma de colocar las bacterias en unas cápsulas, llenas de aire, tomando de
esta forma vistas de las células vivas con el microscopio electrónico. Sin embargo,
en ausencia del metal proyector de sombras se perdía detalle.
Los virólogos han comenzado en la actualidad a separar los virus y a unirlos de
nuevo. Por ejemplo, en la Universidad de California, el bioquímico germano
americano Heinz Fraenkel-Conrat, trabajando con Robley Williams, descubrió que un
delicado tratamiento químico descomponía la proteína del virus del mosaico del
tabaco en unos 2.200 fragmentos consistentes en cadenas peptídicas formadas cada
una por 158 aminoácidos y con pesos moleculares individuales de 18.000. En 1960
se descubrió totalmente la exacta composición aminoácida de estas unidades virus-
proteína. Al disolverse tales unidades, tienden a soldarse para formar otra vez el
vástago largo y cóncavo (en cuya forma existen en el virus original). Se mantienen
juntas las unidades con átomos de calcio y magnesio.
En general, las unidades virus-proteína, al combinarse, forman dibujos geométricos.
Las del virus del mosaico del tabaco que acabamos de exponer forman segmentos
de una hélice. Las sesenta subunidades de la proteína del virus de la poliomielitis
Es evidente que tan sólo el caparazón de la proteína del virus atacante permanece
fuera de la célula. El ácido nucleico contenido dentro del caparazón del virus se
derrama dentro de la bacteria a través del orificio practicado en su pared por la
proteína. El bacteriólogo americano Alfred Day Hershey demostró por medio de
rastreadores radiactivos que la materia invasora es tan sólo ácido nucleico sin
mezcla alguna visible de proteína. Marcó los fagos con átomos de fósforo y azufre
radiactivos (cultivándolos en bacterias a la que se incorporaron esos radioisótopos
por medio de su alimentación). Ahora bien, tanto las proteínas como los ácidos
nucleicos tienen fósforo, pero el azufre sólo aparecerá en las proteínas, ya que el
ácido nucleico no lo contiene.
Por tanto, si un fago marcado con ambos rastreadores invadiera una bacteria y su
progenie resultara con fósforo radiactivo, pero no con radioazufre, el experimento
indicaría que el virus paterno del ácido nucleico había entrado en la célula, pero no
así la proteína. La ausencia de azufre radiactivo indicaría que todas las proteínas de
la progenie del virus fueron suministradas por la bacteria que lo albergaba. De
hecho, el experimento dio este último resultado; los nuevos virus contenían fósforo
radiactivo (aportado por el progenitor), pero no azufre radiactivo.
Una vez más quedó demostrado el papel predominante del ácido nucleico en el
proceso de la vida. Aparentemente, tan sólo el ácido nucleico del fago se había
introducido en la bacteria y una vez allí dirigió la formación de nuevos virus -con
proteína y todo- con las materias contenidas en la célula. Ciertamente, el virus de la
patata, huso tubercular, cuya pequeñez es insólita, parece ser ácido nucleico sin
envoltura proteínica.
Por otra parte, es posible que el ácido nucleico no fuera absolutamente vital para
producir los efectos de un virus. En 1967 se descubrió que una enfermedad de la
oveja, denominada «scrapie», tenía por origen unas partículas con un peso
molecular de 700.000, es decir, considerablemente inferiores a cualquier otro virus
conocido, y, lo que es más importante, carentes de ácido nucleico. La partícula
puede ser un «represor», que altera la acción del gen en la célula hasta el punto de
promover su propia formación. Así, el invasor no sólo utiliza para sus propios
designios las enzimas de la célula, sino incluso los genes. Esto tiene fundamental
Inmunidad
Los virus constituyen los enemigos más formidables del hombre, sin contar el propio
hombre. En virtud de su íntima asociación con las propias células del cuerpo, los
virus se han mostrado absolutamente invulnerables al ataque de los medicamentos
o a cualquier otra arma artificial, y aún así, el hombre ha sido capaz de resistir
contra ellos, incluso en las condiciones más desfavorables. El organismo humano
está dotado de impresionantes defensas contra la enfermedad.
Analicemos la peste negra, la gran plaga del siglo XIV. Atacó a una Europa que vivía
en una aterradora suciedad, carente de cualquier concepto moderno de limpieza e
higiene, sin instalación de cañerías de desagüe, sin forma alguna de tratamiento
médico razonable, una población aglutinada e indefensa. Claro que la gente podía
huir de las aldeas infestadas, pero el enfermo fugitivo tan sólo servía para propagar
las epidemias más lejos y con mayor rapidez. Pese a todo ello, tres cuartas partes
de la población resistieron con éxito los ataques de la infección. En tales
circunstancias, lo realmente asombroso no fue que muriera uno de cada cuatro, sino
que sobrevivieran tres de cada cuatro.
Es evidente que existe eso que se llama la resistencia natural frente a cualquier
enfermedad. De un número de personas expuestas gravemente a una enfermedad
contagiosa, algunos la sufren con carácter relativamente débil, otros enferman de
gravedad y un cierto número muere. Existe también lo que se denomina inmunidad
total, a veces congénita y otras adquirida. Por ejemplo, un solo ataque de
sarampión, paperas o varicela, deja por lo general inmune a una persona para el
resto de su vida frente a aquella determinada enfermedad.
Y resulta que esas tres enfermedades tienen su origen en un virus. Y, sin embargo,
se trata de infecciones relativamente de poca importancia, rara vez fatales.
Corrientemente, el sarampión produce tan sólo síntomas ligeros, al menos en los
niños. ¿Cómo lucha el organismo contra esos virus, fortificándose luego de forma
que, si el virus queda derrotado, jamás vuelve a atacar? La respuesta a esa
Nobel de Medicina y Fisiología en 1901, el primer año que fue concedido. Ehrlich
también fue galardonado con el Premio Nobel en 1908, juntamente con el biólogo
ruso Meshnikov.
La inmunidad que confiere una antitoxina dura tan sólo mientras ésta permanece en
la sangre. Pero el bacteriólogo francés Gaston Ramón descubrió que, tratando la
toxina de la difteria o del tétanos con formaldehído o calor, podía cambiar su
estructura de tal forma que la nueva sustancia (denominada «toxoide») podía
inyectarse sin peligro alguno al paciente humano, en cuyo caso la antitoxina
producida por el propio paciente dura más que la procedente de un animal; además,
pueden inyectarse nuevas dosis del toxoide siempre que sea necesario para renovar
la inmunidad. Una vez introducido el toxoide en 1925, la difteria dejó de ser una
aterradora amenaza.
También se utilizaron las reacciones séricas para descubrir la presencia de la
enfermedad. El ejemplo más conocido es el de la «prueba de Wasserman»,
introducida por el bacteriólogo alemán August von Wasserman en 1906, para
descubrir la sífilis. Estaba basada en técnicas desarrolladas primeramente por un
bacteriólogo belga, Jules Bordet, quien trabajaba con fracciones de suero que
llegaron a ser denominadas «complemento». En 1919, Bordet recibió por su trabajo
el premio Nobel de Medicina y Fisiología.
La lucha laboriosa de Pasteur con el virus de la rabia demostró la dificultad de tratar
con los virus. Las bacterias pueden cultivarse, manipularse y atenuarse por medios
artificiales en el tubo de ensayos. Esto no es posible con el virus; sólo pueden
cultivarse sobre tejido vivo. En el caso de la viruela, los anfitriones vivos para la
materia experimental (el virus de la vacuna) fueron las vacas y las lecheras. En el
caso de la rabia, Pasteur recurrió a conejos. Pero, en el mejor de los casos, los
animales vivos constituyen un medio difícil, caro y exigen gran pérdida de tiempo
como medio para cultivar microorganismos.
En el primer cuarto de este siglo, el biólogo francés, Alexis Carrel, obtuvo
considerable fama con un hecho que demostró poseer inmenso valor para la
investigación médica... la conservación en tubos de ensayo de trocitos de tejidos
vivos. Carrel llegó a interesarse por este tipo de investigación a través de su trabajo
como cirujano. Desarrolló nuevos métodos de trasplante de vasos sanguíneos y
contra la fiebre amarilla. Por este logro, Theiler recibió, en 1951, el premio Nobel de
Medicina y Fisiología.
Una vez en marcha, nada es superior al cultivo sobre placas de cristal, en rapidez,
control de las condiciones y eficiencia. En los últimos años cuarenta, John Franklin
Enders, Thomas Huckle Weller y Frederick Chapman Robbins, de la Facultad de
Medicina de Harvard, volvieron al enfoque de Carrel. (Éste había muerto en 1944 y
no sería testigo de su triunfo.) En esta ocasión disponían de un arma nueva y
poderosa contra la bacteria contaminadora del tejido cultivado... los antibióticos.
Incorporaron penicilina y estreptomicina al suministro de sangre que mantenía vivo
el tejido y descubrieron que podían cultivar virus sin dificultad. Siguiendo un
impulso, ensayaron con el virus de la poliomielitis. Asombrados, lo vieron florecer
en aquel medio. Constituía la brecha por la que lograrían vencer a la polio, y los tres
hombres recibieron, en 1954, el premio Nobel de Medicina y Fisiología.
En la actualidad puede cultivarse el virus de la poliomielitis en un tubo de ensayo en
lugar de hacerla sólo en monos (que son sujetos de laboratorios caros y
temperamentales). Así fue posible la experimentación a gran escala con el virus.
Gracias a la técnica del cultivo de tejidos, Jonas E. Salk, de la Universidad de
Pittsburgh, pudo experimentar un tratamiento químico del virus para averiguar que
los virus de la polio, matados con formaldehído, pueden seguir produciendo
reacciones inmunológicas en el organismo, permitiéndole desarrollar la hoy famosa
vacuna Salk.
El importante índice de mortalidad alcanzado por la polio, su preferencia por los
niños (hasta el punto de que ha llegado a denominársela «parálisis infantil»), el
hecho de que parece tratarse de un azote moderno, sin (epidemias registradas con
anterioridad a 1840 y, en particular, el interés mostrado en dicha enfermedad por
su eminente víctima, Franklin D. Roosevelt, convirtió su conquista en una de las
victorias más celebradas sobre una enfermedad en la historia de la Humanidad.
Probablemente, ninguna comunicación médica fue acogida jamás con tanto
entusiasmo como el informe, emitido en 1955 por la comisión evaluadora
declarando efectiva la vacuna Salk. Desde luego, el acontecimiento merecía tal
celebración, mucho más de lo que lo merecen la mayor parte de las
representaciones que incitan a la gente a agolparse y tratar de llegar los primeros.
dar alcance a otra. Tan sólo una proteína podía tener la necesaria estructura sutil
para aislarse y combinar con un antígeno determinado.
En los primeros años de la década de 1920, Landsteiner (el descubridor de los
grupos sanguíneos) realizó una serie de experimentos que demostraron claramente
que los anticuerpos eran, en realidad, en extremo específicos. Las sustancias que
utilizara para generar anticuerpos no eran antígenos, sino compuestos mucho más
simples, de estructura bien conocida. Eran los llamados «ácidos arsanílicos»,
compuestos que contenían arsénico. En combinación con una proteína simple,
como, por ejemplo, la albúmina de la clara de huevo, un ácido arsanílico actuaba
como antígeno; al ser inyectado en un animal, originaba un anticuerpo en el suero
sanguíneo. Además, dicho anticuerpo era especifico para el ácido arsanílico; el
suero sanguíneo del animal aglutinaría tan sólo la combinación arsanílico-albúmina
y no únicamente la albúmina. Desde luego, en ocasiones puede hacerse reaccionar
el anticuerpo nada más que con el ácido arsanílico, sin combinarlo con albúmina.
Landsteiner demostró también que cambios muy pequeños en la estructura del
ácido arsanílico se reflejarían en el anticuerpo. Un anticuerpo desarrollado por cierta
variedad de ácido arsanílico no reaccionaría con una variedad ligeramente alterada.
Landsteiner designó con el nombre de «haptenos» (del griego «hapto», que significa
enlazar, anudar) aquellos compuestos tales como los ácidos arsanílicos que, al
combinarse con proteínas, pueden dar origen a los anticuerpos. Es de presumir que
cada antígeno natural tenga en su molécula una región específica que actúe como
un hapteno. Según esta teoría, un germen o virus capaz de servir de vacuna es
aquel cuya estructura se ha modificado suficientemente para reducir su capacidad
de dañar las células, pero que aún continúa teniendo intacto su grupo de haptenos,
de tal forma que puede originar la formación de un anticuerpo específico.
Sería interesante conocer la naturaleza química de los haptenos naturales. Si llegara
a determinarse, quizá fuera posible utilizar un hapteno, tal vez en combinación con
algunas proteínas inofensivas, en calidad de vacuna que originara anticuerpos para
un antígeno específico. Con ello se evitaría la necesidad de recurrir a toxinas o virus
atenuados, que siempre acarrean un cierto pequeño riesgo.
Aún no se ha determinado la forma en que un antígeno hace surgir un anticuerpo.
Ehrlich creía que el organismo contiene normalmente una pequeña reserva de todos
los anticuerpos que pueda necesitar y que cuando un antígeno invasor reacciona
con el anticuerpo apropiado, estimula al organismo a producir una reserva extra de
ese anticuerpo determinado. Algunos inmunólogos aún siguen adhiriéndose a esta
teoría o a su modificación, y, sin embargo, es altamente improbable que el cuerpo
esté preparado con anticuerpos específicos para todos los antígenos posibles,
incluyendo aquellas sustancias no naturales, como los ácidos arsanílicos.
La otra alternativa sugerida es la de que el organismo posee alguna molécula
proteínica generalizada, capaz de amoldarse a cualquier antígeno. Entonces el
antígeno actúa como patrón para modelar el anticuerpo específico formado por
reacción a él. Pauling expuso dicha teoría en 1940. Sugirió que los anticuerpos
específicos son variantes de la misma molécula básica, plegada simplemente de
distintas formas. En otras palabras, se moldea el anticuerpo para que se adapte a
su antígeno como un guante se adapta a la mano.
Sin embargo, en 1969, los progresos en el análisis de las proteínas permitieron que
un equipo dirigido por Gerald M. Edelman determinara la estructura aminoácida de
un anticuerpo típico compuesto por más de mil aminoácidos. Sin duda, esto allanará
el camino para descubrir de qué modo trabajan esas moléculas, algo que aún no
conocemos bien.
En cierta forma, la propia especificidad de los anticuerpos constituye una
desventaja. Supongamos que un virus se transforma de tal modo que su proteína
adquiere una estructura ligeramente diferente. A menudo, el antiguo anticuerpo del
virus no se adaptará a la nueva estructura. Y resulta que la inmunidad contra una
cepa de virus no constituye una salvaguardia contra otra cepa. El virus de la gripe y
del catarro común muestran particular propensión a pequeñas transformaciones, y
ésta es una de las razones de que nos veamos atormentados por frecuentes
recaídas de dichas enfermedades. En particular, la gripe desarrolla ocasionalmente
una variación de extraordinaria virulencia, capaz de barrer a un mundo sorprendido
y no inmunizado. Esto fue lo que ocurrió en 1918 y con resultados mucho menos
fatales con la «gripe asiática» pandémica de 1957.
Un ejemplo aún más fastidioso de la extraordinaria eficiencia del organismo para
formar anticuerpos es su tendencia a producirlos incluso contra proteínas indefensas
que suelen introducirse en el cuerpo. Entonces, el organismo se vuelve «sensitivo»
Cáncer
A medida que disminuye el peligro de las enfermedades infecciosas, aumenta la
incidencia de otros tipos de enfermedades. Mucha gente, que hace un siglo hubiera
muerto joven de tuberculosis o difteria, de pulmonía o tifus, hoy día viven el tiempo
suficiente para morir de dolencias cardíacas o de cáncer. Ésa es la razón de que las
enfermedades cardíacas y el cáncer se hayan convertido en el asesino número uno
y dos, respectivamente, del mundo occidental. De hecho, el cáncer ha sucedido a la
peste y a la viruela como plaga que azota al hombre. Es una espada que pende
sobre todos nosotros, dispuesta a caer sobre cualquiera sin previo aviso ni
misericordia. Todos los años mueren de cáncer trescientos mil americanos, mientras
cada semana se registran diez mil nuevos casos. El riesgo de incidencia era del 50
% en 1900.
En realidad, el cáncer constituye un grupo de muchas enfermedades (se conocen
alrededor de trescientos tipos), que afectan de distintas formas a diversas partes
del organismo. Pero la perturbación primaria consiste siempre en lo mismo:
desorganización y crecimiento incontrolado de los tejidos afectados. El nombre
cáncer (palabra latina que significa «cangrejo») procede del hecho de que
brillando. Era evidente que el tubo de rayos catódicos producía cierta forma de
radiación capaz de atravesar el cartón y las paredes.
Roentgen, que no tenía idea del tipo de radiación de que podía tratarse, lo
denominó sencillamente «rayos X» Otros científicos trataron de cambiar la
denominación por la de «rayos roentgen», pero su pronunciación resultaba tan
difícil para quien no fuera alemán, que se mantuvo la de «rayos X». (Hoy día
sabemos que los electrones acelerados que forman los rayos catódicos pierden gran
parte de su celeridad al tropezar con una barrera metálica. La energía cinética
perdida se convierte en radiación a la que se denomina Bremsstrahlung, voz
alemana que significa «radiación frenada». Los rayos X son un ejemplo de dicha
radiación.) Los rayos X revolucionaron la Física. Captaron la imaginación de los
físicos, iniciaron un alud de experimentos, desarrollados en el curso de los primeros
meses que siguieran al descubrimiento de la radiactividad y abrieron el mundo
interior del átomo. Al iniciarse en 1901 el galardón de los premios Nobel, Roentgen
fue el primero en recibir el premio de Física.
La fuerte radiación X inició también algo más: la exposición de los seres humanos a
intensidades de radiaciones energéticas tales como el hombre jamás experimentara
antes. A los cuatro días de haber llegado a Estados Unidos la noticia del
descubrimiento de Roentgen, se recurría a los rayos X para localizar una bala en la
pierna de un paciente. Constituían un medio maravilloso para la exploración del
interior del cuerpo humano. Los rayos X atraviesan fácilmente los tejidos blandos
(constituidos principalmente por elementos de peso atómico bajo) y tienden a
detenerse ante elementos de un peso atómico más elevado, como son los que
constituyen los huesos (compuestos en su mayor parte por fósforo y calcio). Sobre
una placa fotográfica colocada detrás del cuerpo, los huesos aparecen de un blanco
nebuloso en contraste con las zonas negras donde los rayos X atraviesan con mayor
intensidad, por ser mucho menor su absorción por los tejidos blandos. Una bala de
plomo aparece de un blanco puro; detiene los rayos X en forma tajante.
Es evidente la utilidad de los rayos X para descubrir fracturas de huesos,
articulaciones calcificadas, caries dentarias, objetos extraños en el cuerpo y otros
muchos usos. Pero también resulta fácil hacer destacar los tejidos blandos mediante
la introducción de la sal insoluble de un elemento pesado. Al tragar sulfato de bario
las células. Al dividirse una célula con ese gen defectuoso, transmitirá el defecto. Al
no funcionar el mecanismo de control, puede continuar en forma indefinida la
ulterior división de esas células, sin considerar las necesidades del organismo en su
conjunto o ni siquiera las necesidades de los tejidos a los que afecta (por ejemplo,
la especialización de células en un órgano). El tejido queda desorganizado. Se
produce, por así decirlo, un caso de anarquía en el organismo.
Ha quedado bien establecido que la radiación energética puede producir
mutaciones. ¿Y qué decir de los carcinógenos químicos? También ha quedado
demostrado que los productos químicos producen mutaciones. Buen ejemplo de ello
lo constituyen las «mostazas nitrogenadas ».
Esos compuestos, como el «gas mostaza» de la Primera Guerra Mundial, producen
quemaduras y ampollas en la piel semejantes a las causadas por los rayos X.
También pueden dañar los cromosomas y aumentar el índice de mutaciones.
Además se ha descubierto que cierto número de otros productos químicos imitan,
de la misma forma, las radiaciones energéticas.
A los productos químicos capaces de inducir mutaciones se les denomina
«mutágenos». No todos los mutágenos han demostrado ser carcinógenos, ni todos
los carcinógenos han resultado ser mutágenos. Pero existen suficientes casos de
compuestos, tanto carcinogénicos como mutagénicos, capaces de hacer sospechar
que la coincidencia no es accidental.
Entretanto no se ha desvanecido, ni mucho menos, la idea de que los
microorganismos pueden tener algo que ver con el cáncer. Con el descubrimiento de
los virus ha cobrado nueva vida esta sugerencia de la era de Pasteur. En 1903, el
bacteriólogo francés Amédée Borrel sugirió que el cáncer quizá fuera una
enfermedad por virus, y en 1908, dos daneses, Wilhelm Ellerman y Olaf Bang,
demostraron que la leucemia de las aves era causada en realidad por un virus. No
obstante, por entonces aún no se reconocía la leucemia como una forma de cáncer,
y el problema quedó en suspenso. Sin embargo, en 1909, el médico americano
Francis Peyton Rous cultivó un tumor de pollo y, después de filtrarlo, inyectó el
filtrado claro en otros pollos. Algunos de ellos desarrollaron tumores. Cuanto más
fino era el filtrado, menos tumores se producían. Ciertamente parecía demostrar
que partículas de cierto tipo eran las responsables de la iniciación de tumores, así
como que dichas partículas eran del tamaño de los virus.
Los «virus tumorales» han tenido un historial accidentado. En un principio, los
tumores que se achacaban a virus resultaron ser uniformemente benignos; por
ejemplo, los virus demostraron ser la causa de cosas tales como los papilomas de
los conejos (similares a las verrugas). En 1936, John Joseph Bittner, mientras
trabajaba en el famoso laboratorio reproductor de ratones, de Bar Harbor, Miane,
tropezó con algo más interesante. Maude Slye, del mismo laboratorio, había criado
razas de ratones que parecían presentar una resistencia congénita al cáncer y otras,
al parecer, propensas a él. Los ratones de ciertas razas muy rara vez desarrollan
cáncer; en cambio, los de otras lo contraen casi invariablemente al alcanzar la
madurez. Bittner ensayó el experimento de cambiar a las madres de los recién
nacidos de forma que éstos se amamantaran de las razas opuestas. Descubrió que
cuando los ratoncillos de la raza «resistente al cáncer» mamaban de madres
pertenecientes a la raza «propensa al cáncer», por lo general, contraían el cáncer.
Por el contrario, aquellos ratoncillos que se suponía propensos al cáncer
amamantados por madres resistentes al cáncer no lo desarrollaban. Bittner llegó a
la conclusión de que la causa del cáncer, cualquiera que fuese, no era congénita,
sino transmitida por la leche de la madre. Lo denominó «factor lácteo».
Naturalmente, se sospechó que el factor lácteo de Bittner era un virus. Por último,
el bioquímico Samuel Graff, de la Universidad de Columbia, identificó a dicho factor
como una partícula que contenía ácidos nucleicos. Se han descubierto otros virus de
tumor causantes de ciertos tipos de tumores en los ratones y de leucemias en
animales, todos ellos conteniendo ácidos nucleicos. No se han localizado virus en
conexión con cánceres humanos, pero evidentemente la investigación sobre el
cáncer humano es limitada.
Ahora empiezan a converger las teorías sobre la mutación y los virus. Acaso lo que
puede parecer contradicción entre ambas teorías después de todo no lo sea. Los
virus y los genes tienen algo muy importante en común: la clave del
comportamiento de ambos reside en sus ácidos nucleicos. En realidad, G. A, di
Mayorca y sus colaboradores del Instituto Sloan-Kettering y los Institutos
Nacionales de Sanidad, en 1959 aislaron ADN de un virus de tumor de ratón,
descubriendo que el ADN podía inducir por sí solo cánceres en los ratones con la
misma efectividad con que lo hacía el virus.
De tal forma que la diferencia entre la teoría de la mutación y la del virus reside en
si el ácido nucleico causante del cáncer se produce mediante una mutación en un
gen dentro de la célula o es introducido por una invasión de virus desde el exterior
de la célula. Ambas teorías no son antagónicas; el cáncer puede llegar por los dos
caminos.
De todos modos, hasta 1966 la hipótesis vírica no se consideró merecedora del
premio Nobel. Por fortuna, Peyton Rous, que había hecho el descubrimiento
cincuenta y cinco años antes, aún estaba vivo y pudo compartir en 1966 el Nobel de
Medicina y Fisiología. (Vivió hasta 1970, en cuya fecha murió, a los noventa años,
mientras se dedicaba aún a efectuar investigaciones.) ¿Qué es lo que se estropea en
el mecanismo del metabolismo cuando las células crecen sin limitaciones? Esta
pregunta aún no ha sido contestada. Pero existen profundas sospechas respecto a
algunas de las hormonas sexuales.
Por una parte, se sabe que las hormonas sexuales estimulan en el organismo un
crecimiento rápido y localizado (como, por ejemplo, los senos de una adolescente).
Por otra, los tejidos de los órganos sexuales -los senos, el cuello uterino y los
ovarios, en la mujer; los testículos y la próstata, en el hombre- muestran una
predisposición particular al cáncer. Y la más importante de todas la constituye la
prueba química. En 1933, el bioquímico alemán Heinrich Wieland (que obtuviera el
premio Nobel de Química, en 1927, por su trabajo sobre los ácidos biliares), logró
convertir un ácido biliar en un hidrocarburo complejo llamado «metilcolantreno»,
poderoso carcinógeno. Ahora bien, el metilcolantreno, al igual que los ácidos
biliares, tiene la estructura de cuatro cadenas de un esteroide y resulta que todas
las hormonas sexuales son esteroides. ¿Puede una molécula deformada de hormona
sexual actuar como carcinógeno? O incluso una hormona perfectamente formada,
¿puede llevar a ser confundida con un carcinógeno, por así decirlo, por una forma
distorsionada de gen en una célula, estimulando así el crecimiento incontrolado?
Claro está que tan sólo se trata de especulaciones interesantes.
Y lo que resulta bastante curioso es que un cambio en el suministro de hormonas
sexuales contiene a veces el desarrollo canceroso. Por ejemplo, la castración para
requieren una fuente externa de la sustancia aspargina que algunas células sanas
pueden fabricar por sí solas. El tratamiento con la enzima aspargina, que cataliza la
desintegración de la aspargina, reduce sus reservas en el organismo y da muerte a
las células malignas, mientras que las normales logran sobrevivir.
La investigación decidida y universalizada acerca del cáncer es incisiva y estimable
en comparación con otras investigaciones biológicas, y su financiación merece el
calificativo de espléndida. El tratamiento ha alcanzado un punto en que una de cada
tres víctimas sobreviven y hacen una vida normal durante largo tiempo. Pero la
curación total no se descubrirá fácilmente, pues el secreto del cáncer es tan sutil
como el secreto de la vida misma.
Capítulo 14
EL CUERPO
Alimentos
El primer adelanto importante en la ciencia médica fue, quizás, el descubrimiento de
que una buena salud exigía una dieta sencilla y equilibrada. Los filósofos griegos
recomendaban moderación en la comida y en la bebida, no sólo por razones
filosóficas, también porque los que seguían esta regla se sentían mejor y vivían más
años. Esto era un buen comienzo, pero con el tiempo los biólogos comprendieron
que la simple moderación no era suficiente. Aunque se tenga la suerte de poder
evitar comer demasiado poco y el sentido común suficiente para no comer
demasiado, no se conseguirá gran cosa si la dieta es pobre en determinados
elementos esenciales, como ocurre realmente en gran número de personas en
algunos lugares del planeta.
En cuanto a sus necesidades dietéticas, el cuerpo humano está más bien
especializado. Una planta puede vivir sólo a base de anhídrido carbónico, agua y
ciertos iones orgánicos. Algunos microorganismos pueden, igualmente, arreglárselas
sin alimento orgánico alguno; por ello, se les denomina «autotróficos»
(«autoalimentados»), lo cual significa que pueden crecer en ambientes en los que
no existe otro ser viviente. La Neurospora del pan molturado es ya un poco más
complicada: además de las sustancias inorgánicas, necesita azúcar y la vitamina
biotina, y, a medida que las formas de vida se van haciendo más y más complejas,
parecen depender cada vez en mayor grado de su dieta para el suministro del
material orgánico necesario en la formación del tejido vivo. El motivo de ello es,
simplemente, que han perdido algunas de las enzimas que poseen los organismos
más primitivos. Una planta verde dispone de un suministro completo de enzimas
para formar, a partir de materias inorgánicas, todos los aminoácidos, proteínas,
grasas e hidratos de carbono que necesita. La Neurospora posee todas las enzimas,
excepto las necesarias para formar azúcar y biotina. Cuando llegamos al hombre,
encontramos que carece de las enzimas necesarias para producir muchos de los
aminoácidos, vitaminas y otros productos necesarios, y que debe obtenerlos ya
elaborados, a través de los alimentos.
Esto puede parecer una especie de degeneración, una creciente dependencia del
medio ambiente, que coloca al organismo humano en una situación desventajosa.
Pero no es así. Si el medio ambiente proporciona los materiales de construcción,
¿para qué cargar con la complicada maquinaria enzimática que se necesita para
fabricarlos? Ahorrándose esta maquinaria, la célula puede emplear su energía y
espacio para fines más delicados y especializados.
Fue el médico inglés William Prout (el mismo Prout que se adelantó un siglo a su
época, al afirmar que todos los elementos estaban formados a partir del hidrógeno)
quien primeramente sugirió que los alimentos orgánicos podían ser divididos en tres
tipos de sustancias, más tarde denominados hidratos de carbono, grasas y
proteínas.
Los químicos y biólogos del siglo XIX, sobre todo el alemán Justus von Liebig,
descubrieron gradualmente las propiedades nutritivas de estos alimentos.
Averiguaron que las proteínas son las más esenciales y que el organismo puede
sobrevivir solo con éstas. El cuerpo no puede producir proteínas a partir de los
hidratos de carbono y las grasas, porque estas sustancias no tienen nitrógeno, pero
puede formar los hidratos de carbono y las grasas necesarias partiendo de materias
suministradas por las proteínas. No obstante, puesto que la proteína es
relativamente escasa en el medio ambiente, sería un despilfarro vivir a base de una
dieta formada únicamente por proteínas -algo así como alimentar el fuego con los
muebles de la casa, cuando no se dispone de troncos para ello-.
En circunstancias favorables, las necesidades diarias de proteínas del cuerpo
humano, dicho sea de paso, son sorprendentemente bajas. El Departamento de
Alimentos y Nutrición de la Junta Nacional de Investigación, en su cuadro de
recomendaciones de 1958, sugería que la cantidad mínima para un adulto era la de
un gramo de proteínas por kilogramo de peso corporal al día, lo que supone un poco
más de 56,5 g para el adulto medio. Aproximadamente dos litros de leche pueden
aportar esta cantidad. Los niños y las mujeres embarazadas, o en período de
lactación, necesitan una mayor cantidad de proteínas.
Desde luego, gran parte depende de las proteínas que se elijan. Los científicos del
siglo XIX trataron de averiguar si, en épocas de hambre, la población podría vivir
alimentándose únicamente de gelatina -un material proteínico que se obtiene
En la década de 1940, Rose dirigió su atención hacia las necesidades del hombre en
cuanto a aminoácidos. Logró persuadir a algunos estudiantes graduados para que se
sometiesen a dietas controladas, en las que la única fuente de nitrógeno era una
mezcla de aminoácidos. En 1949, pudo ya anunciar que el hombre adulto sólo
necesitaba ocho aminoácidos en su dieta: fenilalanina, leucina, isoleucina,
metionina, valina, lisina, triptófano y treonina. Puesto que la arginina y la histidina,
indispensables en la rata, no lo son en el hombre, podría llegarse a la conclusión de
que el hombre era menos especializado que la rata, o, realmente, que cualquiera de
los animales con los que se ha experimentado en detalle.
Potencialmente, una persona podría vivir con solo los ocho aminoácidos dietéticos
esenciales; suministrándole la cantidad necesaria de éstos, no sólo podría producir
los restantes aminoácidos que necesita, sino también los hidratos de carbono y las
grasas. De todos modos, una dieta constituida exclusivamente por aminoácidos
sería demasiado cara, sin contar con su insipidez y monotonía. Pero resulta
considerablemente útil saber cuáles son nuestras necesidades en aminoácidos, de
modo que podamos reforzar las proteínas naturales cuando es necesario para
conseguir una máxima eficacia en la absorción y utilización del nitrógeno.
Vitaminas
Los caprichos alimenticios y las supersticiones, desgraciadamente, siguen
engañando a demasiada gente -y enriqueciendo a demasiados vendedores de
«curalotodo», incluso en estos tiempos ilustrados. En realidad, el que nuestros
tiempos sean más ilustrados quizá sea la causa de que puedan permitirse tales
caprichos alimentarios. A través de la mayor parte de la historia del hombre, la
comida de éste ha consistido en cualquier cosa que se produjese a su alrededor,
casi siempre en escasa cantidad. Se trataba de comer lo que había, o perecer de
hambre; nadie podía mostrar remilgos, y, sin una actitud remilgada, no pueden
existir caprichos alimentarios.
El transporte moderno ha permitido enviar los alimentos de una parte a otra de la
Tierra, particularmente desde que ha surgido el empleo de la refrigeración a gran
escala. Esto ha reducido la amenaza de hambre, que en otros tiempos tenía un
8
Lima: Una especie de limón más pequeño y redondo que los demás. Hay dos variedades: la agria y la dulce. (N.
del T.)
Eijkman practicó algunos experimentos. Sometió a los pollos a una dieta de arroz
descascarillado y los animales enfermaron. Utilizó de nuevo el arroz sin
descascarillar y se recuperaron. Era el primer caso de enfermedad por deficiencia en
la dieta provocada deliberadamente. Eijkman decidió que esta «polineuritis» que
afectaba a las aves era similar en sus síntomas al beriberi humano. ¿Contraían los
seres humanos el beriberi a consecuencia de comer únicamente arroz
descascarillado? Para el consumo del hombre, el arroz era desprovisto de su
cascarilla, principalmente porque se conserva mejor, ya que el germen destruido
con la cascarilla del arroz contiene aceites que fácilmente se enrancian. Eijkman y
su colaborador, Gerrit Grijns, se dispusieron a averiguar qué era lo que contenía la
cascarilla del arroz que evitaba el beriberi. Por último, consiguieron disolver el factor
crucial de la cascarilla y descubrieron que podía atravesar membranas que no
conseguían cruzar las proteínas. Evidentemente, la sustancia en cuestión tenía que
ser una molécula muy pequeña. Sin embargo, no pudieron identificarla.
Mientras tanto, varios investigadores estudiaban otros factores misteriosos que
parecían ser esenciales para la vida. En 1905, el especialista holandés en nutrición,
C. A. Pekelharing, halló que todos sus ratones morían al cabo de un mes de ingerir
una dieta artificial que parecía lo suficientemente rica en cuanto a grasas, hidratos
de carbono y proteínas. Sin embargo, los ratones vivían normalmente cuando
añadía a esta dieta unas pocas gotas de leche. En Inglaterra, el bioquímico
Frederick Hopkins, que pretendía demostrar la importancia de los aminoácidos en la
dieta, llevó a cabo una serie de experimentos en los que, asimismo, se demostraba
que existía algo en la caseína de la leche, que, si se añadía a una dieta artificial,
fomentaba el crecimiento. Este algo era soluble en agua. Como suplemento
dietético, una pequeña cantidad de extracto de levadura era incluso mejor que la
caseína.
Por su descubrimiento, al establecer que estas sustancias en la dieta eran
esenciales para la vida, Eijkman y Hopkins compartieron el premio Nobel de
Medicina y Fisiología, en 1929.
La siguiente tarea era aislar esos factores vitales en los alimentos. En 1912, tres
bioquímicos japoneses, U. Suzuki, T. Shimamura y S. Ohdake, lograron extraer de
la cáscara de arroz un compuesto que se manifestaba muy potente contra el
En 1930, se había hecho ya evidente que la vitamina B no era una sustancia simple,
sino una mezcla de componentes con distintas propiedades. El factor alimenticio que
curaba el beriberi fue denominado vitamina B1 a un segundo factor se le llamó
vitamina B2 y así sucesivamente. Algunos de los informes sobre nuevos factores
resultaron ser falsas alarmas, por lo que ya no se oye hablar de vitamina B3, B4 o
B5. Sin embargo, los números siguieron ascendiendo hasta llegar al 14. El grupo de
vitaminas, globalmente considerado, es denominado con frecuencia «complejo
vitamínico B».
Se añadieron asimismo nuevas letras. De éstas, las vitaminas E y K (ambas solubles
en grasas) continuaron siendo verdaderas vitaminas, pero la «vitamina F» resultó
no ser una vitamina, y la vitamina H, demostró ser una de las vitaminas del
complejo B.
Sin embargo, una vez identificada su constitución química, las letras de incluso las
verdaderas vitaminas han caído en desuso, y la mayor parte de ellas se conocen por
sus nombres químicos, aunque las vitaminas solubles en grasas, por alguna razón
especial, han mantenido sus denominaciones con mayor tenacidad que las solubles
en agua.
No resultó fácil averiguar la composición química y estructura de las vitaminas, pues
estas sustancias se producen sólo en cantidades pequeñísimas. Por ejemplo, una
tonelada de cascarilla de arroz contiene tan sólo unos 5 gramos de vitamina B.
Hasta 1926, nadie logró extraer suficiente vitamina pura para poder analizarla
químicamente.
Dos bioquímicos holandeses, Barend Coenraad Petrus Jansen y William Frederick
Donath, determinaron una composición de la vitamina B, partiendo de una
pequeñísima muestra, pero resultó equivocada. En 1932, Ohdake trató de
conseguirlo de nuevo, con una muestra algo mayor, y casi obtuvo el resultado
correcto. Fue el primero en detectar un átomo de azufre en una molécula
vitamínica.
Finalmente, en 1934, Robert R. Williams, por aquel entonces director químico de los
«Bell Telephone Laboratories», culminó veinte años de investigaciones separando
laboriosamente la vitamina B1 a partir de varias toneladas de cáscaras de arroz,
hasta que obtuvo la cantidad suficiente para elaborar una fórmula estructural
completa. Ésta es:
fuertemente protectora contra el escorbuto. Más aún, descubrieron que era idéntica
a los cristales que habían obtenido a partir del zumo de limón. King determinó su
estructura en 1933, resultando ser una molécula de azúcar con seis átomos de
carbono, perteneciente a la serie-L, en lugar de a la serie-D:
Los químicos que buscaban la vitamina D encontraron su mejor pista química por
medio de la luz solar. Ya en 1921, el grupo McCollum (el primero en probar la
existencia de la vitamina) demostró que las ratas no desarrollaban raquitismo aún
con una dieta sin vitamina D, si eran expuestas a la luz solar. Los bioquímicos
Minerales
Es lógico suponer que los materiales que constituyen algo tan asombroso como el
tejido vivo deben ser también, a su vez, algo hermoso y exótico. Las proteínas y los
ácidos nucleicos son ciertamente asombrosos, pero, sin embargo, es humillante
comprobar que los demás elementos que constituyen el cuerpo humano son tan
corrientes como el barro, y que todo el conjunto podría ser comprado por unos
pocos dólares. (Debiera haber utilizado «centavos», pero la inflación ha aumentado
el precio de las cosas.) A principios del siglo XIX, cuando los químicos estaban
empezando a analizar los compuestos orgánicos, resultó evidente que el tejido vivo
estaba constituido, principalmente, por carbono, hidrógeno, oxígeno y nitrógeno.
Sólo estos cuatro elementos constituían aproximadamente el 96 % de la masa del
cuerpo humano. Además, existía también algo de azufre en el cuerpo. Si se queman
estos cinco elementos, se hallará una pequeña cantidad de ceniza blanca, en gran
parte residuo de los huesos. Esta ceniza es un conjunto de minerales.
No es sorprendente hallar sal común, cloruro sódico, en las enzimas. Después de
todo, la sal no es únicamente un condimento para mejorar el sabor de la comida -
del que se puede prescindir-, como de la albahaca, el romero o el tomillo. Es un
asunto de vida o muerte, únicamente se necesita paladear un poco de sangre para
comprobar que la sal es un componente básico del organismo. Los animales
herbívoros, que probablemente no son nada sofisticados en lo que se refiere a las
delicias en la preparación de los alimentos, soportarán, sin embargo, grandes
peligros y privaciones para conseguir una «lengüeta de sal», compensando así la
carencia de ella en su dieta de hierbas y hojas.
En una época tan antigua como mediados del siglo XVIII, el químico sueco Johann
Gottlieb Gahn había demostrado que los huesos están constituidos, en su mayor
parte, de fosfato cálcico, y un científico italiano, V. Menghini, había establecido que
la sangre contenía hierro. En 1847, Justus von Liebig halló potasio y magnesio en
los tejidos. Posteriormente, a mediados del siglo XIX, los constituyentes minerales
del cuerpo conocidos incluían calcio, fósforo, sodio, potasio, cloro, magnesio y
hierro. Además, éstos resultaban ser tan activos en el proceso vital como cualquiera
de los elementos generalmente asociados a los compuestos orgánicos.
El caso del hierro es el más evidente. Si falta en la dieta, la sangre se vuelve
deficiente en hemoglobina y transporta menos oxígeno de los pulmones a las
células. Esta enfermedad es conocida como la «anemia por deficiencia de hierro». El
paciente empalidece, al carecer del pigmento rojo, y se fatiga debido a la escasez
de oxígeno. En 1882, el médico inglés Sidney Ringer halló que el corazón de una
rana podía ser mantenido con vida y latiendo, fuera de su cuerpo, en una solución
(llamada «solución de Ringer») que contenía, entre otras cosas, sodio, potasio y
calcio, en aproximadamente las mismas proporciones halladas en la sangre de la
rana. Todos eran esenciales para el funcionamiento del músculo. Un exceso de
calcio determinaba que el músculo se contrajera de modo permanente («rigor del
calcio»), mientras que un exceso de potasio obligaba al músculo a una relajación
constante («inhibición del potasio»). Además, el calcio era vital para la coagulación
de la sangre.
así. Ratas alimentadas con una dieta pobre en cinc detienen su crecimiento, pierden
vello, sufren escamosis de la piel y mueren prematuramente a causa de la carencia
de cinc, del mismo modo que si carecieran de una vitamina.
Del mismo modo se ha demostrado que el cobre, el manganeso, el cobalto y el
molibdeno son esenciales para la vida animal. Su ausencia en la dieta da lugar a
enfermedades carenciales. El molibdeno, el último de los oligoelementos esenciales
en ser identificado (en 1954), es un componente de una enzima llamada
«xantinooxidasa». La importancia del molibdeno fue comprobada en primer lugar,
en 1940, en relación con las plantas, cuando los científicos investigadores del suelo
hallaron que las plantas no crecían adecuadamente en aquellos suelos que eran
deficientes en este elemento. Parece que el molibdeno es un componente de ciertas
enzimas en microorganismos presentes en el terreno, que catalizan la conversión
del nitrógeno del aire en compuestos nitrogenados. Las plantas dependen de esta
ayuda procedente de los microorganismos, porque no pueden por sí mismas obtener
el nitrógeno a partir del aire. (Éste es solamente uno del considerable número de
ejemplos que demuestran la estrecha interdependencia de toda la vida en nuestro
planeta. El mundo viviente es una larga e intrincada cadena que puede sufrir cierto
perjuicio, o incluso un desastre, si se rompe algún eslabón.)
existe alguno más, necesitan vanadio por motivo alguno. Se ha comprobado hoy en
día que existen desiertos de oligoelementos, al igual que existen desiertos carentes
de agua; ambos generalmente aparecen juntos, pero no siempre. En el suelo de
Australia, los científicos han hallado que unos 28 g de molibdeno, en forma de algún
compuesto apropiado, esparcidos sobre unas 6,5 Ha de tierra con deficiencia de él,
se traduce en un considerable incremento en la fertilidad. Tampoco es éste
solamente un problema de las tierras exóticas. Un estudio de la tierra de laboreo
americana, en 1960, mostró la existencia de áreas de deficiencia de boro en 41
Estados. La dosificación de los oligoelementos es crucial. Es tan perjudicial en
exceso como por defecto, ya que algunas sustancias que son esenciales para la vida
en pequeñas cantidades (por ejemplo, el cobre) en grandes cantidades se
transforman en venenosas.
Esto, por supuesto, conduce, como una consecuencia lógica, a la muy antigua
costumbre de utilizar «fertilizantes» para el suelo. Hasta los tiempos modernos, la
fertilización era realizada mediante el uso de los excrementos de los animales,
abono o guano, que restituían el nitrógeno y el fósforo al suelo. Sin embargo, la
operación estaba en todo momento acompañada de olores desagradables y de la
siempre presente posibilidad de una infección. La sustitución de éstos por los
fertilizantes químicos, limpios y libres de olor, fue conseguida gracias al trabajo de
Justus von Liebig, a principios del siglo XIX.
Uno de los episodios más espectaculares en el descubrimiento de las deficiencias en
minerales tuvo lugar con el cobalto. Relacionada con ello estaba la fatal
enfermedad, en otro tiempo incurable, llamada «anemia perniciosa».
A principios de la década de 1920, el patólogo de la Universidad de Rochester,
George Hoyt Whipple estaba experimentando sobre la reposición de la hemoglobina
por medio de diversas sustancias alimentarias. Había sangrado a perros, con objeto
de inducir en ellos una anemia, y luego los había alimentado con diversas dietas,
para ver cuál de ellas permitía recuperar con mayor rapidez la perdida hemoglobina.
No realizaba este experimento porque estuviera interesado en la anemia perniciosa,
o en cualquier otro tipo de anemia, sino debido a que se dedicaba a investigar los
pigmentos biliares, compuestos producidos por el organismo a partir de la
hemoglobina. Whipple descubrió que el alimento que permitía a los perros producir
más rápidamente hemoglobina era el hígado.
En 1926, dos médicos de Boston, George Richards Minot y William Parry Murphy,
consideraron los resultados de Whipple y decidieron probar el hígado como
tratamiento para los pacientes con anemia perniciosa. El tratamiento prosperó. La
enfermedad incurable podía ser curada, cuando los pacientes ingerían hígado como
una parte de su dieta. Whipple, Minot y Murphy compartieron el premio Nobel de
Medicina y Fisiología en 1934.
Por desgracia, el hígado, aunque es un plato exquisito cuando se cocina
apropiadamente, y luego se corta y mezcla cuidadosamente con elementos tales
como los huevos, la cebolla y los menudillos de pollo, se convierte en algo
insoportable cuando se emplea como dieta permanente. (Al cabo de un tiempo, un
paciente podría estar tentado a considerar que la anemia perniciosa resulta
preferible a este tratamiento.) Los bioquímicos se dedicaron a investigar la
sustancia curativa del hígado, y, en 1930, Edwin Joseph Cohn y sus colaboradores
de la Harvard Medical School prepararon un concentrado cien veces más potente
que el propio hígado. Sin embargo, para aislar el factor activo fue necesaria una
posterior purificación. Por suerte, los químicos de los «Laboratorios Merck»
descubrieron, en los años cuarenta, que el concentrado de hígado podía acelerar el
crecimiento de ciertas bacterias. Esto proporcionaba una fácil prueba de la potencia
de cualquier preparado de éste, de forma que los bioquímicos procedieron a escindir
el concentrado en fracciones y a ensayarlas en rápida sucesión. Debido a que la
bacteria reaccionaba con la sustancia hepática, en gran parte de la misma forma
con que reaccionaba ante la tiamina o la riboflavina, los investigadores sospecharon
entonces con fundadas razones que el factor que estaban buscando era una
vitamina B. Lo llamaron «vitamina B12».
En 1948, utilizaron la respuesta bacteriana y la cromatografía, Ernest Lester Smith,
en Inglaterra, y Karl August Folkers, en los «Laboratorios Merck», consiguieron
aislar muestras puras de vitamina B12. La vitamina demostraba ser una sustancia
roja, y ambos científicos pensaron que su color era parecido al de ciertos
compuestos de cobalto. Por aquel tiempo se sabía que una deficiencia de cobalto
causaba una anemia grave en el ganado y las ovejas. Tanto Smith como Folkers
quemaron muestras de vitamina B12, analizaron las cenizas y hallaron que éstas
realmente contenían cobalto. El compuesto fue denominado entonces
«cianocobalamina». Hasta hoy, es el único compuesto con un contenido de cobalto
que ha sido hallado en el tejido vivo.
Por descomposición y posterior examen de los fragmentos, los químicos decidieron
rápidamente que la vitamina B12 era un compuesto extremadamente complicado, y
elaboraron una fórmula empírica de C63H88O14N94PCo. Más tarde, un químico
británico, Dorothy Crowfoot Hodgkin, determinó su estructura global por medio de
los rayos X. El tipo de difracción establecido por los cristales del compuesto permitía
crear una imagen de las «densidades electrónicas» a lo largo de la molécula, es
decir, de aquellas regiones donde la probabilidad de hallar algún electrón era
elevada y de aquellas otras donde esta probabilidad era escasa. Si se trazaban
líneas que unieran las regiones con la misma probabilidad, se creaba una especie de
imagen esquemática de la forma de la molécula en conjunto.
Esto no resulta tan fácil como parece. Las moléculas orgánicas complicadas pueden
producir una dispersión de rayos X verdaderamente formidable en su complejidad.
Las operaciones matemáticas requeridas para traducir esta dispersión en
densidades electrónicas era enormemente tediosa. En 1944, habían sido solicitadas
computadoras electrónicas para colaborar en la formulación estructural de la
penicilina. La vitamina B12 era mucho más complicada, y Miss Hodgkin tuvo que
utilizar una computadora aún más avanzada -el «National Bureau of Standards
Western Automatic Computer» (SWAC)- y realizar una pesada labor preparatoria.
Sin embargo, esta labor, eventualmente, le representó el premio Nobel de Química,
en 1964.
La molécula de vitamina B12, o cianocobalamina, resultó ser un anillo de porfirina
asimétrico, en el que se ha perdido el puente de carbono que une a dos de los
pequeños anillos, pirrólicos, y con complicadas cadenas laterales en los anillos
pirrólicos. Parecía de algún modo más simple que la molécula del heme, pero con
esta diferencia clave: donde el heme poseía un átomo de hierro en el centro del
anillo porfirínico, la cianocobalamina tenía un átomo de cobalto.
La cianocobalamina es activa en muy pequeñas cantidades cuando se inyecta en la
sangre de los pacientes con anemia perniciosa. El organismo puede subsistir
En las primeras décadas de este siglo, los odontólogos se dieron cuenta de que la
población en ciertas zonas de Estados Unidos (por ejemplo, algunas localidades de
Arkansas) tendían a mostrar dientes oscuros -una especie de moteado del esmalte.
Esta particularidad fue estudiada, hasta hallar un contenido de compuestos de flúor
(«fluoruros») superior al promedio en el agua natural de bebida en aquellas
regiones. Al mismo tiempo, tuvo lugar otro interesante descubrimiento. Cuando el
contenido de flúor en el agua era superior al promedio, la población mostraba un
índice infrecuentemente bajo de caries dental. Por ejemplo, la ciudad de Salesburg,
en Illinois, con flúor en su agua, ofrecía sólo un tercio de los casos de caries dental
en los niños, que la vecina ciudad de Quincy, cuya agua prácticamente no contenía
flúor.
La caries dental no es un asunto despreciable, como podrá corroborar todo aquel
que ha padecido un dolor de muelas. Representa un gasto a la población de los
Estados Unidos superior a los mil quinientos millones de dólares anuales, en
facturas al dentista, y dos tercios de todos los americanos han perdido al menos
alguna de sus muelas a los 35 años de edad. Los investigadores en el campo de la
odontología tuvieron éxito en la obtención de apoyo económico para sus estudios a
amplia escala, encaminados a descubrir si la fluoración del agua sería beneficiosa y
proporcionaría realmente ayuda para impedir la caries dental. Hallaron que una
proporción de flúor, en el agua potable, de 1 : 1.000.000, con un costo estimado de
5 a 10 centavos por persona y año, no llegaba a manchar los dientes y, sin
embargo, producía un efecto beneficioso en la prevención de la caries. Por tanto,
adoptaron como medida dicha proporción para probar los efectos de la fluoración en
las reservas de agua de la comunidad.
En efecto se produce, en primer lugar, en las personas cuyos dientes se están
formando; es decir, en los niños.
La presencia de flúor en el agua potable asegura la incorporación de pequeñas
cantidades de este elemento a la estructura dental; aparentemente, es esto lo que
impide que el diente sea atacado por las bacterias. (El uso de pequeñas cantidades
de flúor en forma de píldoras o pasta de dientes ha mostrado también cierto efecto
protector contra la caries dental.) Hoy día, los odontólogos están convencidos, sobre
la base de un cuarto de siglo de investigación, de que por muy poco dinero por
persona y año, la caries dental puede ser reducida en aproximadamente los dos
tercios, con un ahorro de al menos mil millones de dólares al año en facturas al
dentista, y un alivio del dolor y de las deficiencias dentarias que no puede ser
medido en dinero. Las organizaciones odontológicas y médicas de la nación, el
Servicio de Salud Pública de los Estados Unidos y las agencias estatales sanitarias
recomiendan la fluoración de los suministros públicos de agua, y, sin embargo, en el
terreno político, la fluoración ha perdido la mayoría de las batallas. Cerca de 2.000
comunidades, con un total de unos 37 millones de personas, habían fluorado el
agua al iniciarse la década de 1960, pero ha continuado existiendo mucha oposición.
Un grupo llamado Comité Nacional Contra la Fluoración ha impulsado a una
comunidad tras otra a votar contra la fluoración, e incluso a rechazarla en algunos
lugares donde había sido adoptada. Se han usado los argumentos principales con el
máximo efecto por los oponentes al sistema. Uno es que los compuestos de flúor
son venenosos. ¡Lo son, en efecto, pero no en las dosis utilizadas para la fluoración!
El otro es que la fluoración constituye una medicación obligatoria, lo cual infringe la
libertad individual. Tal vez sea así, pero es un asunto discutible si el individuo en
cualquier sociedad puede tener la libertad de exponer a los demás miembros a una
enfermedad prevenible. Si la medicación obligatoria es algo pernicioso, entonces
tenemos un problema no solamente con la fluoración, sino también con la cloración,
la yodación e, igualmente, con todas las formas de inoculación, lo cual incluye la
vacunación contra la viruela, que hoy es obligatorio en la mayor parte de los países
civilizados del mundo.
Hormonas
Enzimas, vitaminas, oligoelementos, ¡de qué forma tan poderosa estas
sustancias diseminadas deciden sobre la vida o la muerte de los tejidos en el
organismo! Pero existe un cuarto grupo de sustancias que, de algún modo, es aún
más potente. Estas sustancias gobiernan la obra en conjunto; son como un
conmutador general que despierta una ciudad a la actividad, o como la válvula
reguladora que controla la máquina o la capa roja que excita al toro. A comienzos
de siglo, dos fisiólogos ingleses, William Maddock Bayliss y Ernest Henry Starling,
quedaron intrigados por una sorprendente pequeña función en el tracto digestivo.
propensa que el varón; las mujeres diabéticas superan en número al hombre en una
proporción de 4 a 3.
El término procede de una palabra griega que significa «sifón» (aparentemente, su
descubridor imaginó el agua haciendo continuamente de sifón a través del
organismo). La forma más grave de la enfermedad es la «diabetes mellitus».
«Mellitus» se deriva de una palabra griega que significa «miel», y se refiere al
hecho de que, en los estadios avanzados de ciertos casos de la enfermedad, la orina
tiene un sabor dulce. (Esto puede haber sido determinado directamente por algún
médico heroico, pero la primera indicación de ello fue más bien indirecta. La orina
de los diabéticos tendía a atraer las moscas.) En 1815, el químico francés Michel-
Eugene Chevreul consiguió demostrar que el sabor dulce obedecía simplemente a la
presencia de azúcar (glucosa). Este resto de glucosa indicaba claramente que el
cuerpo no estaba utilizando su alimento de forma eficiente. De hecho, el paciente
diabético, pese a incrementarse su apetito, puede perder peso regularmente a
medida que la enfermedad avanza. Hasta hace una generación, no existía ningún
tratamiento eficaz para combatir la enfermedad.
En el siglo XIX, los fisiólogos alemanes Joseph von Mering y Oscar Minkowski
hallaron que la extirpación de la glándula pancreática de un perro daba lugar a una
enfermedad de características idénticas a la diabetes humana. Después que Bayliss
y Starling descubrieran la hormona secretina, empezó a sospecharse que una
hormona del páncreas podía estar involucrada en la diabetes.
Pero la única secreción conocida del páncreas era el jugo digestivo. ¿De dónde
procedía la hormona? Apareció un indicio significativo. Cuando el conducto del
páncreas era bloqueado, de forma que no pudiera producir sus secreciones
digestivas, la mayor parte de la glándula se resecaba, pero los grupos de células
conocidas como «islotes de Langerhans» (llamado así por un médico alemán, Paul
Langerhans, que las había descubierto en 1869) permanecían intactas.
En 1916, un médico escocés, Albert Sharpey-Schafer, sugirió, por tanto que los
islotes podían estar produciendo la hormona antidiabética. Denominó a la supuesta
hormona «insulina», derivada de una palabra latina que significa «isla».
Los intentos para extraer la hormona a partir del páncreas fracasaron
estrepitosamente, al principio. Como se sabe hoy día, la insulina es una proteína, y
las enzimas que escinden las proteínas (proteolíticas) del páncreas la destruían
incluso mientras los químicos estaban intentando aislarla. En 1921, el médico
canadiense Frederick Grant Banting y el fisiólogo Charles Herbert Best (que
trabajaban en los Laboratorios de John James Rickard MacLeod, en la Universidad
de Toronto) intentaron dar un nuevo enfoque al asunto. Primeramente bloquearon
el conducto pancreático. La porción de la glándula que producía la enzima se resecó,
la producción de enzimas proteolíticas se detuvo, y los científicos pudieron extraer
la hormona intacta a partir de los islotes. Ésta demostraba realmente ser eficaz para
contrarrestar la diabetes. Banting llamó a la hormona «isletina», pero se impuso el
nombre más antiguo y latinizado propuesto por SharpeySchafer. Todavía se utiliza
este nombre.
En 1923, Banting y, por algún motivo, MacLeod (cuyo único servicio al
descubrimiento de la insulina fue permitir la utilización de su laboratorio durante el
verano, mientras estaba de vacaciones) recibieron el premio Nobel de Fisiología y
Medicina.
El efecto de la insulina dentro del organismo se manifiesta con la máxima claridad
en relación con el nivel de la concentración de glucosa en la sangre.
Corrientemente, el cuerpo almacena la mayor parte de su glucosa en el hígado en
forma de una clase de almidón llamada «glucógeno» (descubierto en 1856 por el
fisiólogo francés Claude Bernard), manteniendo únicamente una pequeña cantidad
de glucosa en la corriente sanguínea, con objeto de satisfacer las necesidades
inmediatas de energía de las células. Si la concentración de glucosa en la sangre
aumenta excesivamente, esto estimula al páncreas a incrementar su producción de
insulina, la cual se vierte en la corriente sanguínea y produce un descenso del nivel
de glucosa.
Por otra parte, cuando el nivel de glucosa desciende demasiado, al disminuir la
concentración se inhibe la producción de insulina por parte del páncreas, de forma
que aumenta el nivel de azúcar. Así se consigue restablecer el equilibrio. La
producción de insulina desciende el nivel de glucosa, lo cual disminuye la producción
de insulina, que a su vez eleva el nivel de glucosa, esto incrementa la producción de
insulina, que nuevamente hace descender el nivel de glucosa, y así sucesivamente.
Esto representa un ejemplo de lo que se llama «control de realimentación»
(feedback). El termostato que controla la calefacción de una casa trabaja del mismo
modo.
El mecanismo de retroalimentación es probablemente el procedimiento usual por
medio del cual el organismo mantiene una temperatura interna constante. Otro
ejemplo es el de la hormona producida por las glándulas paratiroides, cuatro
pequeños cuerpos incrustados en la glándula tiroides. La «parathormona» fue
finalmente purificada, en 1960, por los bioquímicos americanos Lyman C. Craig y
Howard Rasmussen, después de cinco años de trabajo.
La molécula de parathormona es, en cierto modo, mayor que la de la insulina, y
está constituida por 83 aminoácidos, con un peso molecular de 9.500. La acción de
esta hormona es incrementar la absorción de calcio en el intestino y disminuir la
pérdida de calcio a través de los riñones. Cuando la concentración de calcio en la
sangre desciende ligeramente por debajo de la normal, se estimula la secreción de
hormona. Con una mayor penetración y una menor fuga de calcio, pronto se eleva
el nivel de éste en la sangre; dicho incremento inhibe la secreción de la hormona.
Esta interacción entre la concentración de calcio en la sangre y la abundancia de
hormona paratiroidea mantiene el nivel de calcio muy cerca del nivel necesario en
todo momento. Una cosa excelente, ya que incluso una pequeña desviación del nivel
adecuado en la concentración de calcio puede conducir a la muerte. Por esto, la
eliminación de la glándula paratiroides es fatal. (En otro tiempo, los médicos, en su
ansiedad por disecar secciones del tiroides con objeto de curar el bocio, no
prestaban atención al hecho de remover la glándula paratiroides, mucho más
pequeña y menos prominente. La muerte del paciente representaba para ellos una
lección.) Algunas veces se utiliza la acción del mecanismo de retroalimentación
debido a la existencia de dos hormonas que trabajan en direcciones opuestas. Por
ejemplo, el doctor Harold Copp de la Universidad de Columbia británica, demostró,
en 1961, la presencia de una hormona tiroidea -a la cual denominó «calcitonina»-,
que hacía descender el nivel del calcio en la sangre estimulando la deposición de sus
iones en los huesos. Con la parathormona actuando en una dirección y la calcitonina
en otra, se podía controlar de forma mucho más sutil la realimentación producida
por los niveles de calcio en la sangre. (La molécula de calcitonina está formada por
una cadena simple de polipéptidos, compuesta de 32 aminoácidos.) En el caso de la
La Muerte
Los adelantos realizados por la medicina moderna en la lucha contra la infección, el
cáncer, los trastornos digestivos, etc., han aumentado la probabilidad de que un
individuo determinado pueda vivir lo suficiente como para alcanzar la vejez. La
mitad de las personas nacidas durante esta generación pueden confiar en alcanzar
los 70 años de edad (excepto que estalle una guerra nuclear o alguna otra
catástrofe de tipo mayor).
interna de las arterias, que obligan al corazón a realizar un mayor esfuerzo para
llevar la sangre a través de los vasos a un ritmo normal. La tensión sanguínea
aumenta, y el consiguiente incremento en el esfuerzo de los pequeños vasos
sanguíneos puede hacerlos estallar. Si esto ocurre en el cerebro (una zona
particularmente vulnerable), se produce una hemorragia cerebral o «ataque» En
ocasiones, el estallido de un vaso es tan pequeño que únicamente ocasiona un
trastorno ligero y temporal, o incluso pasa inadvertido; pero un colapso masivo de
los vasos puede conducir a la parálisis o a la muerte súbita.
El endurecimiento y estrechamiento de las arterias es motivo de otro peligro.
Debido al aumento de fricción de la sangre que va arañando la superficie interna
endurecida de los vasos, tienden a formarse coágulos sanguíneos, y el
estrechamiento de los vasos aumenta las posibilidades de que un coágulo pueda
bloquear por completo el torrente sanguíneo. Si esto ocurre en la arteria coronaria,
que alimenta el propio músculo cardíaco, un bloqueo («trombosis coronaria») puede
producir la muerte casi instantáneamente.
Lo que causa exactamente la formación de depósitos en la pared arterial es una
cuestión que ha dado lugar a una considerable controversia entre los científicos. En
efecto, el colesterol parece estar involucrado en ello, pero la forma en que está
implicado no se ha aclarado todavía. El plasma de la sangre humana contiene
«lipoproteínas», las cuales consisten en colesterol y otras sustancias grasas ligadas
a ciertas proteínas. Algunas de las fracciones que constituyen la lipoproteína
mantienen una concentración constante en la sangre, tanto en la salud como en la
enfermedad, antes y después de las comidas, etc. Otras fluctúan elevándose
después de las comidas. Otras son especialmente elevadas en los individuos obesos.
Una fracción, rica en colesterol, es particularmente elevada en las personas con
exceso de peso y en aquellas que padecen arteriosclerosis.
La arteriosclerosis acostumbra a ir acompañada de un elevado contenido de grasa
en la sangre, y esto es lo que ocurre en la obesidad. Las personas con exceso de
peso son más propensas a la arteriosclerosis que las delgadas. Los diabéticos
poseen también elevados niveles de grasa en la sangre y son más propensos a la
arteriosclerosis que los individuos normales. Y, para completar el cuadro, la
No hay duda de que el corazón humano supera a todos los otros corazones
existentes. (El corazón de la tortuga puede vivir más tiempo, pero no lo hace tan
intensamente.) No se sabe por qué el ser humano vive tanto tiempo, pero el
hombre, dada su naturaleza, está mucho más interesado en averiguar cómo podría
alargar aún más este período.
Pero, ¿qué es la vejez? Hasta ahora, sólo existen especulaciones sobre ello. Algunos
han sugerido que la resistencia del cuerpo a la infección disminuye lentamente con
la edad (en una proporción que depende de la herencia).
Otros especulan sobre «residuos», de, un tipo u otro, que se acumulan en las
células (también aquí en una proporción que varía de un individuo a otro). Estos
supuestos productos residuales de las reacciones normales de la célula, que ésta no
puede destruir ni eliminar, se acumulan lentamente en ella a medida que pasan los
años hasta que, finalmente, interfieren con el metabolismo celular en tal grado que
éste deja de funcionar. Cuando un número suficiente de células son inactivadas, el
cuerpo muere. Una variante de esta teoría sostiene que las propias moléculas de
proteínas se convierten en residuos, debido a que se desarrollan entre ellas
eslabones cruzados, de forma que se convierten en rígidas y quebradizas y,
finalmente, hacen que la maquinaria celular vaya rechinando hasta que llega a
detenerse.
Si esto fuera cierto, la «insuficiencia» se produciría entonces dentro del mecanismo
celular. Cuando Cartell consiguió, con gran habilidad, mantener vivo durante
décadas un trozo de tejido embrionario, hizo creer que las propias células podrían
ser inmortales: era la organización lo que nos hacía morir, las combinaciones de
células individuales por miles de billones. Ahí fallaba la organización, no las células.
Pero aparentemente no es así. Ahora se piensa que Carrell pudo haber introducido
(inadvertidamente) células frescas en su preparado para alimentar el tejido.
Diversas tentativas para trabajar con células o grupos celulares aislados, donde se
descartaba rigurosamente la introducción de células jóvenes, parecen demostrar
que las células envejecen sin remedio -presumiblemente debido a ciertos cambios
irreversibles en los componentes fundamentales de la célula.
Y, sin embargo, ahí está la extraordinaria longevidad del hombre. ¿Podría ser que el
tejido humano haya desarrollado ciertos métodos, superiores por su eficiencia a los
Capítulo 15
LAS ESPECIES
Uno de los intentos más antiguos de realizar una ordenación sistemática fue el del
inglés John Ray (o Wray), quien en el siglo XVII, clasificó todas las especies
conocidas de plantas (aproximadamente 18.600), y más tarde las especies
animales, de acuerdo con ciertos sistemas que le parecieron lógicos. Por ejemplo,
dividió las plantas con flor en dos grupos principales, según que la semilla
contuviera una hoja embrionaria o dos. Esta pequeña hoja embrionaria o par de
hojas recibió el nombre de «cotiledón», derivado de la palabra griega utilizada para
designar un tipo de copa (kotyle), porque estaban depositadas en una cavidad en
forma de copa en la semilla. Por ello, Ray denominó a los dos tipos respectivamente
«monocotiledóneas» y «dicotiledóneas». La clasificación (similar, por otra parte, a la
realizada 2.000 años antes por Teofrasto) se mostró tan útil que incluso resulta
efectiva hoy día. La diferencia entre una y dos hojas embrionarias resulta en sí
mismo poco importante, pero existen algunas formas esenciales en las que todas
las plantas monocotiledóneas se diferencian de las dicotiledóneas. La diferencia en
las hojas embrionarias es sólo una etiqueta, conveniente, significativa, de muchas
otras diferencias generales. (Del mismo modo, la distinción entre plumas y pelo es
realmente poco importante en sí misma pero resulta una indicación práctica para la
considerable serie de diferencias que separa a los pájaros de los mamíferos.)
Aunque Ray y otros contribuyeron aportando algunas ideas útiles, el verdadero
fundador de la ciencia de la clasificación o «taxonomía» (derivada de una palabra
griega que significa «ordenación») fue un botánico sueco, mas conocido por su
nombre latinizado de Carolus Linnaeus (Linneo), quien realizó su tarea de forma tan
perfecta que las líneas principales de su esquema siguen vigentes todavía. Linneo
expuso su sistema en 1737, en un libro titulado Systema Naturae. Agrupó las
especies que se parecían entre sí en un «género» (de una palabra griega que
significa «raza» o «estirpe»), dispuso a su vez los géneros afines en un «orden», y
agrupó los órdenes similares en una «clase». Cada especie era denominada con un
nombre compuesto por el del género y el de la propia especie. (Esto guarda mucha
similitud con el sistema de la guía telefónica, que alfabetiza Smith, John; Smith,
William; y así sucesivamente.) Por tanto, los miembros del género del gato son el
Felis domesticus (el gato doméstico), Felis leo (el león), Felis pardus (el leopardo),
Felis tigris (el tigre), etc. El género al que pertenece el perro incluye el Canis
familiaris (el perro), Canis lupus (el lobo gris europeo), Canis occidentalis (el lobo
de los bosques americanos), etc. Las dos especies de camellos son el Camelus
bactrianus (el camello de Bactriana) y el Camelus dromedaritis (el camello de
Arabia). .
Alrededor de 1880, el naturalista francés Georges Leopold Cuvier avanzó un paso
más allá de las «clases» y añadió una categoría más general llamada «tipo»
(phylum) (a partir de una palabra griega que significa «tribu»). Un tipo incluye
todos los animales con la misma disposición general del cuerpo (un concepto que
fue subrayado y puesto de manifiesto nada menos que por el gran poeta germano
Johann Wolfgang von Goethe). Por ejemplo, los mamíferos, pájaros, reptiles,
anfibios y peces están agrupados en un solo tipo, porque todos tienen columna
vertebral, un máximo de cuatro miembros y sangre roja con un contenido de
hemoglobina. Los insectos, las arañas, los crustáceos y los ciempiés están
clasificados en otro tipo; las almejas, las ostras y los moluscos (mejillones) en otro,
y así sucesivamente. En la década de 1820, el botánico suizo Augustin Pyramus de
Candolle, de forma similar, perfeccionó el sistema de clasificación de las plantas de
Linneo. En lugar de agrupar las especies entre sí según su apariencia externa,
concedió mayor importancia a su estructura y funcionamiento internos.
El árbol de la vida fue ordenado entonces, tal como se describirá en los párrafos
siguientes, partiendo de las divisiones más generales hasta llegar a las más
específicas.
Empezaremos con los «reinos» -vegetal, animal, e intermedio (es decir aquellos
microorganismos, como las bacterias, que no pueden ser definitivamente
clasificados como plantas o animales propiamente dichos). El biólogo germano Ernst
Heinrich Haeckel sugirió, en 1866, que este grupo intermedio fuera llamado
«Protistos», término que viene siendo cada vez más utilizado por los biólogos, a
pesar de que el mundo de los seres vivientes está todavía dividido exclusivamente,
hablando en términos populares, en «animal y vegetal».
El reino vegetal, según un sistema de clasificación, se divide en dos subreinos. En el
primer subreino, llamado Talofitas, figuran todas las plantas que no poseen raíces,
tallos u hojas: a saber, las algas (las plantas verdes unicelulares y los diversos
líquenes), que contienen clorofila, y los hongos (los mohos unicelulares y
organismos tales como las setas), que no la poseen. Los miembros del segundo
subreino, los Embliofitas, se dividen en dos tipos principales: Biofritas (los distintos
musgos) y Traqueofitas (plantas con sistemas de tubos para la circulación de la
savia), que incluyen todas las especies que ordinariamente consideramos plantas.
Este último gran tipo consta de tres clases principales, las Filicinas, las
Gimnospermas, y las Angiospermas. En la primera clase están los helechos, que se
reproducen mediante esporas. Las Gimnospermas, que forman las semillas en la
superficie de los órganos reproductores, incluyen los diversos árboles coníferos
siempre verdes. Las Angiospermas, con las semillas encerradas en los ovarios,
constituyen la mayor parte de las plantas familiares.
Igualmente, por lo que se refiere al reino animal, enumeraremos solamente los
tipos más importantes.
Los Protozoos («primeros animales») son, por supuesto, los animales unicelulares.
A continuación están los Poríferos, animales que consisten de colonias de células
dentro de un esqueleto poroso; éstas son las esponjas.
Las células individuales muestran signos de especialización, pero conservan una
cierta independencia, pues aunque si en definitiva se separan filtrándose a través de
tejido de seda, pueden agregarse para formar una nueva esponja.
(En general, a medida que los tipos animales se hacen más especializados, las
células y los tejidos individuales se vuelven menos «independientes». Las criaturas
simples pueden volver a crear su organismo completo, incluso aunque éste haya
sido bárbaramente mutilado, proceso que recibe el nombre de «regeneración».
Otros organismos más complejos pueden regenerar los miembros. Sin embargo,
para el tiempo de existencia que le concedemos al hombre, la capacidad de
regeneración se ha mostrado muy decepcionante. Somos capaces de regenerar una
uña perdida, pero no un dedo perdido.) El primer tipo cuyos miembros pueden ser
considerados realmente como animales multicelulares es el de los Celentéreos
(palabra que significa «intestino hueco»), Estos animales tienen básicamente la
forma de una copa y constan de dos capas de células: el ectodermo («piel
exterior») y el endodermo («piel interior»). Los ejemplos más comunes de este tipo
son las medusas y las anémonas marinas.
Todos los demás tipos animales tienen una tercera capa de células: el mesodermo
(«piel media»). A partir de estas tres capas, reconocidas por vez primera, en 1845,
por los fisiólogos alemanes Johannes Peter Müller y Robert Remak, se forman la
multiplicidad de órganos de los animales, incluso los más complejos, entre los que
se encuentra el hombre.
El mesodermo se origina durante el desarrollo del embrión y la forma en que lo hace
divide a los animales implicados en dos «supertipos». Aquellos en los que el
mesodenno se forma en la unión del ectodermo y el endodenno constituyen el
supertipo Anélido; los animales en los cuales el mesodermo se origina solamente en
el endodermo forman el supertipo Equinodermo.
Consideremos primeramente el supertipo Anélido. Su tipo más simple es el de los
Platelmintos (del griego «gusanos aplanados»). Éstos incluyen no solamente el
parásito solitaria, sino también formas vivientes libres. Los gusanos aplanados
tienen fibras contráctiles que pueden ser consideradas como músculos primitivos, y
poseen también cabeza, cola, órganos especiales para la reproducción y lo que
puede considerarse el comienzo de órganos excretores. Además, los gusanos
aplanados muestran simetría bilateral: es decir, que sus lados izquierdo y derecho
son las correspondientes imágenes de sus contrarios en el espejo. Se desplazan
hacia delante, y sus órganos de los sentidos y nervios rudimentarios están
concentrados en el área de la cabeza, de forma que puede afirmarse de ellos que
poseen un cerebro rudimentario.
A continuación sigue el tipo Nematodos (procedente de la palabra griega que
significa «en forma de hilo»), cuyo miembro más conocido es la lombriz intestinal.
Estas criaturas poseen un primitivo flujo sanguíneo: un fluido en el interior del
mesodermo que baña todas las células y transporta los alimentos y el oxígeno hasta
ellas. Esto hace que los nematodos, en contraste con los animales como la aplanada
solitaria, tengan un cierto volumen, para que el fluido pueda llevar el alimento a las
células interiores. Los nematodos poseen también un intestino con dos aberturas,
una para la entrada de alimentos y la otra (el ano) para la eyección de los residuos.
Los dos tipos siguientes en este supertipo poseen duros «esqueletos» externos, es
decir, conchas (que se hallan en algunos de los tipos más simples también). Estos
dos grupos son los Braquiópodos, que tienen conchas dorsoventrales de carbonato
de calcio y los Moluscos (de la palabra latina «blando»), cuyos cuerpos blandos
están encerrados en conchas que se originan desde los lugares derecho e izquierdo
del animal, en lugar del dorso y el vientre. Los moluscos más familiares son las
almejas, las ostras, y los caracoles. Un tipo particularmente importante dentro del
supertipo Anélido es el de los Anélidos. Éstos son también gusanos, pero con una
diferencia: están constituidos por segmentos, pudiendo ser considerado cada uno de
ellos como una especie de organismo en sí mismo. Cada segmento tiene sus propios
nervios que se ramifican a partir del tronco nervioso principal, sus propios vasos
sanguíneos, sus propios túbulos para la conducción de los residuos al exterior, sus
propios músculos, y así sucesivamente. En el anélido más familiar, la lombriz de
tierra, los segmentos están claramente marcados por pequeñas constricciones de la
carne, que parecen como diminutos anillos alrededor del animal; en realidad,
Anélidos es una palabra que procede del latín y significa «pequeño anillo».
Aparentemente, la segmentación proporciona al animal una eficiencia superior, por
lo cual las especies más predominantes del reino animal, incluyendo el hombre,
están segmentadas. (De los animales no segmentados, el más complejo y logrado
es el calamar.) Si queremos saber en qué forma está segmentado el cuerpo
humano, consideremos las vértebras y las costillas; cada vértebra de la columna
vertebral y cada costilla representan un segmento separado del cuerpo, con sus
propios nervios, músculos y vasos sanguíneos. Los anélidos, al carecer de
esqueleto, son blandos y relativamente indefensos. No obstante, el tipo Artrópodos
(«pies articulados») consigue combinar la segmentación con el esqueleto, siendo
éste tan segmentado como el resto del cuerpo. El esqueleto no sólo es más
manejable debido a su capacidad de articulación, sino también ligero y flexible,
estando constituido por un polisacárido llamado «quitina», en lugar de la maciza e
inflexible piedra caliza o carbonato cálcico. Considerados globalmente, los
artrópodos, que incluyen las langostas, las arañas, los ciempiés y los insectos, es el
tipo más abundante de todos los existentes. Al menos, comprende mayor número
de especies que todos los otros tipos juntos.
Esto rige sólo para los tipos principales del supertipo Anélido. El otro supertipo, el
Equinodermo, contiene únicamente dos tipos importantes. Uno es el Equinoideo
(«piel espinosa»), que incluye criaturas tales como la estrella marina y el erizo de
En el siglo XIX, los zoólogos tuvieron noticia de un hecho tan curioso y sorprendente
que rehusaron creer en él. Los australianos habían hallado una criatura, dotada de
pelo y productora de leche (mediante unas glándulas mamarias que carecían de
pezones) y que, no obstante, ¡ponía huevos! Incluso cuando los zoólogos hubieron
contemplado especímenes del animal (por desgracia, muerto, ya que no es fácil
mantenerlo vivo fuera de su hábitat natural), se inclinaron a considerarlo como un
tosco fraude. La bestia era un animal anfibio, que se parecía bastante a un pato:
tenía un pico parecido al de las aves y pies palmípedos. Eventualmente, el
«ornitorrinco» tuvo que ser reconocido como un fenómeno genuino y, por tanto,
como una nueva clase de mamífero. Otro mamífero ponedor de huevos, el equidna,
ha sido hallado desde entonces en Australia y Nueva Guinea. No sólo es el hecho de
poner huevos lo que relaciona a estos mamíferos estrechamente con los reptiles;
además, tienen sólo imperfectamente caliente su sangre; en los días fríos, su
temperatura interna puede alcanzar los 10º C.
Hoy día, los mamíferos se dividen en tres subclases. Los que ponen huevos forman
la primera clase, los Prototerios (del griego «primeros animales»). El embrión en el
huevo está realmente bien desarrollado en el momento en que éste es depositado, y
no necesita ser empollado durante largo tiempo. La segunda subclase de
mamíferos, los Metaterios. («animales medios»), incluyen las zarigüeyas y los
canguros. Su infancia, aunque nacen vivos, transcurre de una forma muy poco
desarrollada, y mueren en breve tiempo, a menos que consigan alcanzar la bolsa
protectora de la madre y permanecer junto a los pezones mamarios hasta que están
lo suficientemente fuertes como para ir de un lado a otro. Estos animales reciben el
nombre de «marsupiales» (del latín marsupium, la palabra latina para bolsa).
Por último, en la cúspide de la jerarquía de los mamíferos, llegamos a la subclase
Euterios («verdaderos animales»). Su característica distintiva es la placenta, un
tejido irrigado por la sangre que permite a la madre proporcionar al embrión los
alimentos y el oxígeno y liberarle de sus residuos, de forma que puede desarrollar
su cría durante un largo periodo de tiempo dentro de su propio cuerpo (nueve
meses en el caso del ser humano; dos años, para los elefantes y las ballenas). Los
Euterios se denominan generalmente «mamíferos placentarios».
Los mamíferos placentarios se dividen en una docena de órdenes, de los que son
ejemplos los siguientes:
Insectívoros («comedores de insectos») - musarañas, topos, y otros.
Quirópteros («manos-alas») - murciélagos.
Carnívoros («comedores de carne») - la familia del gato, la del perro, comadrejas,
osos, focas, etc., pero sin incluir al hombre.
Roedores («que roen») - ratones, ratas, conejos, ardillas, cobayas, castores, puerco
espines, etc.
Desdentados («sin dientes») - los perezosos y armadillos, que han echado
dentición, y los osos hormigueros, que no lo han hecho.
Artiodáctilos («dedos pares») - animales con cascos, que poseen un número par de
dedos en cada pie, tal como los machos cabríos, las ovejas, las cabras, el cerdo, el
ciervo, los antílopes, los camellos, las jirafas, etc.
Perisodáctilos («dedos impares») - caballos, asnos, cebras, rinocerontes y tapires.
Proboscidios («nariz larga») - los elefantes, por supuesto.
Odontocetos («cetáceos dentados») - el cachalote y otros con dientes.
Mistacocétidos («cetáceos con barbas») - la ballena propiamente dicha (ballena
franca), la ballena azul y otras que filtran los pequeños animales marinos que les
sirven de alimento a través de las barbas córneas que parecen como un inmenso
bigote en el interior de la boca.
Primates («primero») - el hombre, los simios, los monos, y algunos otros seres, con
los que el hombre puede comprobar se halla asociado, con gran sorpresa por su
parte.
Los primates se caracterizan por el hecho de que las manos, y en ocasiones, los
pies, están equipados para aprehender, con los pulgares opuestos y grandes dedos
gordos del pie. Los dedos terminan en uñas aplanadas en lugar de garras afiladas o
pezuñas. El cerebro tiene un tamaño superior al de las otras especies y el sentido
de la vista es más importante que el del olfato. Existen muchos otros criterios
anatómicos menos evidentes que éstos.
Los primates se dividen en nueve familias. Algunas tienen tan pocas características
de primates, que es difícil considerarlas como tales, aunque así deben ser
clasificadas. ¡Una de ellas es la familia de los Tupáyidos, que incluye las musarañas
de los árboles, devoradoras de insectos! Luego, están los lemúridos -de vida
nocturna, seres que viven en los árboles y poseen boca parecida a la de la zorra y la
apariencia de una ardilla-. Éstos se hallan particularmente en Madagascar.
Las familias más próximas al hombre son, por supuesto, los monos y los simios.
Existen tres familias de monos (la palabra posiblemente se deriva de la latina
homunculus, que significa «hombre pequeño»).
Las dos familias de monos en América, conocidas como los «monos del Nuevo
Mundo», son los Cébidos (por ejemplo, el mono lanudo) y los Calitrícidos (por
ejemplo, el tití). La tercera, la familia del «Viejo Mundo», son los Cercopitécidos;
éstos incluyen los diversos babuinos.
Todos los simios pertenecen a una familia, llamada Póngidos. Son oriundos del
hemisferio Oriental. Sus diferencias más notables con respecto a los monos son, por
supuesto, su mayor tamaño y el carecer de cola. Los simios se clasifican en cuatro
tipos: el gibón, el más pequeño, velludo, mejor armado y más primitivo de la
familia; el orangután, de mayor tamaño, aunque también morador de los árboles, al
igual que el gibón; el gorila, con un tamaño superior al del hombre, que habita
principalmente en el suelo y es oriundo de África; y el chimpancé, que también
habita en África, tiene una estatura inferior a la del hombre y es el primate más
inteligente, después del hombre mismo.
Y por lo que se refiere a nuestra propia familia, la de los Homínidos, ésta
comprende hoy día únicamente un solo género y, en realidad, una sola especie.
Linneo la denominó Homo sapiens («el hombre sabio»), y hasta ahora nadie se ha
atrevido a cambiar este nombre, a pesar de la provocación.
Evolución
Resulta casi imposible confeccionar la lista de los seres vivientes, tal como
acabamos de hacer, sin finalizar con la poderosa impresión de que ha existido una
lenta evolución de la vida desde la muy simple hasta la más compleja. Los tipos
pueden ser dispuestos de forma que cada uno parece añadir algo al anterior. Dentro
de cada tipo, las distintas clases pueden ser clasificadas igualmente, y, dentro de
cada clase, los órdenes.
Los defensores de las palabras literales de la Biblia sostenían que el parecido de los
fósiles con organismos vivientes en otro tiempo era sólo accidental, o bien que
habían sido creados engañosamente por el diablo. Estas teorías resultaban
totalmente inverosímiles; después se hizo una sugerencia más plausible respecto a
que los fósiles eran restos de seres ahogados en el Diluvio. Las conchas marinas en
las cumbres de las montañas realmente podrían ser la prueba de ello, ya que el
relato bíblico del Diluvio dejaba bien sentado que el agua cubrió todas las
montañas.
Pero, tras un examen más cuidadoso, muchos de estos organismos fósiles
demostraron ser distintos de cualesquiera especies vivientes. John Ray, el primer
clasificador, se preguntó si podrían representar a especies extintas. Un naturalista
suizo, llamado Charles Bonnet, fue más lejos. En 1770, sugirió que los fósiles eran
realmente los restos de especies extinguidas que habían sido destruidas en antiguas
catástrofes geológicas que se remontaban a mucho tiempo antes del Diluvio.
Sin embargo, fue un agrimensor inglés, llamado William Smith, quien proporcionó
una base científica para el estudio de los fósiles («paleontología»). Mientras
trabajaba en unas excavaciones para abrir un canal en 1791, quedó impresionado
por el hecho de que la roca a través de la que se estaba abriendo el canal se dividía
realmente en estratos y que cada estrato contenía sus propios fósiles
característicos. Ahora ya era posible clasificar los fósiles en un orden cronológico,
según el lugar que ocuparan en la serie de capas sucesivas, y asociar, además, cada
fósil con un tipo particular de estrato rocoso que representaría un determinado
período en la historia geológica.
Aproximadamente en 1800, Cuvier (el hombre que inventó la noción de tipo)
clasificó los fósiles según el sistema de Linneo y extendió la anatomía comparada
hasta el pasado remoto. Aunque muchos fósiles representaban especies y géneros
no hallados entre los seres vivientes, todas se acomodaban claramente a uno o a
otro de los tipos conocidos y, así, entraban a formar parte integral del esquema de
la vida. En 1801, por ejemplo, Cuvier estudió un fósil de dedos largos, de un tipo
descubierto por vez primera veinte años antes, y demostró que correspondía a los
restos de una especie voladora de alas coriáceas, que no existía en la actualidad -al
menos que no existía exactamente-. Fue capaz de mostrar, a partir de la estructura
ósea, que estos «pterodáctilos» («dedos en forma de alas»), tal como los llamó,
eran reptiles, claramente emparentados con las serpientes, lagartos, cocodrilos y
tortugas de hoy día.
Además, cuanto mayor era la profundidad del estrato en que se hallaba el fósil y
mayor, por tanto, la antigüedad del mismo, más simple y menos desarrollado
parecía éste. No sólo eso, sino que también, en ocasiones, algunos fósiles
representaban formas intermedias que enlazaban dos grupos de seres, los cuales,
tomando como referencia las formas vivientes, parecían completamente separadas.
Un ejemplo particularmente sorprendente, descubierto después del tiempo de
Cuvier, fue un pájaro muy primitivo llamado arqueoptérix (del griego archaios,
antiguo y ptéryx, pájaro). Este animal, hoy día extinguido, tenía alas y plumas,
¡pero también poseía una cola de lagarto, adornada con plumas, y un pico que
contenía dientes de reptil! En estos y otros aspectos resultaba evidente que
establecía una especie de puente entre los reptiles y los pájaros.
Cuvier supuso también que las catástrofes terrestres, más que la evolución, habían
sido las responsables de la desaparición de las formas de vida extinguidas, pero, en
la década de 1830, la nueva teoría de Charles Lyell sobre los fósiles y la historia
geológica, que ofreció en su histórico trabajo los Principios de Geología, liquidó
completamente el «catastrofismo» (véase capítulo III). Una teoría razonable sobre
la evolución se convirtió en una necesidad, si algún significado tenía que surgir de
las pruebas paleontológicas.
Si los animales habían evolucionado de unas formas a otras, ¿qué era lo que les
había obligado a hacerlo? Éste fue el escollo principal con que se tropezó en las
tentativas efectuadas para explicar las variedades de la vida. El primero en intentar
una explicación fue el naturalista francés Jean-Baptiste de Lamarck. En 1809,
publicó un libro, titulado Filosofía Zoológica, en el que sugirió que el medio
ambiente obligaba a los organismos a sufrir pequeños cambios, los cuales eran
luego transmitidos a sus descendientes. Lamarck ilustró su idea con la jirafa (una
sensación del momento, recientemente descubierta). Supuso que una criatura
primitiva, parecida al antílope, que se alimentaba de las hojas de los árboles, habría
agotado los alimentos fácilmente alcanzables, viéndose obligada a estirar su cuello
tanto como podía para conseguir más comida. Debido al esfuerzo habitual de estirar
En 1883, Weismann había observado que las células germen, que eventualmente
habrían de originar el espermatozoide o el huevo, se separaban del resto del
embrión en un estadio precoz y permanecían relativamente no especializadas. A
partir de esto, y de sus experimentos con las colas de las ratas. Weismann dedujo
aproximadamente unas 650 millas al este del Ecuador, llamada islas Galápagos,
debido a las tortugas gigantes que vivían en ellas (galápagos procede de la palabra
española tortuga). Lo que más atrajo la atención del joven Darwin durante sus cinco
semanas de estancia en las islas fue la diversidad de pinzones que había en ellas;
éstos se conocen en la actualidad como «los pinzones de Darwin». Halló que los
pájaros se dividían en al menos unas catorce especies diferentes, distinguiéndose
unas de otras principalmente por las diferencias en la forma y tamaño de sus picos.
Estas especies particulares no existían en ningún otro lugar del mundo, pero se
parecían a un pariente evidentemente cercano del continente sudamericano. ¿Qué
era lo que motivaba el carácter de los pinzones en estas islas? ¿Por qué se
diferenciaban de los pinzones ordinarios, y por qué se dividían en no menos de
catorce especies? Darwin decidió que la teoría más razonable al respecto era que
todas ellas descendían de un tipo principal de pinzón y que se habrían ido
diferenciando durante el largo período de aislamiento soportado en el archipiélago.
La diferenciación se habría producido como resultado de la variación de los métodos
de obtención de los alimentos.
Tres de las especies de pinzones comían todavía semillas, al igual que la especie
continental, pero cada una comía una clase distinta de semillas y variaba, por tanto,
en su tamaño, existiendo una especie más grande, otra mediana y una tercera más
pequeña. Otras dos especies se alimentaban de cactos; la mayor parte de las
restantes comían insectos.
El problema de los cambios ocurridos en las costumbres alimentarias y las
características físicas de los pinzones preocupó la mente de Darwin durante varios
años. En 1838 empezó a vislumbrar un atisbo de respuesta al leer un libro que
había sido publicado cuarenta años antes por un clérigo inglés llamado Thomas
Roben Malthus. Se titulaba Un ensayo sobre el principio de la Población; en él,
Malthus sostenía que la población crece siempre en una proporción mayor que su
provisión de alimentos, de forma que finalmente el hombre, una epidemia o la
guerra la diezmaban. Fue en este libro donde Darwin tropezó con la frase «la lucha
por la existencia», que sus teorías convirtieron en famosa más tarde. Recordando
los pinzones, Darwin comprendió de pronto que la lucha por los alimentos podía
actuar como un mecanismo que favorecía a los individuos más eficientes. Cuando
los pinzones que habían colonizado las Galápagos se hubieran multiplicado hasta el
punto de sobrepasar la provisión de semillas, únicamente los pájaros más fuertes, o
aquellos particularmente adaptados para conseguir semillas, o también los que
habían sido capaces de obtener nuevas formas de alimentos, pudieron sobrevivir.
Un pájaro que casualmente estuviera dotado de pequeñas variaciones de las
características del pinzón, variaciones que le permitieran comer semillas más
grandes o más duras, o, mejor aún, insectos, dispondría de un medio de
subsistencia ilimitado. Un pájaro con un pico ligeramente más delgado o más largo
podría conseguir alimentos que no estaban al alcance de los demás, o uno que
tuviera un pico anormalmente grande podría disponer de alimentos insólitos. Tales
pájaros, y sus descendientes, se multiplicarían a expensas de la variedad original de
pinzones. Cada uno de los tipos adaptados hallaría y ocupada un nuevo hábitat, no
ocupado, en el medio ambiente. En las islas Galápagos, virtualmente libres de vida
ornitológica al comienzo, estaban disponibles toda clase de habitáculos y no existían
competidores que estorbaran el camino. En el continente sudamericano, con todos
los lugares ocupados, el pinzón antepasado sólo habría podido dedicarse a
mantener su estatus. No daría lugar a nuevas especies.
Darwin sugirió que cada generación de animales estaba constituida por una
serie de individuos que variaban, en ocasiones, del promedio. Algunos podrían ser
ligeramente mayores; otros poseerían órganos de un tamaño ligeramente alterado;
algunas de estas modificaciones representarían sólo una proporción sin importancia
por encima o por debajo de la normalidad. Las diferencias podían ser efectivamente
mínimas, pero aquellos cuyas estructuras estaban ligeramente mejor adaptadas al
medio ambiente tenderían a vivir un poco más de tiempo y a tener una mayor
descendencia. Eventualmente, a una acumulación de características favorables
podría añadirse una incapacidad para aparearse con el tipo original, o con otras
variedades de éste, y así nacería una nueva especie.
Darwin denominó a este proceso «selección natural».
Según su teoría, la jirafa había conseguido su largo cuello, no por un proceso de
alargamiento, sino debido a que algunas jirafas habían nacido con cuellos más
largos que sus compañeras, y, cuanto más largo fuera el cuello, mayor era la
posibilidad del animal para conseguir alimento.
Por selección natural, las especies con cuello largo habrían triunfado. La selección
natural explicaba también la piel manchada de la jirafa de un modo bastante
sencillo: un animal con manchas en su piel podría disimular se mejor contra la
vegetación multicolor, y de este modo tendría más posibilidades de escapar a la
atención del león al acecho.
La teoría de Darwin acerca del modo como las especies se habían formado explicó
también por qué a menudo resultaba tan difícil establecer unas distinciones claras
entre las especies o entre los géneros. La evolución de las especies es un proceso
continuo y, por supuesto, necesita un período de tiempo muy prolongado. Por
fuerza, deben existir algunas especies en las que algunos miembros están, incluso
en la actualidad, derivando lentamente en especies separadas.
Darwin empleó muchos años en recoger las pruebas y elaborar su teoría. Se percató
de que ésta haría temblar las bases de la biología y del pensamiento humano acerca
del lugar que el hombre ocupaba en el esquema de los seres, y esperó a estar
seguro de su fundamento en todos los aspectos posibles. Darwin empezó a recoger
notas sobre el tema y a meditar sobre él en 1834, incluso antes de leer a Malthus,
y, en 1858, estaba todavía trabajando en un libro que trataba sobre el tema. Sus
amigos (incluyendo a Lyell, el geólogo) conocían lo que estaba elaborando; varios
habían leído ya sus notas preliminares. Le urgían a apresurase, por temor a que
alguien se le anticipara. Pero Darwin no se apresuró (o no pudo), y sucedió lo que
temían.
El hombre que se le anticipó fue Alfred Russel Wallace, catorce años más joven que
Darwin. La vida de Wallace discurrió de modo muy parecido a la de Darwin. En su
juventud formó parte también de una expedición científica alrededor del mundo. En
las Indias Orientales, observó que las plantas y los animales de las islas situados
más al Este eran completamente distintos de los de las islas occidentales. Podía
establecerse una línea divisoria entre los dos tipos de formas vivientes; esta línea
discurría entre Borneo y las Célebes, por ejemplo, y entre las pequeñas islas de Bali
y Lombok, más allá, hacia el Sur. La línea se conoce todavía con el nombre de
«línea de Wallace».
(Posteriormente, Wallace llegó a dividir la Tierra en seis grandes regiones,
caracterizadas por distintas variedades de animales, una división que, con pequeñas
hubo empezado a crecer sobre la tierra firme, la vida animal pudo a continuación
efectuar su propia adaptación. En unos pocos millones de años, la tierra firme fue
ocupada por los artrópodos, ya que los animales de gran tamaño, carentes de un
esqueleto interno, habrían sido aplastados por la fuerza de la gravedad. En el
océano, por supuesto, la flotabilidad anulaba en gran parte a la gravedad, por lo
que ésta no representaba un factor negativo. (Incluso hoy día los mayores animales
viven en el mar.) Las primeras criaturas terrestres en conseguir una gran movilidad
fueron los insectos; gracias al desarrollo de sus alas, fueron capaces de
contrarrestar la fuerza de la gravedad. Que obligaba a los otros animales a
arrastrarse lentamente. Por último, cien millones de años después de la primera
invasión de la tierra firme, tuvo lugar una nueva invasión de seres vivientes que
podían permitirse el lujo de ser voluminosos a pesar de la existencia de la gravedad,
porque poseían un esqueleto óseo en su interior. Los nuevos colonizadores
procedentes del mar eran peces óseos que pertenecían a la subclase Crosopterigios
(«aletas pedunculadas»). Algunos de sus compañeros habían emigrado a las
profundidades marinas no pobladas; entre ellos estaba el celacanto, el cual los
biólogos hallaron en 1939, con gran sorpresa.
La invasión de la tierra firme por los peces comenzó como resultado de la pugna
para arrebatar el oxígeno en las extensiones de agua salobre. Entonces la atmósfera
contenía oxígeno respirable en cantidades ilimitadas, y, por consiguiente, los peces
mejor dotados para sobrevivir eran aquellos capaces de aspirar grandes bocanadas
de aire cuando el agua contenía un porcentaje de oxígeno inferior al punto de
supervivencia. Los dispositivos orgánicos para almacenar esas bocanadas tenían un
valor incalculable, y el pez desarrolló unas bolsas en las vías alimentarias donde
podía conservar el aire aspirado. Las bolsas de algunos individuos evolucionaron
hasta formar sencillos pulmones. Entre los descendientes de ese pez primitivo figura
el «pez pulmón», algunas de cuyas especies existen todavía en África y Australia.
Estos animales viven en aguas estancadas donde se asfixiaría cualquier pez
ordinario, e incluso sobreviven a las sequías estivales cuando su hábitat se deseca.
Hasta los peces cuyo elemento natural es el agua marina, donde el oxígeno no
plantea problema alguno, evidencian todavía los rasgos heredados de aquellas
criaturas primigenias provistas de pulmones, pues aún poseen bolsas llenas de aire,
si bien éstas son simples flotadores y no órganos respiratorios.
Sin embargo, algunos peces poseedores de pulmones llevaron el asunto hasta su
lógica culminación y empezaron a vivir totalmente fuera del agua durante períodos
más o menos largos. Las especies crosopterigias, provistas de poderosas aletas,
pudieron hacerlo con éxito, pues al faltarles la flotabilidad tuvieron que recurrir a
sus propios medios para contrarrestar la fuerza de gravedad.
Hacia finales del Devónico, algunos de los primitivos crosopterigios pulmonados se
encontraron a sí mismos en tierra firme, sosteniéndose de forma insegura sobre
cuatro patas rudimentarias.
Tras el Devónico vino el Carbonífero («formación de carbón»), llamado así por Lyell
debido a que éste fue el período de los enormes bosques pantanosos que, hace
unos trescientos millones de años, representaron lo que quizás haya sido la
vegetación más lujuriante de la historia de la Tierra; con el tiempo, estos bosques
inmensos fueron sepultados y dieron lugar a los casi interminables yacimientos
carboníferos del planeta. Éste fue el período de los anfibios; los crosopterigios, para
entonces, estaban consumiendo sus completas vidas adultas sobre la tierra. A
continuación vino el período Pérmico (llamado así por una región en los Urales, para
estudiar la cual Murchison hizo un largo viaje desde Inglaterra). Los primeros
reptiles hicieron su aparición en ese momento. Estos animales se extendieron en el
Mesozoico, que se inició a continuación, y llegaron a dominar la Tierra tan por
completo que este período se ha conocido con el nombre de la era de los reptiles. El
Mesozoico se divide en tres períodos: el Triásico (porque fue hallado en tres
estratos), el Jurásico (a partir de los montes del Jura, en Francia), y el Cretáceo
(«formador de creta»). En el Triásico aparecieron los dinosaurios («lagartos
terribles», en griego). Éstos alcanzaron su supremacía en el Cretáceo, cuando
reinaba sobre la Tierra el Tyrannosaurus rex, el mayor animal carnívoro terrestre de
la historia de nuestro planeta.
Fue durante el Jurásico cuando se desarrollaron los primeros mamíferos y pájaros,
ambos a partir de un grupo separado de reptiles. Durante millones de años; estas
especies permanecieron en la oscuridad. Sin embargo, a finales del Cretáceo, los
gigantescos reptiles empezaron a desaparecer (debido a alguna razón desconocida,
por lo que la causa de «el gran exterminio» sigue siendo uno de los problemas más
atormentadores en Paleontología), y los mamíferos y los pájaros ocuparon su lugar.
El Cenozoico, que siguió a continuación, se convirtió en la era de los mamíferos; dio
lugar a los mamíferos placentarios y al mundo que conocemos.
La unidad de la vida actual se demuestra, en parte, por el hecho de que todos los
organismos están compuestos de proteínas creadas a partir de los mismos
aminoácidos.
Igualmente, la misma clase de evidencia ha establecido recientemente nuestra
unidad con el pasado. La nueva ciencia de la «Paleobioquímica» (la Bioquímica de
las formas de vida antiguas) se inició a finales de la década de 1950, al demostrarse
que algunos fósiles, de 300 millones de años de antigüedad, contenían restos de
proteínas compuestas precisamente de los mismos aminoácidos que constituyen las
proteínas hoy día: glicina, alanina, valina, leucina, ácido glutámico y ácido
aspártico. Ninguno de los antiguos aminoácidos se diferenciaba de los actuales.
Además, se localizaron restos de hidratos de carbono, celulosa, grasas y porfirinas,
sin (nuevamente) nada que pudiera ser desconocido o improbable en la actualidad.
A partir de nuestro conocimiento de bioquímica podemos deducir algunos de los
cambios bioquímicos que han desempeñado un papel en la evolución de los
animales.
Consideremos la excreción de los productos de desecho nitrogenados. En
apariencia, el modo más simple de librarse del nitrógeno es excretarlo en forma de
una pequeña molécula de amoníaco (NH3), la cual puede fácilmente pasar a través
de las membranas de la célula a la sangre. Da la casualidad que el amoníaco es
sumamente tóxico. Si su concentración en la sangre excede de la proporción de una
parte en un millón, el organismo perecerá. Para un animal marino, esto no
representa un gran problema; puede descargar el amoníaco en el océano,
continuamente, a través de sus agallas. Sin embargo, para un animal terrestre, la
excreción de amoníaco es imposible. Para descargar el amoníaco con tanta rapidez
como éste se forma, se precisaría una excreción de orina de tal magnitud que el
animal quedaría pronto deshidratado y moriría. Por tanto, un organismo terrestre
debe liberar sus productos de desecho nitrogenados en una forma menos tóxica que
el amoníaco. La solución viene representada por la urea. Esta sustancia puede ser
Por otra parte, los mamíferos placentarios pueden expulsar fácilmente los productos
de desecho nitrogenados del embrión, ya que éste se halla conectado
indirectamente con el sistema circulatorio de la madre. Los embriones de los
mamíferos, por tanto, no tienen problemas con la urea. Ésta es transferida al flujo
sanguíneo materno y liberada más tarde a través de los riñones de la madre.
Un mamífero adulto tiene que excretar cantidades sustanciales de orina para
desembarazarse de su urea. Esto exige la presencia de dos orificios separados: un
ano para eliminar los residuos sólidos indigeribles de los alimentos y un orificio
uretral para la orina líquida.
Los sistemas explicados de la eliminación de nitrógeno demuestran que, aunque la
vida es básicamente una unidad, existen también pequeñas variaciones sistemáticas
de una especie a otra. Además, estas variaciones parecen ser mayores a medida
que la distancia evolutiva entre las especies es mayor.
Consideremos, por ejemplo, aquellos anticuerpos que pueden crearse en la sangre
animal en respuesta a una proteína o proteínas extrañas, como, por ejemplo, las
existentes en la sangre humana. Estos «antisueros», si son aislados, reaccionarán
poderosamente en la sangre humana, coagulándola, pero no reaccionarán de este
modo con la sangre de otras especies. (Ésta es la base de las pruebas que indican
que las manchas de sangre tienen un posible origen humano, lo que en ocasiones
da un tono dramático a las investigaciones criminales.) De forma interesante, los
antisueros que reaccionan con la sangre humana ofrecen una respuesta débil con la
sangre del chimpancé, en tanto que los antisueros que reaccionan intensamente con
la sangre de un pollo lo hacen de modo débil con la sangre de un pato, y así
sucesivamente. Por tanto, la especificidad de los anticuerpos puede ser utilizada
para indicar las estrechas relaciones entre los seres vivientes.
Estas pruebas indican, como era de esperar, la existencia de pequeñas diferencias
en la compleja molécula de proteína; diferencias que son tan pequeñas en las
especies muy afines que impiden la producción de algunas reacciones antiséricas.
Cuando los bioquímicos consiguieron desarrollar técnicas para la determinación de
la estructura exacta de los aminoácidos en las proteínas, en la década de 1950, este
método de clasificar las especies según su estructura proteínica fue
considerablemente perfeccionado.
En 1965 se dio cuenta de estudios más minuciosos todavía sobre las moléculas
hemoglobínicas de diversos primates, incluido el hombre. Una de las dos cadenas de
péptidos en la hemoglobina, la llamada «cadena alfa», variaba poco de un primate a
otro. La otra, la «cadena beta», señalaba importantes variaciones.
Entre un primate determinado y el hombre había sólo seis puntos diferentes
respecto a los aminoácidos y la cadena alfa, pero veintitrés por cuanto se refiere a
las cadenas beta. Considerando las diferencias halladas en las moléculas
hemoglobínicas, se pensó que el hombre había empezado a divergir de los demás
simios hace setenta y cinco millones de años, más o menos el período de las
primeras divergencias entre los caballos y los asnos ancestrales.
reinado de Saúl, el primer monarca de Israel, quien se cree que subió al trono
aproximadamente en el año 1025 a. de J.C. El obispo Ussher y otros investigadores
de la Biblia, que estudiaron el pasado a través de la cronología bíblica, llegaron a la
conclusión de que tanto el hombre como el universo no podían tener una existencia
superior a la de unos pocos miles de años.
La historia documentada del hombre, tal como está registrada por los historiadores
griegos, se iniciaba sólo alrededor del año 700 a. de J.C, más allá de esta fecha
clave de la historia, confusas tradiciones orales se remontaban hasta la guerra de
Troya, aproximadamente en el año 1200 a. de J.C., y, más vagamente todavía,
hasta una civilización prehelénica en la isla de Creta sometida al rey Minos.
A principios del siglo XIX, los arqueólogos empezaron a descubrir los primeros
indicios de las civilizaciones humanas que existieron antes de los períodos descritos
por los historiadores griegos y hebreos. En 1799, durante la invasión de Egipto por
Napoleón Bonaparte, un oficial de su ejército, llamado Boussard, descubrió una
piedra con inscripciones, en la ciudad de Roseta, en una de las bocas del Nilo. El
bloque de basalto negro presentaba tres inscripciones diferentes: una en griego,
otra en una forma antigua de escritura simbólica egipcia llamada «jeroglífico»
(«escritura sagrada») y otra en una forma simplificada de escritura egipcia llamada
«demótico» («del pueblo»).
La inscripción en griego era un decreto rutinario del tiempo de Tolomeo V, fechado
en el equivalente al 27 de marzo del año 196 a. de J.C. Forzosamente tenía que ser
una traducción del mismo decreto que se ofrecía en las otras dos lenguas sobre la
tabla (comparemos con las indicaciones de «no fumar» y otros avisos oficiales que a
menudo aparecen hoy día escritos en tres idiomas, en los lugares públicos,
especialmente en los aeropuertos). Los arqueólogos se mostraron entusiasmados:
al menos tenían una «clave» con la que descifrar las escrituras egipcias
anteriormente incomprensibles. Se llevó a cabo un trabajo bastante importante en
el «desciframiento del código» por parte de Thomas Young, el hombre que había
establecido por vez primera la teoría ondulatoria de la luz (véase capítulo VII), pero
le tocó en suerte a un estudiante francés de antigüedades, Jean-François
Champollion, resolver por completo la «piedra de Roseta». Aventuró la suposición
de que el copto, una lengua todavía empleada por ciertas sectas cristianas en
Egipto, podía ser utilizado como guía para descifrar el antiguo lenguaje egipcio. En
1821, había conseguido descifrar los jeroglíficos y la escritura demótica, y abierto el
camino para comprender todas las inscripciones halladas en las ruinas del antiguo
Egipto.
Un hallazgo ulterior casi idéntico consiguió resolver el problema de la indescifrable
escritura de la antigua Mesopotamia. En un elevado farallón, cerca del pueblo en
ruinas de Behistun, al oeste del Irán, los científicos hallaron una inscripción que
había sido grabada, aproximadamente en el 520 a. de J.C., por orden del
emperador persa Darío I. Explicaba la forma en que éste había conseguido llegar al
trono tras derrotar a un usurpador. Para estar seguro de que todo el mundo pudiera
leerlo, Darío había mandado grabarla en tres idiomas: persa, sumerio y babilónico.
Las escrituras sumerias y babilónicas, con una antigüedad que se remonta al año
3100 a. de J.C., estaban basadas en imágenes pictográficas, que se formaban
haciendo muescas en la arcilla con un punzón; estas escrituras habían evolucionado
hasta una de tipo «cuneiforme» («en forma de cuña»), que siguió utilizándose hasta
el siglo I d. de J.C.
Un oficial del ejército inglés, Henry Creswicke Rawlinson, subió al farallón, copió la
inscripción completa y, en 1846, después de diez años de trabajo, había conseguido
realizar una traducción total, utilizando los dialectos locales como guía cuando los
necesitaba. El desciframiento de las escrituras cuneiformes permitió leer la historia
de las civilizaciones antiguas entre el Tigris y el Éufrates.
Se enviaron una expedición tras otra a Egipto y Mesopotamia en busca de más
tablas y restos de las antiguas civilizaciones. En 1854, un científico turco, Hurmuzd
Rassam, descubrió los restos de una biblioteca de tablas de arcilla en las ruinas de
Nínive, la capital de la Antigua Asiria, una biblioteca que había sido compilada por el
último gran rey asirio, Asurbanipal, aproximadamente en el 650 a. de J.C. En 1873,
el investigador de la cultura asiria, el inglés George Smith, descubrió tablillas de
arcilla que ofrecían relatos del bíblico Diluvio, lo cual demuestra la veracidad del
libro del Génesis. En 1877, una expedición francesa al Irak descubrió los restos de
una cultura que precedía a la babilónica: la anteriormente mencionada de los
sumerios. Esto hacía remontar la historia de aquella región a los más antiguos
tiempos egipcios.
La Humanidad, en esta época tan remota, no era una especie extendida por todo el
planeta, tal como lo es en la actualidad. Con anterioridad al año 2.000,
aproximadamente, a. de J.C., estaba confinada en la gran «isla mundo» de África,
Asia y Europa. Fue solamente en un período posterior cuando las bandas de
cazadores empezaron a emigrar, a través de los estrechos pasos que cruzaban el
océano, a las Américas, Indonesia y Australia. Pero hasta el año 400 a. de J.C., e
incluso más tarde, los navegantes polinesios no se atrevieron a cruzar las amplias
extensiones del Pacifico, sin brújula y en embarcaciones que apenas eran algo más
que simples canoas, para colonizar las islas de este océano. Finalmente, hasta bien
entrado el siglo XX, el hombre no se asentó en la Antártica.
definitivamente, hacia África como resultado del trabajo del súbdito inglés, nacido
en Kenya, Louis S. B. Leakey y su esposa Mary. Con paciencia y tenacidad, los
Leakey rastrearon áreas prometedoras de África Oriental en busca de primitivos
restos de homínidos. El más prometedor fue Olduvai Gorge, en lo que hoy es
Tanzania y, luego, el 17 de julio de 1959, Mary Leakey coronó más de un cuarto de
siglo de esfuerzos al descubrir los huesos de un cráneo que, una vez juntadas las
piezas, demostraron haber contenido el cerebro más pequeño de cualquier homínido
descubierto hasta entonces. Sin embargo, otras características demostraban que
este homínido estaba más próximo al hombre que al simio, ya que caminaba erecto
y alrededor dé sus restos se encontraron pequeños utensilios fabricados con
guijarros. Los Leakey denominaron a su hallazgo Zinjanthropus («hombre del este
de África», utilizando la designación árabe para el África Oriental). El Zinjanthropus
no parece estar en la línea directa de ascendencia del hombre moderno. Sin
embargo, otros fósiles anteriores, cuya antigüedad se cifra en dos millones de años,
pueden haber estado más capacitados. Éstos, a quienes se ha dado el nombre de
Homo habilis (hombre diestro), eran criaturas con una talla, de 1,40 m, tenían ya
manos de pulgares articulados y suficientemente diestras (de ahí el nombre) para
darles una apariencia humana en ese aspecto.
Con anterioridad al Homo habilis encontramos fósiles demasiado primitivos para
recibir la denominación de homínidos, y nos aproximamos cada vez más al
antecesor común del hombre y de los demás antropoides. Es el Ramapithecus, del
cual se localizó una mandíbula superior en la India septentrional a principios de la
década de 1930; su descubridor fue G. Edward Lewis. Este maxilar superior era
bastante más parecido al humano que el de cualquier otro primate viviente, con la
excepción, claro está, del propio hombre; tendría quizá una antigüedad de tres
millones de años. En 1962, Leakey descubrió una especie allegada que, tras el
análisis con isótopos, resultó remontarse a catorce millones de años atrás.
En 1948, Leakey descubrió un fósil todavía más antiguo (quizá veinticinco millones
de años), que denominó «Procónsul». (Este nombre, que significa «antes de
cónsul», fue asignado en honor de un chimpancé del Zoo londinense, llamado así.)
El «Procónsul» parece ser el antepasado común de la mayor parte de familias de los
grandes monos, el gorila, el chimpancé y el orangután. Anteriormente a éste, por
es nada fácil identificar específicamente cada raza. El color de la piel, por ejemplo,
proporciona escasa orientación; el aborigen australiano y el negro africano tienen
piel oscura, pero la relación entre ambos es tan estrecha como la que pudieran
tener con los europeos. Tampoco es muy informativa la línea del cráneo -
«dolicocéfalo» (alargado) frente a «braquicéfalos» (redondeado), términos
implantados en 1840 por el anatomista sueco Anders Adolf Retzius- aún cuando se
clasifique a los europeos en función de ella para formar subgrupos. La relación entre
la longitud y anchura de la cabeza multiplicada por ciento («índice cefálico», o
«índice craneal», si se emplean las medidas del cráneo) sirvió para dividir a los
europeos en «nórdicos», «alpinos» y «mediterráneos». Sin embargo, las diferencias
entre un grupo y otro son pequeñas, y las diferenciaciones dentro de cada grupo,
considerables. Por añadidura, los factores ambientales tales como deficiencias
vitamínicas, tipo de cuna donde duerme el lactante, etc., influyen sobre la forma del
cráneo.
Pero los antropólogos han encontrado un excelente indicador de la raza en los
grupos sanguíneos. El bioquímico William Clouser Boyd, de la Universidad de
Boston, fue una eminencia en este terreno. Él puntualizó que el grupo sanguíneo es
una herencia simple y comprobable, no la altera el medio ambiente, y se manifiesta
claramente en las diferentes distribuciones entre los distintos grupos raciales.
Particularmente el indio americano constituye un buen ejemplo. Algunas
tribus son casi por completo de sangre O; otras tienen O, pero con una considerable
adición de A; prácticamente ningún indio tiene sangre B o AB, y si algún indio
americano posee B o AB, es casi seguro que tienen algún ascendiente europeo.
Asimismo, los aborígenes australianos tienen un elevado porcentaje de O y A con la
inexistencia casi virtual de B. Pero se distinguen de los indios americanos por el
elevado porcentaje de un grupo sanguíneo descubierto recientemente, el M, y el
bajo porcentaje del grupo N, mientras que los indios americanos tienen abundante
N y poco M.
En Europa y Asia, donde la población está más mezclada, las diferencias entre los
pueblos son pequeñas, pero están bien definidas. Por ejemplo, en Londres el 70 %
de la población tiene sangre O, el 25 % A y el 5% B. En la ciudad rusa de Jarkov,
esa distribución es del 60, 25 y 15 %, respectivamente. Generalmente, el
una proporción per cápita mayor, por lo general, que en el resto del mundo- sólo se
embalsa y emplea de una forma u otra el 10 % del total del agua de lluvia.
Así, resulta que la construcción de presas en los lagos y ríos del mundo es cada vez
más intensa. (Las presas de Siria e Israel, en el Jordán, o de Arizona y California, en
el río Colorado, sirven como ejemplo.) Se abren pozos cada vez más profundos, y
en algunas regiones terrestres el nivel de las aguas subterráneas desciende
peligrosamente. Se han efectuado diversas tentativas para conservar el agua
potable, incluyendo el uso del alcohol cetílico para cubrir lagos y embalses en zonas
de Australia, Israel y África Oriental. El alcohol cetílico se extiende como una
película con un grosor igual al de una molécula, e impide la evaporación del agua
sin contaminarla. (Desde luego, la contaminación del agua mediante las aguas
fecales y los desperdicios industriales ocasiona un perjuicio adicional a las
menguantes reservas de agua potable.) Al parecer, algún día se hará necesario
obtener agua potable de los océanos, pues éstos ofrecen un abastecimiento
ilimitado para un futuro previsible. Entre los métodos más prometedores de
desalinización figuran la destilación y el congelamiento. Por añadidura, se están
haciendo experimentos con membranas que seleccionarán las moléculas de agua
para darles paso y rechazarán los diversos iones. Reviste tal importancia este
problema que la Unión Soviética y los Estados Unidos están proyectando emprender
la tarea conjuntamente, cuando resulta tan difícil concertar la cooperación entre
esos dos países siempre dispuestos a competir entre sí.
Pero seamos optimistas mientras nos sea posible y no reconozcamos ninguna
limitación del ingenio humano. Supongamos que mediante los milagros tecnológicos
se decuplica la productividad de la Tierra; supongamos que extraemos los metales
del océano, abrimos innumerables pozos petrolíferos en el Sahara, encontramos
minas carboníferas en la Antártica, domeñamos la energía de la luz solar y
acrecentamos el poder de la fusión. ¿Qué ocurrirá entonces? Si la población humana
sigue creciendo sin control al ritmo actual, toda nuestra Ciencia, todos nuestros
inventos técnicos, serían equiparables al incesante laborar de Sísifo.
Si alguien no se sintiera muy dispuesto a aceptar esa apreciación pesimista,
consideremos por un momento el poder de la progresión geométrica. Se ha
calculado que la cantidad total de materia viva sobre la Tierra es igual hoy día a 2 x
niños cada minuto, sino también que cada individuo utilizará (como promedio) más
recursos no reintegrables de la Tierra, consumirá más energía, producirá más
desperdicios y contaminación cada minuto. Mientras la población continúe
duplicándose cada treinta y cinco años como hasta ahora, la utilización de energía
se acrecentará en tal medida que al cabo de treinta y cinco años no se duplicará ¡se
septuplicará! El ciego afán por desperdiciar y envenenar más y más aprisa cada año
nos conduce hacia la destrucción con mayor celeridad incluso que la mera
multiplicación. Por ejemplo, los humos producidos por la combustión de carbón y
petróleo salen libremente al aire en el hogar y la fábrica, tal como los desperdicios
químicos gaseosos de las plantas industriales. Los automóviles por centenares de
millones expulsan el humo de la gasolina y los productos resultantes de su
desintegración y oxidación, por no mencionar el monóxido de carbono o los
compuestos de plomo. Los óxidos de sulfuro de nitrógeno (formados bien
directamente o por oxidación ulterior bajo la luz ultravioleta del sol) pueden,
juntamente con otras sustancias, corroer los metales, desgastar el material de
construcción, agrietar el caucho, perjudicar las cosechas, causar y agravar
enfermedades respiratorias e incluso figurar entre las causas del cáncer pulmonar.
Cuando las condiciones atmosféricas son tales que el aire sobre una ciudad
permanece estático durante cierto tiempo, las materias contaminadoras se
aglomeran, ensucian el aire, favorecen la formación de una bruma humosa (smog)
sobre la cual se hizo publicidad por vez primera en Los Ángeles, aunque ya existía
desde mucho tiempo atrás en numerosas ciudades y hoy día existe en muchas más.
Mirándolo desde su aspecto más nocivo, puede arrebatar millares de vidas entre
aquellas personas cuya edad o enfermedad les impide tolerar esa tensión adicional
en sus pulmones. Han tenido lugar desastres semejantes en Donora (Pennsylvania),
en 1948, y en Londres, en 1952.
Los desperdicios químicos contaminan el agua potable de la Tierra, y algunas veces
ocasionan la noticia dramática. Así, por ejemplo, en 1970 se comprobó que los
compuestos de mercurio vertidos con absoluta inconsciencia en las aguas mundiales
se habían abierto camino hasta los organismos marinos, a veces en cantidades
peligrosas.
A este paso, el océano dejará de ser para nosotros una fuente alimentaria ubérrima,
pues habremos hecho ya un buen trabajo preliminar para envenenarlo por
completo.
El uso desmedido de pesticidas persistentes ocasiona primero su incorporación a las
plantas y luego a los animales. Debido a este envenenamiento progresivo, los
pájaros encuentran cada vez más dificultades para formar normalmente las
cáscaras de sus huevos; tanto es así que nuestro ataque contra los insectos
amenaza con la extinción al halcón peregrino.
Prácticamente, cada uno de los llamados avances tecnológicos - concebidos
apresurada e irreflexivamente para superar a los competidores y multiplicar los
beneficios- suele crear dificultades. Los detergentes sintéticos vienen sustituyendo a
los jabones desde la Segunda Guerra Mundial. Entre los ingredientes importantes de
esos detergentes hay varios fosfatos que disueltos en el agua facilitan y aceleran
prodigiosamente el crecimiento de microorganismos, los cuales consumen el
oxígeno del agua causando así la muerte de otros organismos acuáticos. Esos
cambios deletéreos del hábitat acuátil («eutroficación») están produciendo el rápido
envejecimiento, por ejemplo, de los Grandes Lagos -sobre todo, el poco profundo
lago Erie- y abreviando su vida natural en millones de años. Así, el lago Erie será
algún día la ciénaga Erie, mientras que el pantano de Everglades se desecará
totalmente.
Las especies vivientes son interdependientes a ultranza. Hay casos evidentes como
la conexión entre plantas y abejas, donde las abejas polinizan las plantas y éstas
alimentan a las abejas, y millones de otros casos menos evidentes. Cada vez que la
vida facilita o dificulta las cosas a una especie determinada, docenas de otras
especies sufren las repercusiones... Algunas veces de forma difícilmente previsible.
El estudio de esas interconexiones vitales, la ecología, no ha despertado hasta
ahora el interés general, pues en muchos casos la Humanidad, en su afán por
obtener ganancias a corto plazo, ha alterado la estructura ecológica hasta el punto
de crear graves dificultades a largo plazo. Es preciso aprender a explorar el terreno
concienzudamente antes de saltar.
Incluso se hace necesario reflexionar con cordura sobre un asunto tan exótico
aparentemente como es la cohetería. Un solo cohete de gran tamaño puede inyectar
gases residuales por centenares de toneladas en la atmósfera más allá de los 155
km. Esas cantidades pueden alterar apreciablemente las propiedades de la tenue
atmósfera superior y desencadenar cambios climáticos imprevisibles. Hacia 1971 se
propuso emplear gigantescos aviones comerciales supersónicos (SST) cuyas
trayectorias atravesarían la estratosfera para permitirles viajar a velocidades
superiores a la del sonido. Quienes se oponen a su utilización no sólo citan el factor
«ruido» debido a las explosiones sónicas, sino también la posibilidad de una
contaminación que podría perturbar el clima.
Otro elemento que da aún peor cariz al desarrollo cuantitativo, es la distribución
desigual del género humano en la superficie terrestre. Por todas partes se tiende al
apiñamiento dentro de las áreas urbanas. En los Estados Unidos, donde la población
crece sin cesar, los Estados agrícolas no sólo participan en la explosión, sino que
también están perdiendo pobladores. Se calcula que la población urbana del globo
terráqueo se duplica no cada treinta y cinco años, sino cada once años. En el 2005
A.D., cuando la población total del globo terráqueo se haya duplicado, la población
metropolitana habrá aumentado, a este ritmo, más de nueve veces.
Eso es inquietante. Hoy estamos presenciando ya una dislocación de las estructuras
sociales, una dislocación que se acentúa en aquellas naciones progresivas donde la
urbanización es más aparente. Dentro de esos países hay una concentración
exorbitante en las ciudades, destacando especialmente sus distritos más populosos.
Es indudable que cuando el hacinamiento de los seres vivientes rebasa ciertos
límites, se manifiestan muchas formas de comportamiento patológico. Así se ha
verificado mediante los experimentos de laboratorio con ratas: la Prensa y nuestra
propia experiencia nos convencen de que ello es también aplicable a los seres
humanos.
Así pues, parece evidente que si las actuales tendencias prosiguen sin variación su
camino, las estructuras sociales y tecnológicas del mundo se vendrán abajo dentro
del próximo medio siglo con derivaciones incalculables. La Humanidad, en su
desenfrenado enloquecimiento, puede recurrir al cataclismo postrero, la guerra
termonuclear.
Pero. ¿proseguirán las actuales tendencias?
una lenta rotación de la nave espacial produce cierta sensación de peso en virtud de
la fuerza centrífuga que actúa ahí como fuerza gravitatoria.
Más serios y menos evitables son los riesgos de la gran aceleración y la súbita
deceleración que los viajeros espaciales deberán soportar sin remedio en el
despegue y aterrizaje de los cohetes.
Se denomina 1 g a la fuerza normal de gravedad en la superficie terrestre. La
ingravidez es 0 g. Una aceleración (o deceleración) que duplique el peso del cuerpo
será 2 g; si lo triplica, 3 g, y así sucesivamente.
La posición del cuerpo durante la aceleración es esencial. Si uno sufre esa
aceleración con la cabeza hacia delante (o la deceleración con los pies hacia
delante), la sangre escapará de su cabeza. Esto acarreará la pérdida de
conocimiento si la aceleración es suficientemente elevada (digamos, 6 g durante
cinco segundos). Por otra parte, si se sufre la aceleración con los pies hacia delante
(llamada «aceleración negativa» en contraposición a la «positiva» con la cabeza
hacia delante) la sangre acude de golpe a la cabeza. Esto es más peligroso, porque
la exagerada presión puede romper vasos sanguíneos en los ojos o el cerebro. Los
investigadores de la aceleración lo denominan redout. Una aceleración de 2 ½ g,
durante 10 segundos, basta para lesionar varios vasos.
Así pues, la posición más conveniente para resistir tales efectos es la «transversal»:
así se aplica la aceleración en ángulo recto al eje longitudinal del cuerpo. Varios
individuos han resistido aceleraciones transversales de 10 g durante dos minutos en
una cámara centrífuga sin perder el conocimiento.
En los períodos, más breves, la tolerancia será mucho mayor. El coronel John Paul
Stapp y otros voluntarios mostraron una asombrosa resistencia al soportar elevadas
deceleraciones g en la pista de pruebas de la base aérea de Holloman, en Nuevo
México. En su famosa carrera del 10-12-1954, Stapp soportó una deceleración de
25 g durante un segundo aproximadamente. Su deslizador, lanzado a 372 km por
hora, se detuvo bruscamente al cabo de 1,4 segundos. Según se calculó, eso era lo
mismo que lanzarse con un automóvil contra una pared ¡a 190 km por hora! Desde
luego, Stapp marchó bien sujeto con correas y tirantes al deslizador para reducir en
lo posible las probabilidades de lesiones. Sólo sufrió algunas contusiones y un
doloroso trauma en la cara que le amorató los dos ojos.
Capítulo 16
LA MENTE
El Sistema Nervioso
Hablando en términos físicos, el ser humano es un ente que, a diferencia de otros
organismos, realmente llama poco la atención. No puede competir en fuerza con la
mayor parte de los otros animales de su tamaño, camina torpemente cuando se le
compara, digamos, con el gato; no puede correr como el perro y el gamo; por lo
que respecta a su visión, oído y sentido del olfato, es inferior a un cierto número de
otros animales. Su esqueleto está mal adaptado a su postura erecta: el ser humano
es probablemente el único animal que sufre lumbago a causa de su postura y
actividades normales. Cuando pensamos en la perfección evolutiva de otros
organismos -la maravillosa capacidad del pez para nadar o del ave para volar, la
enorme fecundidad y adaptabilidad de los insectos, la perfecta simplicidad y eficacia
del virus-, el hombre parece, por supuesto, una criatura desgarbada y pobremente
constituida. Como organismo, apenas puede competir con las criaturas que ocupan
cualquier nicho ecológico específico en la Tierra. No obstante, ha conseguido
dominar este planeta gracias únicamente a una especialización bastante
importante: su cerebro.
Una célula es sensible a un cambio en su medio ambiente («estímulo») y reacciona
de forma apropiada («reapuesta»). Así, un protozoo nadará hacia una gota de una
solución de azúcar depositada en el agua a su alrededor, o se alejará de una gota
de ácido. Ahora bien, este tipo directo y automático de respuesta es adecuado para
una sola célula, pero significaría el caos para una agrupación de células. Cualquier
organismo constituido por un cierto número de células debe tener un sistema que
coordine sus respuestas. Sin tal sistema, sería semejante a una ciudad con
personas recíprocamente incomunicadas y que actuaran en virtud de objetivos
contrapuestos. Así, ya los celentéridos, los animales multicelulares más primitivos,
tienen los rudimentos de un sistema nervioso. Podemos ver en ellos las primeras
células nerviosas («neuronas»), células especiales con fibras que se extienden
desde el cuerpo celular y que emiten ramas extraordinariamente finas.
El funcionamiento de las células nerviosas es tan sutil y complejo que, incluso a este
nivel simple, nos hallamos ya algo desbordados cuando intentamos explicar lo que
Todo esto ocurre, por supuesto, de forma totalmente automática, pero, ya que
representa una ventaja para la medusa, deseamos ver una finalidad en el
comportamiento de este organismo. Realmente, el ser humano, como criatura que
se comporta con vistas a la consecución de un objetivo, es decir, con una
motivación, naturalmente tiende a atribuir una finalidad incluso a la naturaleza
inanimada. Los científicos denominan a esta actitud «teleología», e intentan evitar
cuanto pueden esa forma de pensar y hablar. Pero, al descubrir los resultados de la
evolución, es tan conveniente hablar en términos del desarrollo hacia el logro de
una mayor eficacia, que incluso los científicos, salvo los puristas más fanáticos,
ocasionalmente caen en la teleología. (Los lectores de este libro ya habrán
apreciado, por supuesto, que a menudo he incurrido en esta falta.) Sin embargo,
permítasenos evitar la actitud teleológica, al considerar el desarrollo del sistema
nervioso y del cerebro. La Naturaleza no ha ideado el cerebro; éste es el resultado
de una larga serie de accidentes evolutivos, por así decirlo, que lograron producir
caracteres que representaban una mejora en cada etapa y proporcionaban ventajas
al organismo que los poseía. En la lucha por la supervivencia, un animal que sea
más sensible a los cambios del medio ambiente que sus competidores, y pueda
responder a ellos más deprisa, se verá favorecido por la selección natural. Si, por
ejemplo, un animal logró poseer una, mancha sobre su cuerpo que era
excepcionalmente sensible a la luz, esta ventaja fue tan grande que la evolución
hacia el desarrollo de manchas oculares, y eventual, mente de ojos, resultó ser la
consecuencia inevitable.
realiza esta función es una médula neutral central. Los platelmintos son los
primeros que han desarrollado un «sistema nervioso central».
Esto no es todo. Los órganos de los sentidos de los platelmintos están localizados en
su extremo cefálico, la primera parte de su cuerpo que se pone en relación con el
medio ambiente cuando se desplaza, y así, naturalmente, la médula neural se halla
particularmente bien desarrollada en la región cefálica. La pequeña masa
desarrollada es el rudimento de un cerebro.
Gradualmente aparecen nuevos caracteres a medida que se incrementa la
complejidad de los grupos. Los órganos de los sentidos aumentan en número y
sensibilidad. La médula neural y sus ramas aumentan en complejidad, desarrollando
un sistema extenso de células nerviosas aferentes, que conducen los mensajes
hacia la médula neural, y eferentes, que transmiten los mensajes hacia los órganos
de respuesta. Las agrupaciones o núcleos de células nerviosas en las vías de
entrecruzamiento, en el seno cerebral, se hacen cada vez más complicadas. Las
fibras nerviosas adquieren formas que pueden transportar los impulsos con mayor
rapidez. En el calamar, el animal más ampliamente desarrollado de los no
segmentados, esta rápida transmisión se logra gracias al aumento de espesor de la
fibra nerviosa. En los animales segmentados, la fibra desarrolla una vaina de
material lipídico («mielina»), que incluso es más eficaz para aumentar la velocidad
del impulso nervioso. En el ser humano, algunas fibras nerviosas pueden transmitir
el impulso a cien metros por segundo (aproximadamente 360 km por hora),
mientras que esta velocidad es aproximadamente de solo 16 m por hora en algunos
de los invertebrados.
Los cordados introducen un cambio radical en la localización de la médula neural. En
ellos, este tronco nervioso principal (conocido mejor como médula espinal) corre a
lo largo de la parte dorsal en vez de la ventral, que es lo que ocurre en todos los
animales inferiores. Esto puede parecer un retraso -el situar la médula espinal en
una región más expuesta-. Pero los vertebrados tienen la médula espinal bien
protegida, en el interior de la columna ósea vertebral. La columna vertebral, aunque
su primera función es la de proteger la médula espinal, produjo sorprendentes
ventajas, pues sirvió como una visa sobre la que los cordados pudieron colgar masa
y peso. Desde la columna vertebral pudieron extenderse las costillas, con las que se
cierra el tórax, los maxilares, con los dientes para masticar, y los huesos largos que
forman las extremidades.
El cerebro de los cordados se desarrolla a partir de tres estructuras, que ya se
hallan presentes de una forma rudimentaria en los vertebrados más primitivos.
Estas estructuras, que al principio eran simples expansiones de tejido nervioso, son
el «cerebro anterior», el «cerebro medio» y el «cerebro posterior», división
señalada, por vez primera, por el anatomista griego Erasístrato de Quíos,
aproximadamente 280 años a. de J.C. En el extremo cefálico de la médula espinal,
ésta aumenta ligeramente de espesor y forma la parte posterior del cerebro
conocida como «bulbo raquídeo». Por detrás de esta sección, en casi todos los
cordados primitivos existe una extensión denominada el «cerebelo» («cerebro
pequeño»). Por delante de éste se encuentra el cerebro medio. En los vertebrados
inferiores, el cerebro medio se halla relacionado, sobre todo, con la visión y tiene un
par de lóbulos ópticos, mientras que el cerebro anterior se halla relacionado con el
olfato y el gusto y contiene los lóbulos olfatorios. El cerebro anterior, yendo de
delante hacia atrás, se halla dividido en la sección de los lóbulos olfatorios, el
«cerebro» y el «tálamo», cuya porción más inferior es el «hipotálamo». (El cerebro,
palabra de origen latino, al menos en el ser humano, es la parte más grande e
importante del órgano.) Eliminando el cerebro de animales y observando los
resultados, el anatomista francés Marie-Jean-Pierre Flourens demostró, en 1824,
que era precisamente el cerebro el responsable de la actividad intelectual y de la
voluntad. El revestimiento del cerebro, denominado corteza cerebral, es el
componente de más importancia. En los peces y anfibios, éste simplemente se halla
representado por una delgada capa (denominada pallium o manto). En los reptiles
aparece una nueva capa de tejido nervioso, llamado neopallium («manto nuevo»).
Es el verdadero precursor de las estructuras que aparecen más tarde en el proceso
evolutivo. Eventualmente se hace cargo del control de la visión y otras sensaciones.
En los reptiles, el centro integrador para los mensajes visuales ya se ha desplazado,
en parte, desde el cerebro medio al cerebro anterior; en las aves se completa esta
traslación. Se extiende virtualmente por toda la superficie del cerebro. Al principio
persiste como un delgado revestimiento, pero a medida que crece en los mamíferos
superiores, su superficie se hace mucho mayor que la del cerebro, por lo que
bajo el agua, y fue el descubrimiento del uso del fuego lo que diferenció por vez
primera a la Humanidad de todos los demás organismos. Más fundamental todavía,
la locomoción rápida a través de un medio tan viscoso como el agua requiere una
forma aerodinámica. Esto ha hecho imposible en el delfín el desarrollo del cualquier
equivalente del brazo y la mano humanos, con los que el medio ambiente puede ser
delicadamente investigado y manipulado.
Al menos por lo que respecta a la inteligencia eficaz, el Homo sapiens carece de
parangón en la Tierra en la que vive actualmente y, por lo que sabemos, en el
pasado.
Mientras consideramos la dificultad que supone determinar el nivel preciso de
inteligencia de una especie tal como el delfín, vale la pena decir que no existe un
método completamente satisfactorio para medir el nivel exacto de inteligencia de
miembros individuales de nuestra propia especie.
En 1904, los psicólogos franceses Alfred Binet y Théodore Simon idearon medios
para estudiar la inteligencia en función de las respuestas dadas a preguntas
juiciosamente seleccionadas. Tales «tests de inteligencia» dieron origen a la
expresión «cociente intelectual» (o «CI»), que representa el cociente entre la edad
mental, medida por la prueba, y la edad cronológica; este cociente es multiplicado
por 100 para eliminar los decimales. El vulgo ha llegado a conocer la importancia
del CI principalmente a través de la labor del psicólogo americano Lewis Madison
Terman.
El problema radica en que no se ha ideado ningún test independiente de una
determinada cultura. Preguntas sencillas sobre arados pueden resultar chocantes
para un muchacho inteligente de ciudad, y cuestiones simples sobre escaleras
rodantes pueden igualmente confundir a un muchacho inteligente educado en un
ambiente rural. Ambas pueden desconcertar a un aborigen australiano igualmente
inteligente, que, sin embargo, podría plantearnos preguntas acerca de bumeranes
que nos dejarían perplejos.
Otro test familiar tiene como misión explorar un aspecto de la mente aún más sutil
y huidizo que la inteligencia. Consiste en una serie de figuras hechas con tinta,
creadas por vez primera por un médico suizo, Hermann Rorschach, entre 1911 y
1921. Se le pide a la persona que se va a examinar que convierta estas manchas de
tinta en imágenes; del tipo de imagen que una persona construye en la «prueba de
Rorschach» se deducen conclusiones acerca de su personalidad. Sin embargo,
incluso en el mejor de los casos, es probable que tales conclusiones no sean del
todo concluyentes.
Sorprendentemente, muchos de los filósofos de la Antigüedad desconocieron casi
por completo la significación del órgano situado en el interior del cráneo humano.
Aristóteles consideró que el cerebro era simplemente una especie de dispositivo de
acondicionamiento de aire, por así decirlo, cuya función sería la de enfriar la sangre
excesivamente caliente. En la generación que siguió a la de Aristóteles, Herófilo de
Chacedón, investigando al respecto en Alejandría, reconoció correctamente que el
cerebro era el asiento de la inteligencia, pero, como era usual, los errores de
Aristóteles tenían más peso que las verdades de otros.
Por tanto, los pensadores antiguos y medievales tendieron a menudo a localizar las
emociones y la personalidad en órganos tales como el corazón, el hígado y el bazo
(de ahí las expresiones «con el corazón destrozado», «descarga su bilis», y otras
similares).
El primer investigador moderno del cerebro fue un médico y anatomista inglés del
siglo XVII, llamado Thomas Willis; describió el trayecto seguido por los nervios
hasta el cerebro. Posteriormente, un anatomista francés llamado Felix Vicq d'Azyr y
otros bosquejaron la anatomía del cerebro, pero no fue hasta el siglo XVIII cuando
un fisiólogo suizo, Albrecht von Haller, efectuó el primer descubrimiento crucial
sobre el funcionamiento del sistema nervioso, Von Haller halló que podía determinar
la contracción de un músculo mucho más fácilmente cuando estimulaba el nervio,
que cuando era el músculo el estimulado. Además, esta contracción era
involuntaria; incluso podía producirla estimulando el nervio después que el
organismo hubiera muerto. Seguidamente, Von Haller señaló que los nervios
conducían sensaciones. Cuando seccionaba los nervios de tejidos específicos, éstos
ya no podían reaccionar. El fisiólogo llegó a la conclusión que el cerebro recibía
sensaciones a través de los nervios y luego enviaba, de nuevo a través de los
nervios, mensajes que provocaban respuestas tales como la contracción muscular,
Supuso que todos los nervios se unían en el centro del cerebro. En 1811, el médico
austriaco Franz Joseph Gall llamó la atención sobre la «sustancia gris» en la
superficie del cerebro (que se distingue de la «sustancia blanca» en que ésta consta
simplemente de las fibras que proceden de los cuerpos de las fibras nerviosas,
siendo estas fibras de color blanco debido a sus vainas de naturaleza grasa). Gall
sugirió que los nervios no se reunían en el centro del cerebro, como había supuesto
Von Haller, sino que cada uno de ellos corría hasta una determinada región de la
sustancia gris, que él consideró el área coordinadora del cerebro. Gall opinaba que
diferentes zonas de la corteza cerebral tenían la misión de recibir sensaciones
procedentes de distintos lugares del organismo y también de enviar mensajes a
zonas específicas que provocaran respuestas.
Si una parte específica de la corteza era responsable de una propiedad específica de
la mente, lo más natural era suponer que el grado de desarrollo de aquella parte
reflejaría el carácter o mentalidad de la persona. Mediante la búsqueda de
protuberancias en el cráneo de una persona, podría determinarse si esta o aquella
porción del cerebro estaba aumentada y así juzgarse si dicha persona era
particularmente generosa o depravada o poseía un carácter especial. Siguiendo esta
forma de pensar, algunos de los seguidores de Gall fundaron la seudociencia de la
«frenología», que estuvo bastante en boga en el siglo XIX y que, en realidad, aún
no ha muerto hoy día. (Sorprendentemente, aunque Gall y sus seguidores señalaron
que la frente alta y la cabeza redonda eran signos de inteligencia -un punto de vista
que todavía influye en la opinión de las gentes- el propio Gall tuvo un cerebro
desusadamente pequeño, casi un 15 % inferior al promedio.) Pero el hecho de que
la frenología, tal como la desarrollaron los charlatanes, carezca de sentido, no
significa que la idea original de Gall, de la especialización de funciones en zonas
particulares de la corteza cerebral, fuera errónea. Incluso antes de que se realizaran
estudios específicos del cerebro, se observó que la lesión de una porción particular
del cerebro podía dar lugar a una afección particular. En 1861, el cirujano francés
Pierre-Paul Broca, mediante un cuidadoso estudio post mortem del cerebro,
demostró que los pacientes con «afasia» (la incapacidad para hablar o comprender
el lenguaje) por lo general presentaban la lesión física de un área particular del
cerebro izquierdo, un área llamada «circunvolución de Broca» a consecuencia de
ello. Luego, en 1870, dos científicos alemanes, Gustav Fritsch y Eduard Hitzig,
empezaron a localizar las funciones de supervisión del cerebro por estimulación de
varias zonas de él y observación de los músculos que respondían. Varios años más
tarde, esa técnica fue considerablemente perfeccionada por el fisiólogo suizo Walter
Rudolf Hess, que compartió (con Egas Moniz) el premio Nobel de Medicina y
Fisiología de 1949 por este trabajo.
Con tales métodos se descubrió que una banda específica de la corteza se hallaba
particularmente implicada en la estimulación de los diversos músculos voluntarios.
Por tal motivo, esta banda se denomina «área motora». Al parecer, presenta una
relación invertida con respecto al cuerpo; las porciones más superiores del área
motora, hacia la parte superior del cerebro, estimulan las partes más inferiores de
la pierna; cuando se avanza hacia abajo en el área motora, son estimulados los
músculos más proximales de la pierna, luego los músculos del tronco, después los
del brazo y la mano y, finalmente, los de la nuca y la mano.
Detrás del área motora existe otra zona de la corteza que recibe muchos tipos de
sensaciones y que, por este motivo, fue denominada «área sensitiva». Como en el
caso del área motora, las regiones del área sensitiva en la corteza cerebral se hallan
divididas en secciones que parecen dispuestas inversamente con respecto al
organismo. Las sensaciones procedentes del pie alcanzan la parte superior del área,
sucesivamente, a medida que vamos hacia abajo, llegan al área las sensaciones
procedentes de la pierna, cadera, tronco, nuca, brazo, mano y dedos y, por último,
de la lengua. Las secciones del área sensitiva relacionadas con los labios, lengua y
la mano son (como era de esperar) mayores, en proporción al tamaño real de
aquellos órganos, que lo son las secciones correspondientes a otras partes del
cuerpo.
Si a las áreas motora y sensitiva se les añaden aquellas secciones de la corteza
cerebral que primariamente reciben las impresiones procedentes de los principales
órganos de los sentidos, los ojos y los oídos, todavía queda una porción importante
de la corteza sin una función claramente asignada y evidente.
Esta aparente falta de asignación ha dado origen a la afirmación corriente de que el
ser humano sólo usa una quinta parte de su cerebro. Por supuesto, esto no es así;
lo que realmente podemos decir es que una quinta parte del cerebro del ser
humano tiene una función evidente. Del mismo modo podríamos decir que una
empresa constructora de rascacielos está usando sólo la quinta parte de sus,
En 1954, el fisiólogo James Olds descubrió otra función, más bien aterradora, del
hipotálamo. Contiene una región que, cuando se estimula, aparentemente da origen
a una sensación sumamente placentera. Un electrodo fijado en el centro del placer
de una rata, dispuesto de tal forma que puede ser estimulado por el propio animal,
permite estimularlo hasta ocho mil veces en una hora durante varias horas o días,
de tal forma que el animal no se hallará interesado en la ingestión de alimento, las
relaciones sexuales y el sueño. Evidentemente, todas las cosas deseables en la vida
lo son sólo en la medida en que estimulan el centro del placer. Cuando se logra
estimularlo directamente, todo lo demás resulta innecesario.
El hipotálamo también contiene un área relacionada con el ciclo de vigilia-sueño, ya
que la lesión de algunas de sus partes induce un estado similar al sueño en los
animales. El mecanismo exacto por el cual el hipotálamo realiza su función es
incierto. Una teoría es que envía señales a la corteza, que a su vez emite señales en
respuesta a aquéllas, de forma que ambas estructuras se estimulan mutuamente. Al
proseguir el estado de vigilia, la coordinación entre ellas comienza a fallar, las
oscilaciones se hacen irregulares y el individuo se vuelve somnoliento. Un violento
estímulo (como un ruido intenso, una sacudida persistente de los hombros o, por
ejemplo, también la interrupción brusca de un ruido continuo) despertará a la
persona dormida. En ausencia de tales estímulos, se restituirá eventualmente la
coordinación entre el hipotálamo y la corteza, y el sueño cesará espontáneamente;
o quizás el sueño se hará tan superficial que un estímulo ordinario, del que hay
abundancia en el medio ambiente, bastará para despertarlo.
Durante el sueño tendrá lugar una actividad onírica -datos sensoriales más o menos
apartados de la realidad-. El sueño es un fenómeno aparentemente universal; las
personas que dicen dormir sin soñar, simplemente es que no logran recordar los
sueños. El fisiólogo americano W. Dement, mientras estudiaba a personas
durmiendo, apreció períodos de movimientos rápidos de los ojos, que algunas veces
persistían durante varios minutos (REM). Si el individuo que dormía era despertado
durante esos períodos, por lo general decía recordar un sueño. Además, si era
constantemente importunado durante esos períodos, empezaba a sufrir trastornos
psíquicos; estos trastornos se multiplicaban durante las noches sucesivas, como si
el individuo intentara volver a tener el sueño perdido.
Por tanto, parece que la actividad onírica desempeña una importante función en la
actividad del cerebro. Se ha sugerido que, gracias a los sueños, el cerebro revisa los
sucesos del día, para eliminar lo trivial y reiterativo que, de otro modo, podría
confundirle y reducir su eficacia. El sueño es el período natural en el que se
desarrolla esa actividad, pues entonces el cerebro no debe realizar muchas de las
funciones de vigilancia. La imposibilidad de realizar esta tarea (debido a la
interrupción) debe afectar tanto a la actividad cerebral, que este órgano debe
intentar realizar la inacabada tarea durante los periodos de vigilia, produciendo
alucinaciones (es decir sueños cuando el individuo está despierto) y otros síntomas
desagradables. Naturalmente, sería sorprendente que ésta no fuera una de las
funciones principales del sueño, ya que es muy escaso el reposo físico durante el
sueño que no pueda conseguirse en el curso de una vigilia tranquila.
El sueño REM también se da en niños, que pasan así la mitad del tiempo en que
duermen y de los cuales resulta difícil suponer que posean motivaciones para soñar.
Puede ser que el sueño REM mantenga el desarrollo del sistema nervioso. (Ha sido
observado en otros mamíferos, aparte el hombre.) Por debajo y detrás del cerebro
se encuentra el cerebelo, más pequeño (dividido también en dos «hemisferios
cerebelosos»), y el «tallo cerebral», que se hace cada vez más estrecho y se
continúa, sin modificaciones aparentes del diámetro, con la «médula espinal», que
se extiende cerca de cuarenta y cinco centímetros hacia abajo, por el centro hueco
de la columna vertebral.
La médula espinal consiste de sustancia gris (en el centro) y sustancia blanca (en la
periferia); a ellas se unen una serie de nervios, que se dirigen en su mayor parte a
los órganos internos -corazón, pulmones, aparato digestivo, etc.- órganos que se
hallan más o menos sometidos a control involuntario.
En general, cuando resulta seccionada la médula espinal, por una enfermedad o un
traumatismo, la parte del cuerpo situada por debajo del segmento lesionado se
halla, digamos, desconectada. Pierde la sensibilidad y está paralizada. Si la médula
es seccionada en la región de la nuca, la muerte tiene lugar debido a que se paraliza
el tórax y, con ello, la actividad pulmonar. Por este motivo resulta fatal el
«desnucamiento», y ahorcar es una forma fácil de ejecución. Es la sección de la
médula, más que la rotura de un hueso, la que tiene consecuencias fatales.
Acción Nerviosa
No son sólo las diversas porciones del sistema nervioso central las que se hallan
unidas entre sí por nervios, sino todo el organismo, que de esta manera se halla
sometido al control de ese sistema. Los nervios relacionan entre sí los músculos, las
glándulas y la piel; incluso invaden la pulpa de los dientes (como sabemos por
propia experiencia con ocasión de un dolor de muelas).
Los nervios fueron observados ya en tiempos antiguos, pero no se comprendió ni su
estructura ni su función.
Hasta los tiempos modernos, se consideró que eran huecos y servían para el
transporte de un fluido sutil. Teorías un tanto complicadas, desarrolladas por
teoría de las neuronas. Golgi y Ramón y Cajal, aunque divergían acerca de diversos
detalles de sus hallazgos, compartieron el premio Nobel de Medicina y Fisiología de
1906.
Estos nervios forman dos sistemas: el «simpático y el parasimpático». (Los
términos tienen su origen en los conceptos semimísticos de Galeno.) Ambos
sistemas actúan casi siempre sobre cualquier organismo interno, ejerciendo un
control a través de sus efectos opuestos. Por ejemplo, los nervios simpáticos
aceleran los latidos cardíacos, los nervios parasimpáticos los hacen, más lentos; los
nervios simpáticos disminuyen la secreción de jugos gástricos; los parasimpáticos
estimulan tales secreciones, y así sucesivamente. Por tanto, la médula espinal,
junto con otras porciones subcerebrales del encéfalo, regula la actividad de los
órganos de una manera automática. Esta serie de controles involuntarios fueron
investigados con detalle por el fisiólogo británico John Newport Langley, en la
década de 1890, y los denominó «sistema nervioso autónomo o vegetativo».
Hacía 1830, el fisiólogo inglés Marshall Hall estudió otro tipo de comportamiento
que parecía ser en cierto modo voluntario, pero que resultó ser totalmente
involuntario. Cuando accidentalmente se toca con la mano un objeto caliente, ésta
se retira de forma instantánea. Si la sensación de calor tuviera que llegar hasta el
cerebro, ser considerada e interpretada allí y provocar en este nivel el apropiado
mensaje hacia la mano, ésta ya se habría chamuscado cuando dicho mensaje
hubiera sido recibido. La médula espinal, no pensante, realiza toda esta tarea de
forma automática y mucho más de prisa. Hall dio el nombre de «reflejo» a este
proceso.
El reflejo tiene lugar a través de dos o más nervios, que actúan de forma
coordinada constituyendo un «arco reflejo». El arco reflejo más simple posible es el
que consta de dos neuronas, una sensitiva (que aporta sensaciones al «centro
reflejo» en el sistema nervioso central, por lo general en algún punto de la médula
espinal) y otra motora (que transmite instrucciones para el movimiento desde el
sistema nervioso central). Las dos neuronas pueden hallarse conectadas por una o
más «neuronas intercalares». Un estudio particular de tales arcos reflejos y de su
función en el organismo fue realizado por el neurólogo inglés Charles Scott
Los reflejos dan lugar a una respuesta tan rápida y exacta a un estímulo particular,
que ofrecen un método sencillo para comprobar la integridad general del sistema
nervioso. Un ejemplo familiar lo constituye el «reflejo patelar» o, como usualmente
se conoce, reflejo rotuliano. Cuando se cruzan las piernas, un golpe repentino por
debajo, de la rodilla, en la parte superior de la pierna, determina una sacudida de la
misma, un movimiento de puntapié; hecho puesto de manifiesto, por vez primera,
en 1875, por el neurólogo alemán Carl Friedrich Otto Westphal, que llamó la
atención sobre su importancia médica. El reflejo rotuliano no tiene importancia en sí
mismo, pero su ausencia puede suponer la existencia de algún trastorno grave que
afecte a la porción del sistema nervioso en la que se encuentra el arco reflejo.
Algunas veces, la lesión de una parte del sistema nervioso central determina la
aparición de un reflejo anormal. Si se rasca la planta del pie, el reflejo normal
determina que los dedos del pie se aproximen unos a otros y se dirijan hacia abajo.
Ciertos tipos de lesión del sistema nervioso central motivarán que el dedo gordo del
pie se dirija hacia arriba en respuesta a este estímulo, y que los dedos se separen y
se dirijan hacia abajo. Éste es el «reflejo de Babinski», llamado así en honor al
neurólogo francés Joseph-F.-F. Babinski, que lo describió en 1896.
En el ser humano, los reflejos están decididamente subordinados a la voluntad
consciente. Podemos obligar a nuestra mano a que permanezca en el fuego;
ninguna modificación. La araña construye una tela maravillosa, pero si esta tela no
cumpliera su función, no podría aprender a construir otro tipo de tela. En cambio,
un muchacho obtiene grandes beneficios de no haber sido dotado con una
perfección congénita. Debe aprender lentamente y obtener sólo resultados
imperfectos en el mejor de los casos; pero puede realizar una tarea imperfecta con
el método por él elegido. Lo que el hombre ha perdido en aptitud y seguridad, lo ha
ganado en una casi ilimitada flexibilidad.
Sin embargo, trabajos recientes subrayan el hecho de que no siempre existe una
clara diferenciación entre el instinto y el comportamiento aprendido. Por ejemplo,
por simple observación parece como si los polluelos o los patitos, recién salidos del
huevo, siguieran a sus madres por instinto. Una observación más atenta muestra
que no es así.
El instinto no es seguir a la madre, sino simplemente seguir a algo de una forma o
color o movimiento característicos. Cualquier objeto que proporcione esta sensación
en un cierto período de la temprana vida, es seguido por la criatura y seguidamente
aceptado como la madre. Puede ser realmente la madre; y casi invariablemente lo
es en realidad. Pero no precisa serlo. En otras palabras, el seguir a la madre es casi
instintivo, pero se aprende que es la «madre» seguida. (Gran parte de la base
experimental de estas concepciones fue aportada por el naturalista austriaco Konrad
Z. Lorenz, que en el curso de los estudios realizados hace unos treinta años fue
seguido, aquí y allá, por una manada de gansos.) El establecimiento de un
determinado tipo de comportamiento, en respuesta a un estímulo particular que ha
incidido en un cierto momento de la vida, se denomina «período crítico». En los
polluelos, el período crítico de «impresión de la madre» se encuentra entre las 13 y
16 horas de haber salido del huevo. Para un perrito, el período crítico se halla entre
las 3 y 7 semanas, durante las cuales los estímulos que es probable que incidan
sobre él impriman varios aspectos de lo que nosotros llamamos el comportamiento
normal del perro.
La impresión es la forma más primitiva del comportamiento aprendido; es un
comportamiento tan automático, que tiene lugar en un tiempo tan limitado y
sometido a una serie tan general de condiciones, que es fácil confundirlo con un
instinto.
Una razón lógica que explica el fenómeno de la impresión es que permite una cierta
flexibilidad deseable. Si un polluelo naciera con la capacidad instintiva de distinguir
a su verdadera madre y sólo siguiera a ella, y si por cualquier motivo la verdadera
madre estuviera ausente el primer día de vida del polluelo, esta criatura se
encontraría indefensa. Por tanto, la maternidad se halla sujeta al azar durante unas
pocas horas, y el polluelo puede resultar impreso por cualquier gallina de la
vecindad y así seguir a una madre adoptiva.
Como se ha indicado anteriormente, fueron las experiencias de Galvani, poco antes
del comienzo del siglo XIX, las que indicaron por primera vez alguna relación entre
la electricidad y la actividad del músculo y el nervio.
Las propiedades eléctricas del músculo condujeron a una aplicación médica
sorprendente, gracias a la labor del fisiólogo holandés Willem Einthoven. En 1903
desarrolló un galvanómetro extraordinariamente sensible, tanto que respondía a las
pequeñas fluctuaciones del potencial eléctrico del corazón que late. Hacia 1906,
Einthoven registró las deflexiones de este potencial (denominándose el registro
«electrocardiograma») y las correlacionó con diversos tipos de trastornos cardíacos.
Se supuso que las propiedades eléctricas más sutiles de los impulsos nerviosos eran
iniciadas y propagadas por modificaciones químicas en el nervio. Esto pasó de ser
una simple hipótesis a ser un hecho perfectamente establecido gracias a la labor
experimental del fisiólogo alemán Emil Du Bois-Reymond, en el siglo XIX; mediante
un delicado galvanómetro fue capaz de detectar pequeñas corrientes eléctricas en
los nervios estimulados.
Con los instrumentos electrónicos modernos se ha conseguido alcanzar un increíble
grado de sensibilidad y exactitud en las investigaciones de las propiedades
eléctricas del nervio. Mediante la colocación de delgados electrodos en diferentes
puntos de una fibra nerviosa y detectando las modificaciones eléctricas mediante un
osciloscopio, es posible medir la intensidad de un impulso nervioso, su duración,
velocidad de propagación, etc. Gracias a la labor realizada en este campo, los
fisiólogos americanos, Joseph Erlanger y Herbert Spencer Gasser, compartieron el
premio Nobel de Medicina y Fisiología de 1944.
Si se aplican pequeños impulsos eléctricos de intensidad creciente a una particular
célula nerviosa, hasta una cierta intensidad ésta no responderá. Luego,
manifiesto cuando la persona se halla en reposo con los ojos cerrados. Cuando los
ojos están abiertos, pero sin ver un objeto iluminado con una forma determinada,
persiste la onda alfa. Sin embargo, cuando el individuo ve el medio ambiente con su
multiplicidad de formas, desaparece la onda alfa o bien es enmascarada por otros
ritmos más prominentes. Después de un cierto intervalo, si no aparece nada nuevo
en el campo visual, vuelve a aparecer la onda alfa. Los nombres característicos de
los otros tipos de ondas son «ondas beta», «ondas delta» y «ondas theta».
Los electroencefalogramas («registros eléctricos de la actividad cerebral», más
conocidos con las siglas «EEG») han sido ampliamente estudiados y revelan que
cada individuo posee su propio tipo de comportamiento electroencefalográfico, que
varía con la excitación y el sueño. Aunque el electroencefalograma aún está lejos de
ser un método adecuado para «leer los pensamientos» o reflejar la actividad
intelectual de forma precisa, ayuda a diagnosticar importantes trastornos de la
función cerebral, particularmente la epilepsia. También puede utilizarse para
localizar zonas de lesión cerebral o tumores cerebrales.
En la década de 1960, para la interpretación de los EEG se utilizaron computadoras
especialmente ideadas. Si se provoca un cambio ambiental particularmente pequeño
en un individuo, es de suponer que se producirá alguna respuesta en el cerebro, la
cual se reflejará por una pequeña alteración del tipo de electroencefalograma en el
momento en que sea introducida la modificación. Sin embargo, el cerebro se halla
ocupado en otras muchas actividades y la pequeña alteración en el EEG no se
pondrá de manifiesto. No obstante, si se repite el proceso una y otra vez, la
computadora puede ser programada de tal modo que halle el valor medio del tipo
de EEG y registre la diferencia que aparece de forma reiterada.
Hacia 1964, el fisiólogo americano Manfred Clynes comunicó análisis lo
suficientemente minuciosos como para indicar, mediante el estudio de sólo los
electroencefalogramas, el color que había estado mirando el individuo estudiado. El
neurofisiólogo inglés W. Grey Walter comunicó de forma similar un tipo de señales
cerebrales que parecían características del proceso de aprendizaje. Aparecen
cuando la persona estudiada tiene razones para suponer que se halla ante un
estímulo que le incita a pensar o actuar. Walter las denominó «ondas de
expectación». El fenómeno inverso, es decir, el de provocar actividades específicas
Comportamiento Humano
A diferencia de los fenómenos físicos, tales como los movimientos de los planetas o
el comportamiento de la luz, la respuesta a los estímulos de los seres vivos nunca
ha sido reducida a leyes naturales rigurosas y quizá nunca lo sea. Hay muchos
autores que insisten en que el estudio de la conducta del ser humano no puede
llegar a ser una verdadera ciencia, en el sentido de ser capaz de explicar o predecir
el comportamiento en una situación dada, basándose en leves naturales
universales. No obstante, la vida no es una excepción de la ley natural, y puede
argüirse que el comportamiento de los seres vivos se explicaría totalmente si se
conocieran todos los factores operantes. La cuestión crucial radica en esta última
frase. Es improbable que algún día se conozcan todos los factores; hay demasiados
y son excesivamente complejos. Sin embargo, el hombre no precisa renunciar a la
comprensión de sí mismo. Existe un amplio espacio para un mejor conocimiento de
sus propias complejidades mentales, y aún cuando nunca podamos llegar al final de
la senda, tenemos la esperanza de correr un largo trecho por ella.
No sólo es este tema particularmente complejo, sino que su estudio no ha
experimentado grandes progresos durante mucho tiempo. La Física alcanzó la
madurez en 1600, y la Química, en 1775, pero el estudio mucho más complejo de la
«Psicología experimental» data sólo de 1879, cuando el fisiólogo alemán Wilhelm
Wundt creó el primer laboratorio dedicado al estudio científico del comportamiento
humano. El propio Wundt se interesó, sobre todo, por las sensaciones y la forma
como el ser humano percibía los detalles del universo a su alrededor.
Casi al mismo tiempo se inició el estudio del comportamiento humano en una
aplicación particular: la del ser humano como ente trabajador. En 1881, el ingeniero
americano Frederick Winslow Taylor comenzó a medir el tiempo requerido para
realizar ciertas tareas y elaboró métodos para organizar de tal forma el trabajo que
se redujera al mínimo el tiempo necesario para efectuarlo.
Fue el primer «experto en eficiencia» y, al igual que todos los expertos en eficiencia,
que tienden a perder la noción de los valores ocultándose tras el cronómetro,
resultó poco popular entre los trabajadores.
Pero cuando estudiamos el comportamiento humano, paso a paso, bien en las
condiciones de control del laboratorio o de forma empírica en una fábrica, parece
que estamos hurgando en una delicada máquina con toscas herramientas.
En los organismos sencillos podemos ver directamente respuestas automáticas de la
clase llamada «tropismos» (derivado de una palabra griega que significa «dirigirse
a»). Las plantas muestran «fototropismo» (se dirigen hacia la luz), «hidrotropismo»
(se dirigen hacia el agua: en este caso, las raíces), y «quimiotropismo» (se dirigen
hacia sustancias químicas particulares). El quimiotropismo también es característico
de muchos animales, desde los protozoos a las hormigas. Como se sabe, ciertas
mariposas se dirigen volando hacia un olor distante incluso tres kilómetros. Que los
tropismos son completamente automáticos se demuestra por el hecho que una
mariposa con fototropismo volará incluso hacia la llama de una vela.
Los reflejos mencionados anteriormente no parecen progresar mucho más allá de
los tropismos, y la impresión, también citada, representa el aprendizaje, pero de
una forma tan mecánica que apenas si merece ese nombre. Así pues, ni los reflejos
ni la impresión pueden ser considerados característicos sólo de los animales
inferiores: el hombre también los manifiesta.
El niño, desde que nace, flexionará un dedo con fuerza si se le toca la palma de la
mano, y succionará un pezón si se le coloca entre sus labios. Resulta evidente la
importancia de tales instintos, para garantizar que el niño no se caiga ni se
desnutra.
También parece inevitable que el niño esté sujeto a la impresión. No es un sujeto
adecuado para la experimentación, por supuesto, pero pueden obtenerse
conocimientos mediante observaciones accidentales. Los niños que a la edad de
empezar a articular sonidos no se hallen expuestos a los del lenguaje real, no
pueden desarrollar más tarde la capacidad de hablar, o si lo hacen es en un grado
anormalmente limitado. Los niños que viven en instituciones impersonales, donde
son bien alimentados y donde tienen ampliamente cubiertas sus necesidades físicas,
pero donde no gozan del cariño y cuidados maternos, se convierten en pequeños
seres entristecidos. Su desarrollo mental y físico se halla considerablemente
retrasado y muchos mueren al parecer sólo por la falta del «calor maternal», por lo
que puede suponerse que les faltan estímulos adecuados para determinar la
impresión de modos de comportamiento necesarios. De forma similar, los niños que
son desprovistos indebidamente de los estímulos que implica la compañía de otros
niños durante ciertos períodos críticos de la niñez, desarrollan personalidades que
pueden estar seriamente distorsionadas de una forma u otra.
Por supuesto, puede objetarse que los reflejos y la impresión desempeñan sólo en la
infancia un papel importante. Cuando un ser humano alcanza la edad adulta, es
entonces un ser racional que responde de una forma algo más que mecánica. Pero,
¿lo es? Dicho de otra manera, ¿posee el hombre libre albedrío? es decir, ¿piensa lo
que quiere?, o bien su comportamiento, en algunos aspectos, se halla determinado
de forma absoluta por el estímulo, como lo estaba el toro de la experiencia de
Delgado descrita en la página 170.
Puede afirmarse, tomando como base la teología o la fisiología, la existencia de libre
albedrío, pero no conozco a nadie que haya encontrado una forma de demostrarlo
experimentalmente. Demostrar el «determinismo», es decir, lo contrario del libre
albedrío, tampoco es fácil. Sin embargo, se han hecho intentos en esa dirección. Los
más notables fueron los del fisiólogo ruso Iván Petrovich Pávlov.
Pávlov comenzó con un interés específico en el mecanismo de la digestión. Mostró
hacia la década de 1880 que el jugo gástrico era segregado en el estómago tan
pronto como se colocaba alimento en la lengua del perro; el estómago segregaba
este jugo, aunque el alimento no llegara hasta él. Pero si se seccionaba el nervio
vago (que corre desde el bulbo raquídeo hasta diversas partes del tubo digestivo)
cerca del estómago, cesaba la secreción. Por su labor en fisiología de la digestión,
Pávlov recibió el premio Nobel de Fisiología y Medicina de 1904.
Pero, al igual que otros Premios Nobel (principalmente, Ehrlich y Einstein), Pávlov
realizó otros descubrimientos tan notorios como aquellos por los que había
realmente recibido el premio.
9
O hay un error de traducción o hay un error de Asimov, muy poco probable teniendo en cuenta cómo escribía,
pero la afirmación de cómo escribir “el” no es correcta, ni siquiera en inglés (N. de Xixoxux)
En las primeras décadas de este siglo, el psicólogo americano John Broadus Watson
construyó toda una teoría del comportamiento humano, llamada «behaviorismo»,
basada en el condicionamiento. Watson incluso llegó a sugerir que la gente no tenía
un control deliberado sobre la forma como se comportaba; ésta se hallaba
determinada por condicionamientos. Aunque esta teoría fue popular en aquella
época, nunca tuvo gran aceptación entre los psicólogos. En primer lugar, aún
cuando la teoría fuera básicamente correcta -si el comportamiento sólo es guiado
por el condicionamiento- el «behaviorismo» no vierte mucha luz sobre aquellos
aspectos del comportamiento humano que tienen el máximo interés para nosotros,
tales como la inteligencia creadora, la capacidad artística y el sentido de lo correcto
y lo incorrecto.
Sería imposible identificar todas las influencias condicionantes y relacionarlas a un
modelo de pensamientos y creencias de cualquier forma mensurable; y algo que no
puede ser medido no puede ser sujeto de un estudio realmente científico.
En segundo lugar, ¿qué es lo que tiene que ver el condicionamiento con un proceso
tal como la intuición? La mente, bruscamente, asocia dos pensamientos o sucesos
previamente no relacionados, en apariencia por azar, y crea una idea o respuesta
enteramente nueva.
Los gatos y los perros, al resolver tareas (por ejemplo, hallar cómo deben accionar
una palanca con objeto de abrir una puerta), pueden hacerlo por un proceso de
ensayo y error. Pueden moverse casi al azar y frenéticamente hasta que alguno de
sus movimientos acciona la palanca. Si se les permite repetir la tarea, una vaga
memoria del movimiento adecuado puede inducirles a hacerlo con mayor rapidez, y
luego aún más tempranamente en el siguiente intento, hasta que por último
mueven en el primer intento la palanca. El animal más inteligente es el que realiza
menos intentos para, a partir de los movimientos según el proceso de ensayo-error,
llegar a una acción útil con un cierto propósito.
Cuando llegamos al ser humano, la memoria ya no es escasa. La tendencia suele
ser buscar una moneda de diez céntimos, que se ha caído, dirigiendo ojeadas al
azar hacia el suelo, pero por experiencias pasadas puede mirar en lugares en los
que ha hallado la moneda en ocasiones precedentes, o bien mirar en la dirección del
sonido que ha producido al caer, o bien efectuar, una búsqueda sistemática por el
latidos del corazón simulando un estado de ansiedad, pero eso es una manipulación
consciente del sistema nervioso autónomo. ¿Es posible acelerar la marcha del
corazón o elevar la presión sanguínea sin recurrir a las manipulaciones extremas de
los músculos o el cerebro? El psicólogo americano Neal Elgar Miller y sus
colaboradores han llevado a cabo experimentos de condicionamiento con ratas:
recompensaban a los animales cuando éstos lograban elevar su presión sanguínea
por una razón u otra, o acelerar y retardar los latidos de su corazón. Con el tiempo,
y estimuladas por el codiciable premio, las pequeñas bestias aprendieron a ejecutar
espontáneamente los cambios efectuados por el sistema nervioso autónomo -tal
como hubieran aprendido a apretar una palanca con idéntica finalidad-.
Por lo menos uno de los diversos programas experimentales en los que se
empleaban voluntarios humanos (varones) a quienes se recompensaba con rápidas
proyecciones luminosas de fotografías de muchachas desnudas, demostraron la
capacidad de los voluntarios para suscitar una elevación o un descenso de la presión
sanguínea como respuesta, los voluntarios no sabían lo que se esperaba de ellos
para provocar las proyecciones -y las imágenes desnudas-, pero tras unas cuantas
pruebas percibieron que con esa actitud podían contemplar más a menudo el grato
espectáculo.
Asimismo los controles corporales autónomos tienen más sutileza de lo que se había
supuesto en un principio. Puesto que los organismos naturales están sujetos a los
ritmos naturales -el flujo y reflujo de las mareas, la alternancia algo más lenta del
día y la noche, la oscilación todavía más pausada de las estaciones-, no es
sorprendente que ellos mismos reaccionen también rítmicamente. Los árboles se
desprenden de sus hojas en otoño y echan brotes en primavera; los seres humanos
tienen sueño por la noche y se despabilan al amanecer.
Lo que no se percibió claramente hasta fechas muy recientes fue la complejidad y
multiplicidad de las respuestas rítmicas, así como su naturaleza automática, que
persiste incluso en ausencia del ritmo ambiental.
Así, por ejemplo, las hojas de los vegetales se yerguen y abaten en un ritmo diurno
coincidiendo con la salida y la puesta del sol. Esto lo reveló la fotografía a altas
velocidades. Los arbustos creciendo en la oscuridad no mostraron ese ciclo, pero la
potencialidad estaba allí, y una exposición a la luz -una tan sólo- fue suficiente para
consumidores la ilusión de conocer parte del paraíso al que sus almas irían después
de morir, y obedecían cualquier mandato de su jefe, llamado el «Viejo de las
Montañas», al objeto de recibir la llave del cielo. Sus órdenes eran matar a los
enemigos de las reglas por él dictadas y a los oficiales hostiles del Gobierno
musulmán: esto dio origen a la palabra «asesino», del árabe haxxaxin (el que usa
haxix). Esta secta aterrorizó a la región hasta el siglo XII, en el que los invasores
mongólicos, en 1226, se extendieron por las montañas y mataron hasta el último
asesino.
El equivalente moderno de las hierbas euforizantes de los primeros tiempos (aparte
del alcohol) es el grupo de fármacos conocidos como «tranquilizantes». Uno de los
tranquilizantes se conoce en la India desde 1000 años a. de J.C., en forma de una
planta llamada Rauwolfia serpentina. A partir de las raíces secas de esta planta,
unos químicos americanos extrajeron, en 1952, la «reserpina», el primero de los
tranquilizantes de uso popular. Varias sustancias con efectos similares poseen una
estructura química más sencilla y han sido sintetizadas desde entonces.
Los tranquilizantes son sedantes, pero con una cierta diferencia. Reducen la
ansiedad, sin deprimir apreciablemente otras actividades mentales. No obstante,
tienden a crear somnolencia en las personas, y pueden ejercer otros efectos
indeseables. Pero se halló que constituían una ayuda inapreciable para sedar y
mejorar de su dolencia a los dementes, incluso a algunos esquizofrénicos. Los
tranquilizantes no curan la demencia, pero suprimen ciertos síntomas que se
oponen al tratamiento adecuado.
Al suprimir la hostilidad y la ira de los pacientes, y al calmar sus temores y
ansiedades, reducen la necesidad de medidas drásticas encaminadas a restringir su
libertad, facilitan que los psiquiatras establezcan contacto con los pacientes y
aumentan las posibilidades de que el paciente abandone el hospital.
Pero los tranquilizantes alcanzaron una aceptación tan enorme entre el público, que
aparentemente llegaron a considerarlos una panacea para olvidarse de todos sus
problemas.
La reserpina resultó tener una gran semejanza con una importante sustancia del
cerebro. Una porción de su compleja molécula es bastante similar a la sustancia
10
La diferencia de nombres “serotonina” y “serotina” figura en el original en castellano. (N. de Xixoxux)
que les obligaban a aprender nuevas habilidades, tales como mantener el equilibrio
sobre un alambre durante largos periodos de tiempo.
En 1959, descubrió que las células cerebrales de las ratas obligadas a este
aprendizaje aumentaban su contenido de ARN en un 12 % mas que las células de
otras ratas cuya vida se desarrollaba normalmente.
La molécula de ARN es tan grande y compleja que, si cada unidad de memoria
almacenada estuviera constituida por una molécula de ARN de distinto tipo, no
necesitaríamos preocuparnos acerca de la capacidad. Existen tantos patrones
diferentes de ARN que incluso el número de mil billones es insignificante en
comparación.
Pero, ¿deberíamos considerar el ARN como elemento aislado? Las moléculas de ARN
se forman en los cromosomas con arreglo al esquema de las moléculas de ADN. ¿No
será que cada persona lleva consigo una gran reserva de memorias potenciales -
«un banco de memoria», por así decirlo- en sus moléculas de ADN, solicitadas y
activadas por los acontecimientos corrientes con las adecuadas modificaciones? y
¿acaso el ARN representa el fin? La función primaria del ARN es la de formar
moléculas proteínicas específicas. ¿Será la proteína y no el ARN lo que esté
relacionado verdaderamente con la función «memoria»? Una forma de verificarlo es
el empleo de cierta droga llamada «puromicina», que intercepta la formación de
proteínas por el ARN. El matrimonio americano Louis Barkhouse Flexner y Josepha
Barbar Flexner, trabajando en equipo, condicionaron unos cuantos ratones para
resolver un laberinto e inmediatamente después les inyectaron puromicina. Los
animales olvidaron todo lo aprendido. La molécula de ARN estaba todavía allí, pero
no podía formar la molécula proteínica básica. Mediante el empleo de la puromicina,
los Flexner demostraron que, por ese conducto, se podía borrar la memoria de corto
plazo. Presumiblemente, en este último caso se habían formado ya las proteínas. No
obstante, también era posible que la memoria fuera más sutil y no hubiera forma de
explicarla en el simple plano molecular. Según ciertos indicios, también pueden
mediar ahí los esquemas de la actividad neural. Evidentemente, queda todavía
mucho por hacer.
Retroacción O Retrorregulación
de su máquina. Watt concibió un dispositivo que consistía de un eje vertical con dos
pesos unidos a él lateralmente mediante varillas deslizantes, que permitían a los
pesos ascender y descender. La presión del vapor hacía girar el eje. Cuando
aumentaba la presión del vapor, el eje giraba más de prisa y la fuerza centrífuga
hacía que los pesos se elevaran. Al moverse, cerraban parcialmente la válvula,
impidiendo la salida del vapor. Cuando la presión del vapor descendía, el eje giraba
con menos rapidez, la gravedad empujaba los pesos hacia abajo y la válvula se
abría.
Así, la válvula de Watt controlaba la velocidad del eje y, por tanto, la fuerza
liberada, manteniéndola a un nivel uniforme. Cualquier desviación de ese nivel
ponía en marcha una serie de fenómenos que corregían la desviación. Esto se
denomina retrorregulación o retroacción: la propia desviación genera continuamente
información en sentido retrógrado y sirve para medir la corrección requerida. Un
ejemplo moderno muy familiar de un dispositivo de retrorregulación es el
«termostato», usado en su forma más primitiva por el inventor holandés Comelis
Drebble, a principios del siglo XVII. Una versión más sofisticada, aún empleada, fue
inventada, en principio, por un químico escocés llamado Andrew Ure, en 1830. Su
componente esencial consiste en dos tiras de metales distintos puestas en contacto
y soldadas. Dado que estos metales se dilatan y contraen a diferentes velocidades
con los cambios de temperatura, la tira se dobla. Cuando el termostato se
encuentra, por ejemplo, a 21º C y la temperatura de la habitación desciende por
ser humano, sino como herramientas para explorar la naturaleza de los organismos
vivos. Por ejemplo, L. D. Harmon de la «Bell Telephone Laboratories», ideó un
circuito transistorizado que, al igual que una neurona, emitía impulsos eléctricos
cuando era estimulado. Tales circuitos podían ser acoplados a dispositivos que
reproducían algunas de las funciones del ojo y del oído. En Inglaterra, el biólogo W.
Ross Ashby creó un sistema de circuitos que exhibía respuestas reflejas simples.
Llamó a su criatura un «homeostato», debido a que tendía a mantener por sí mismo
un estado estable.
El neurólogo británico W. Grey Walter ideó un sistema más elaborado, que
exploraba y reaccionaba a su medio ambiente. Su sistema, similar a una tortuga,
que llamó «testudo» (de la palabra latina tortuga), tiene una célula fotoeléctrica,
que hace las veces de ojo, un dispositivo sensible para descubrir los objetos, y dos
motores, uno para moverse hacia delante y hacia atrás y otro para girar. En la
oscuridad, da vueltas en amplios círculos. Cuando toca un obstáculo, retrocede un
poco, se vuelve ligeramente y de nuevo vuelve a avanzar; hace esto hasta que
salva el obstáculo. Cuando su ojo fotoeléctrico ve una luz, el motor para el giro
empieza a funcionar, y el «testudo» avanza en dirección rectilínea hacia la luz, ésta
aumenta su brillantez, lo cual determina que el dispositivo retroceda, de tal modo
que así evita el error cometido por la polilla. Cuando sus baterías están a punto de
agotarse, el testudo, ahora «hambriento», puede aproximarse lo bastante a la luz
como para establecer contacto con un elemento eléctrico próximo a la bombilla que
emite luz. Una vez recargadas, es de nuevo lo suficientemente sensible como para
retirarse del área de brillo intenso en torno a la luz.
El tema de los autómatas nos hace recordar las máquinas que en general imitan los
sistemas vivientes. En cierto modo, los seres humanos, como fabricantes de
herramientas, han imitado siempre todo cuanto veían a su alrededor en la
Naturaleza. El cuchillo es un colmillo artificial; la palanca, un brazo artificial; la
rueda tuvo como modelo el rodillo, que a su vez se inspiró en el tronco rodante de
árbol, y así sucesivamente.
Sin embargo, hasta fechas muy recientes no se han aplicado todos los recursos de
la ciencia para analizar el funcionamiento de los tejidos y órganos vivientes al
objeto de poder imitar su actuación -perfeccionada a fuerza de tesón y errores
Máquinas Pensantes
¿Podemos construir una máquina que piensa? Para intentar responder a esta
pregunta, primero debemos definir lo que es «pensar».
Evidentemente, podemos elegir las matemáticas como representación de una forma
de pensar. Es un ejemplo particularmente adecuado para nuestros fines. Por un
motivo, es claramente un atributo humano. Algunos organismos superiores son
capaces, de distinguir entre tres objetos y cuatro, digamos, pero ninguna especie,
salvo el Homo sapiens, puede realizar la simple operación de dividir tres cuartos por
siete octavos. En segundo lugar las matemáticas suponen un tipo de razonamiento
que opera con reglas fijas e incluye (idealmente) términos o procedimientos no
indefinidos. Puede ser analizado de una forma más concreta y más precisa que
puede serlo el tipo de pensamiento que se aplica, dijimos, a la composición literaria
o a las altas finanzas o a la dirección industrial o a la estrategia militar. Ya en 1936,
el matemático inglés Alan Mathison Turing demostró que todos los problemas
podían resolverse mecánicamente si podía expresarse en forma de un número finito
de manipulaciones que pudiesen ser admitidas por la máquina. Así, pues,
consideremos las máquinas en relación con las matemáticas.
Las herramientas que ayudan al razonamiento matemático son indudablemente tan
viejas como las propias matemáticas. Las primeras herramientas para dicho objeto
tienen que haber sido los propios dedos del ser humano. El ser humano utilizó sus
dedos para representar los números y combinaciones de números. No es un
accidente que la palabra «dígito» se utilice tanto para designar el dedo de la mano o
el pie y para un número entero. A partir de ahí, otra fase ulterior condujo al uso de
otros objetos distintos de los dedos -pequeñas piedras, quizá. Hay más piedrecillas
que dedos, y los resultados intermedios pueden conservarse como referencia futura
en el curso de la resolución del problema. De nuevo, no es accidental que la palabra
«calcular» proceda de la palabra latina para designar una piedrecita.-
Piedrecitas o cuentas alineadas en ranuras o cordones fijados a un armazón forman
el ábaco; la primera herramienta matemática realmente versátil. Con ese aparato
es fácil representar las unidades, decenas, centenas, millares, etc. Al mover las
bolas, o cuentas de un ábaco, puede realizarse fácilmente una suma, como 576 +
289. Además, cualquier instrumento que puede sumar también puede multiplicar,
pues la multiplicación sólo es una adición repetida. Y la multiplicación hace posible
la potenciación, pues ésta representa sólo una multiplicación repetida (por ejemplo,
45 es igual a 4 x 4 x 4 x 4 x 4). Por último, invirtiendo la dirección de los
movimientos, por represarlo así, son posibles las operaciones de sustracción,
división y extracción de una raíz.
El ábaco puede ser considerado el segundo «computador digital». (El primero, por
supuesto, lo constituyeron los dedos.)
Durante miles de años, el ábaco fue la herramienta más avanzada de cálculo. Su
uso decayó en Occidente tras la desaparición del Imperio romano y fue
reintroducido por el Papa Silvestre II, aproximadamente 1000 años d. de J.C.,
probablemente a partir de la España árabe, donde su uso había persistido. Al
retornar, fue acogido como una novedad oriental, olvidándose su origen occidental.
El ábaco no fue remplazado hasta que se introdujo una anotación numérica que
imitaba la labor del ábaco. (Esta numeración, los para nosotros familiares «números
arábigos», tuvo su origen en la India, aproximadamente unos 800 años d. de J.C.,
fue aceptada por los árabes, y finalmente introducida en Occidente, hacía el año
1200 d. de J.C., por el matemático italiano Leonardo de Pisa.)
En la nueva numeración, las nueve piedrecitas diferentes en la fila de las unidades
del ábaco fueron representadas por nueve símbolos diferentes, y estos mismos
nueve símbolos se utilizaron para la fila de las decenas, para la de las centenas y
para la de los millares. Las cuentas o piedrecitas, que diferían sólo en la posición,
fueron remplazadas por símbolos que se diferenciaban únicamente en la posición,
de tal modo que el número escrito 222, por ejemplo, el primer 2 representaba
doscientos, el segundo veinte y el tercero representaba el propio dos: es decir 200
+ 20 + 2 = 222.
Esta «numeración posicional» fue posible al reconocer un hecho importantísimo, que
los antiguos utilizadores del ábaco no habían apreciado. Aún cuando sólo existen
nueve cuentas en cada fila del ábaco, en realidad son posibles diez disposiciones.
Además de usar cualquier número de cuentas, desde el 1 al 9, en una fila, también
es posible no usar ninguna cuenta, es decir, dejar vacía la disposición. Esto no fue
imaginado por los grandes matemáticos griegos y sólo en el siglo IX, cuando un
desconocido hindú pensó en representar la décima alternativa mediante un símbolo
especial, que los árabes denominaron sifr (vacío) y que ha llegado hasta nosotros,
Sumando con un ábaco. Cada bola bajo la barra vale por 1; cada bola sobre
la barra vale por 5. Una bola marca una cantidad al ser movida hacia la barra. En el
cuadro que aparece en la parte superior, la columna de la derecha señala 0; la que
está a la izquierda de ésta señala 7 o (5 + 2), la que está a su lado marca 8 o (5 +
3); el contiguo 1: la cifra resultante es, pues, 1870. Si a esta cantidad se añade
549, la columna de la derecha se convierte en 9 o (9 + 0); la siguiente suma (4 +
7) se convierte en 1, llevándose 1, lo que significa que en la columna contigua se
sube una bola; la tercera suma es 9 + 5, o 4 llevándose 1; la cuarta suma es 1 + 1,
o 2; la suma arroja 2.419, según muestra el ábaco. La simple maniobra de llevarse
1 moviendo hacia arriba una bola en la columna adjunta posibilita calcular con gran
rapidez; un operador experto puede sumar con más rapidez que una máquina
sumadora, según quedó demostrado en una prueba efectuada en 1946.
Los logaritmos de Briggs son menos adecuados para el cálculo, pero gozan de más
popularidad para los cálculos ordinarios. Todos los exponentes no enteros son
irracionales, es decir, no pueden ser expresados en forma de una fracción ordinaria.
Sólo pueden serlo como una expresión decimal infinitamente larga, que carece de
un modelo repetitivo determinado. Sin embargo, tal decimal puede ser calculado
con tantos números como sea necesario para la deseada precisión.
Por ejemplo, supongamos que deseamos multiplicar 111 por 254. El logaritmo de
Briggs de 111, hasta cinco cifras decimales, es 2,04532, y para 254 es de 2,40483.
Sumando estos logaritmos obtenemos 102,04532 x 102,40483 = 104.45015. Este número
sería aproximadamente de 28.194, el producto real de 111 x 254. Si deseamos
obtener una mayor exactitud, podemos utilizar los logaritmos con seis o más cifras
decimales.
Las tablas de logaritmos simplificaron el cálculo enormemente. En 1622, un
matemático inglés llamado William Oughtred hizo las cosas aún más fáciles al idear
la «regla de cálculo». Se marcan dos reglas con una escala logarítmica, en la que
las distancias entre los números se hacen cada vez más cortas a medida que los
números aumentan; por ejemplo, la primera división tiene los números del 1 al 10;
la segunda división, de la misma longitud, tiene los números del 10 al 100; la
tercera, del 100 al 1.000, y así sucesivamente. Deslizando una regla a lo largo de la
otra hasta una posición apropiada, puede leerse el resultado de una operación que
implique la multiplicación o la división. La regla de cálculo convierte los cálculos en
algo tan fácil como la adición y sustracción en el ábaco, aunque en ambos casos,
para estar más seguros, hay que especializarse en el uso del instrumento.
El primer paso hacia la máquina de calcular realmente automática se dio en 1642
por el matemático francés Blaise Pascal. Inventó una máquina de sumar que eliminó
la necesidad de mover las bolas separadamente en cada fila del ábaco. Su máquina
consistía de una serie de ruedas conectadas por engranajes. Cuando la primera
rueda -la de las unidades- giraba diez dientes hasta su marca cero, la segunda
rueda giraba un diente hasta el número uno, de tal modo que las dos ruedas juntas
mostraban el número diez. Cuando la rueda de las decenas alcanzaba el cero, la
tercera de las ruedas giraba un diente del engranaje, mostrando el ciento, y así
sucesivamente. (El principio es el mismo que el del cuentakilómetros de un
automóvil.) Se supone que Pascal construyó más de 50 de esas máquinas; al menos
cinco existen todavía.
El aparato de Pascal podía sumar y restar. En 1674, el matemático alemán Gottfried
Wilhelm von Leibniz avanzó un paso más y dispuso las ruedas y engranajes de tal
modo que la multiplicación y la división fueron tan automáticas y fáciles como la
adición y la sustracción. En 1850, un inventor norteamericano llamado D. D.
1 x 212 = 4.096
1 x 211 = 2048
0 x 210 = 0
0 x 29 = 0
1 x 28 = 256
0 x 27 = 0
0 x 26 = 0
0 x 25 = 0
0 x 24 = 0
1 x 23 = 8
1 x 22 = 4
0 x 21 = 0
1 x 20 = 1
6.413
representó una versión satisfactoria del tipo de aparato que Babbage había
inventado un siglo antes.
Sin embargo, para que la utilidad del aparato sea máxima, los interruptores han de
ser electrónicos. Esto aumenta extraordinariamente la velocidad de la computa
dora, pues un flujo de electrones puede ser iniciado, desviado o interrumpido en
millonésimas de segundo -mucho más rápidamente de lo que los interruptores
mecánicos, aunque delicados, podrían ser manipulados.
La primera computadora electrónica grande, que contenía 19.000 tubos de vacío, se
construyó en la Universidad de Pennsylvania por John Presper Eckert y John William
Mauchly durante la Segunda Guerra Mundial, fue llamada ENIAC, de «Electronic
Numerical Integrator and Computer». ENIAC dejó de funcionar en 1955 y
desmontada en 1957, por considerarla totalmente pasada de moda, con sólo doce
años de vida; pero tras ella había quedado una descendencia sorprendentemente
numerosa y sofisticada.
Mientras que ENIAC pesaba 30 t y necesitaba 400 m2 de espacio, la computadora
equivalente actual -utilizando componentes más pequeños, prácticos y seguros que
los viejos tubos de vacío- no excede del tamaño de un refrigerador. Las
computadoras modernas contienen medio trillón de componentes y 10 millones de
elementos de memoria ultrarrápidos.
Fue tan rápido el progreso que, en 1948, comenzaron a construirse en cantidad
pequeñas computadoras electrónicas; en el curso de cinco años, se estaban
utilizando dos mil; en 1961, el número era de diez mil.
Las computadoras que operan directamente con números se llaman «computadoras
digitales». Pueden actuar con cualquier exactitud deseada, pero sólo pueden
responder el problema específico preguntado. Un ábaco, como he dicho antes, es un
ejemplo primitivo. Una computadora debe operar no con números, sino con
intensidades de corriente elaboradas para cambiar de forma análoga a las variables
consideradas. Ésta es una «computadora electrónica digital»; un ejemplo famoso es
el de «Universal Automatic Computer» (UNIVAC), construida por vez primera en
1951 y utilizada en Televisión, en 1952, para analizar los resultados de la elección
presidencial a medida que iban conociéndose. El UNIVAC fue la primera
computadora electrónica digital empleada con fines comerciales. La regla de cálculo
es una computadora analógica muy simple. Las computadoras analógicas tienen una
exactitud limitada, pero pueden proporcionar respuestas, de una vez, a toda una
serie de cuestiones relacionadas.
excepto en los programas más sencillos, la computadora tiene que almacenar tales
números o datos, hasta que puede utilizarlos en el curso de una serie de
operaciones. Esto significa que debe poseer un dispositivo de memoria. La memoria,
en una computadora moderna, por lo general es de tipo magnético: los números se
almacenan en forma de manchas magnetizadas sobre un tambor o alguna otra
disposición. Una mancha particular puede representar el número 1 cuando está
magnetizada y el 0 cuando no lo está. Cada tipo de información es un «bit» (de
binary digit = dígito binario). Las manchas son magnetizadas por una corriente
eléctrica al registrar la información y también son leídas por una corriente eléctrica.
Sin embargo, ahora se pone claramente de manifiesto que la utilidad de la tarjeta
perforada ha tenido su momento. Se están utilizando ya sistemas en que las
instrucciones pueden ser proporcionadas a las computadoras (tal como la UNIVAC
III, construida en 1960) mediante palabras inglesas mecanografiadas. La
computadora es ideada para reaccionar de modo apropiado a ciertas palabras y
combinaciones de palabras, que pueden ser usadas muy flexiblemente, pero según
una serie de reglas definidas.
Tales «lenguajes de computadoras» han proliferado rápidamente. Uno de los mejor
conocidos es el FORTRAN (abreviaturas para traducción de fórmulas = formula
translation ).
Por supuesto, la computadora es el instrumento que permite la automatización
completa. Los servomecanismos sólo pueden realizar los aspectos de esclavo en una
tarea.
En cualquier proceso complejo, tal como el de apuntar y disparar con una arma o el
funcionamiento de una factoría automática, las computadoras son necesarias para
calcular, interpretar, coordinar y supervisar -en otras palabras, actuar como mentes
mecánicas para dirigir los músculos mecánicos-. Y la computadora no se halla
limitada en modo alguno en este tipo de función. Realiza sus deseos eléctricos;
calcula las reservas de plazas en las líneas aéreas; mantiene al día los registros de
cheques y cuentas bancarias; confecciona las nóminas de una compañía, mantiene
un registro diario de los inventarios, en resumen, realiza una gran parte de las
tareas de las grandes compañías en la actualidad.
BIBLIOGRAFÍA II
Una introducción a la Ciencia resultaría incompleta sin una guía para ampliar las
lecturas acerca del tema. Seguidamente presento una breve selección de libros.
Esta relación constituye una miscelánea y no pretende ser una colección completa
de los mejores libros modernos sobre temas científicos. Sin embargo, he leído la
mayor parte de ellos y puedo recomendarlos todos, incluso los míos.
DOLE, STEPHEN H. Habitable Planets for Man. Blaisdelt Publishing Company, Nueva York,
1964.
HARTMAN, P. E., y SUSKIND, S. R. Gene Action. Prentice-Hall, Englewood Cliffs, 1965.
HUGHES, ARTHUR A History of Cylology. Abelard-Schuman, Nueva York, 1959.
NELL, J. V., y SCHULL, W. J. Human Heredity. Uiversity of Chicago Press, Chicago, 1954.
OPARIN, A. I. The Origin of Life on the Earth. Academic Press. Nueva York, 1957
SINGER, CHARLES A Short Hislory of Anatomy and Physiology from the Greeks to Harvey.
Dover Publications, Nueva York, 1957.
SULLIVAN, WALTER We Are Not Alone. McGraw-Hill Book Company, Nueva York, 1964.
TAYLOR, GORDON R. The Science of Life. McGraw-Hill Book Company, Nueva York, 1963.
WALKER, KENNETH Human Physiology. Penguin Books, Nueva York,
CAPÍTULO 13. - LOS MICROORGANISMOS
BURNET, F. M. Viruses and Man (2da. Ed.). Penguin Books, Baltimore, 1955.
DE KRUIF, PAIL Microbe Hunters. Harcourt,. Brace & Company, Nueva York, 1932.
DUBOS, RENÉ Louis Pasteur. Little, Brown & Company, Boston, 1950.
LUDOVICI, L. J. The World of the Microscope. G. P. Puntnam's Sons, Nueva York, 1959.
McGRADY, PAT The Savage Cell. Basic Books, Nueva York, 1964.
RIEDMAN, SARAH R. Shots without Guns. Rand, McNally & Company, Chicago, 1960.
SMITH, KENNETH M. Beyond the Microscope. Penguin Books. Baltimore, 1957.
WILLIAMS, GREER Virus Hunters. Alfred A. Knopf, Nueva York, 1959.
ZINSSER, HANS Rats, Lice and History. Little, Brown & Company. Boston, 1935.
CAPÍTULO 14. - EL CUERPO
ASIMOV, ISAAC The Human Body. Houghton Mifflin Company, Boston, 1963.
CARLSON, ANTON J. y JOHNSON, VICTOR, The Machinery of the Body. University of Chicago
Press, Chicago, 1953.
CHANEY, MARGARET S. Nutrition. Houghton Mifflin Company, Boston, 1954.
McCOLLUM, ELMER VERNER A History of Nutrition. Houghton Mifflin Company, Baston, 1957.
WILLIAMS, ROGER J. Nutrition in a Nutshell. Doubleday & Company, Nueva York, 1962.
CAPÍTULO 15. - LAS ESPECIES
ASIMOV, ISAAC Wellsprings of Life. Abelard-Schuman, Nueva York, 1960.
BOULE, M., y VALLOIS,. H. V. Fossil Men. Dryden Press, Nueva York, 1957.
CARRINGTON, RICHARD A Biography of the Sea. Basic Books, Nueva
DARWIN, FRANCIS (editor) The Life and Letters of Charles Darwin (2 vols.). Basic Books, Nueva York,
1959.
DE BELL, G. The Environmental Handbook. Ballantine Books, Nueva York, 1970.
HANRAHAN, JAMES S., y BUSHNELL DAVID, Space Biology. Basic Books, Nueva York, 1960.
HARRISON, R. J. Man, the Peculiar Animal. Penguin Books, Nueva York, 1958.
HOWELLS, WILLIAM Mankind in the Making. Doubleday & Company, Nueva York, 1959.
HUXLEY, T. H. Man's Place in Nature. University of Michigan Press, Ann Arbor, 1959.
MEDAWAR, P. B. The Future of Man. Basic Books, Nueva York, 1960.
MILNE, L. J., y M. J. The Biotic World and Man. Prentice-Hall,
MONTAGU, ASHLEY The Science of Man. Odyssey Press, Nueva York, 1964.
MOORE, RUTH Man, Time, and Fossils (2da. Ed.). Alfred A. Knopf, Nueva York, 1963.
ROMER, A. S. Man and the Vertebrates (2 vols.), Penguin Books, Nueva York, 1954.
ROSTAND, JEAN Can Man Be Modified? Basic Books, Nueva York, 1959.
SAX, KARL Standing Room Only. Beacon Press, Boston, 1955.
SIMPSON, GEORCE G., Life: An Introduction to College Biology (2da. Ed.). Harcourt, Brace &
PITTENDRIGH, C. S., y TIFFANY, L. Company, Nueva York, 1965.
H.
TINBERGEN, NIKO Curious Naturalists. Basic Books, Nueva York, 1960.
UBBELOHDE, A. R. Man and Energy. Penguin Books, Baltimore, 1963.
CAPÍTULO 16. - LA MENTE
ANSBACHER, H., y R. (directores) The Individual Psychology of Alfred Adler. Basic Books, Nueva York, 1956.
ARIETI, SILVANO (director) American Handbook of Psichiatry (2 vols.). Basic Books, Nueva York,
1959.
ASIMOV, ISAAC The Human Brain. Houghton Mifflin Company, Boston, 1964.
BERKELEY, EDMUND C. Symbolic Logic and Intelligent Machines. Reinhold Publishing Corporation,
Nueva York, 1959.
FREUD, SIGMUND Collected Papers (5 vols.). Basic Books, Nueva York,
JONES, ERNEST The Life and Work of Sigmund Freud (3 vols.). Basic Books, Nueva York,
1957.
LASSEK, A. M. The Human Brain. Charles C. Thomas, Springfield, Ill, 1957.
MENNINGER, KARL Theory of Psychoanalytic Technique. Basic Books, Nueva York, 1958.
MURPHY, GARDNER Human Potentialities. Basic Books, Nueva York,
RAWCLIFFE, D. H. Illusions and Delusions of the Supernatural and Occult. Dover Publications,
Nueva York, 1959.
SCIENTIFIC AMERICAN (editores) Automatic Control. Simon & Schuster, Nueva York, 1955.
SCOTT, JOHN PAUL Animal Behavior. University of Chicago Press, Chicago, 1957.
THOMPSON, CLARA y MULLAHY, Psychoanalysis: Evolution and Development. Grove Press. Nueva York,
PATRICK 1950.