La Aventura Del Cosmos-Holaebook
La Aventura Del Cosmos-Holaebook
La Aventura Del Cosmos-Holaebook
ebookelo.com - Página 2
Albert Ducrocq
ebookelo.com - Página 3
Título original: Le Roman de la matière, Cybernétique et Univers I
Albert Ducrocq, 1963
Traducción: Antonio Ribera
ebookelo.com - Página 4
Introducción
En la Prehistoria, el hombre inventó herramientas que eran una prolongación de la
mano. Después las accionó mediante el viento y la fuerza hidráulica. Finalmente,
durante la era industrial, el relevo del músculo se hace en gran escala merced a la
hulla y el petróleo y con la magia de la electricidad. Los esclavos mecánicos pueblan
la Tierra a millones.
Sin embargo, al llegar a esta etapa, la mentalidad del hombre apenas ha
cambiado. Sigue considerándose el único depositario de la inteligencia en su
planeta. La proliferación de las máquinas lo afianza en esté convencimiento, pues
son a manera de peones cuyos movimientos él gobierna a su antojo. No pasan de ser
simples agentes que ponen en ejecución los programas dictados por el hombre, el
único capaz de recoger las informaciones necesarias para establecerlos.
Esta transcendencia intelectual del hombre está confirmada por el físico,
inventor de la entropía. La entropía de un sistema, nos dice, es su «cantidad y
desorden» y allí donde un sistema queda abandonado a sí mismo, ésta únicamente
puede aumentar. Pero existe una soberana excepción para esta ley en el caso de la
materia biológica, pues la característica intrínseca de los seres vivos consiste en su
lucha contra el azar. Y el hombre lleva este combate al mundo que lo rodea y lo
transforma, pues conoce la arquitectura, la geometría y la mecánica.
La revolución industrial le proporcionó nuevas armas. Pero al llegar al siglo XX,
la máquina empieza a salir de su letargo. Efectivamente: los técnicos la proveen de
«captores», verdaderos órganos de los sentidos en miniatura, que le permiten recoger
informaciones necesarias para realizar su trabajo. Así nacen las máquinas llamadas
cibernéticas, capaces de dirigirse a sí mismas y que en el terreno que les es propio
pueden alcanzar objetivos determinados, tal como hace el hombre, creando el orden
y haciendo disminuir la entropía.
Teniendo en cuenta que estas máquinas cibernéticas han sido concebidas y
realizadas por el hombre, sólo poseen una «delegación» de su facultad creadora.
Con todo, el hecho de que semejante poder se delegue, inicia una profunda
revolución intelectual. Hay que llegar a la conclusión de que el orden es el fruto de
notables estructuras, en este caso las de las máquinas cibernéticas que, una vez
construidas, pueden generar una organización.
La mecánica, la electrónica o la hidráulica, en efecto, no son más que medios;
todo su interés reside en los esquemas que permiten realizar, o sea, que los
cibernéticos concentran su atención en la función, considerando la técnica como
secundaria.
Nace una nueva ciencia, cuyo sentido consiste en estudiar la reacción recíproca
de diferentes sistemas, dejando de tomar al hombre como referencia. Así sucede, a la
clásica física de las cosas, una física de las relaciones, que tiene en cuenta las
ebookelo.com - Página 5
estructuras y sus efectos.
El problema de la evolución del Universo encuentra entonces sus bases. ¿Y si el
orden del cosmos se debiese a estructuras que fuesen a su vez el producto de otras
estructuras?
Éstas fueron las reflexiones que nos embargaron al efectuar nuestros primeros
estudios sobre la cibernética. Pudimos observar esto: el hombre se gobierna y
construye máquinas que se gobiernan por sí mismas, en la actualidad, pero antes de
su aparición, la Tierra y el Universo entero se gobernaban…
Fue entonces cuando comprendimos que el estudio de las estructuras debía
constituir la ciencia fundamental. Y con este convencimiento, sentamos las bases de
una «inteléctica» en un libro matemático titulado Lógica general de los sistemas y
los efectos.
En otros tiempos, la física aportó soluciones al hombre, permitiéndole
comprender ciertos fenómenos de su Universo. La cibernética las integra en una
síntesis: de las ciencias, hace la Ciencia.
ebookelo.com - Página 6
1
ebookelo.com - Página 7
La materia más sencilla
A decir verdad, será necesaria una larga y ardua labor antes de que pueda entreverse
la fisonomía del Universo. Se dibujará muy tarde, cuando la civilización haya
engendrado diversos refugios intelectuales. Pero incluso entonces, en su vida
cotidiana, el hombre se preocupa poco por el cosmos y la estructura de la materia no
le interesa, al no comprender la utilidad de semejante conocimiento. Grimm nos dice
que existe un fondo inagotable de credulidad y superstición en el corazón humano. Su
contrapartida fue siempre una sorprendente indiferencia por parte del hombre hacia
los sucesos que no le conciernen: los precursores no consiguen interesar a sus
contemporáneos por las causas extrañas a su existencia cotidiana.
Por lo tanto, durante siglos el estudio de la materia fue el patrimonio de un
reducido número de individuos, cuyo nombre y cuya obra permanecen ignorados a
menudo por parte de sus coetáneos. Mas por encima de las vicisitudes, de los años y
los reinos, son los artesanos de una revolución intelectual. Bajo sus auspicios, el
hombre empieza a comprender los engranajes de su Universo y a disecar su materia.
Esto no resulta sencillo, teniendo en cuenta la perfección que alcanza en el marco
terrestre. El hombre ve a su alrededor un terreno cubierto de vegetación, árboles y
ríos, y descubre una vida, patrimonio de un medio superiormente organizado. En el
árbol genealógico de la materia, es el extremo de una rama, pero él no lo sabe. La
sangre que derrama en el combate, la carne que le sirve de alimento, la madera que
quema, son substancias que él considera primitivas. Sin embargo, se sitúan a gran
altura en la jerarquía de la materia; son el resultado de un prodigioso trabajo que la
naturaleza realiza desde hace cientos de millones de años.
Incluso el reino de los cuerpos inertes, que los naturalistas colocan en la parte
inferior de la jerarquía, tiende una trampa al investigador. Aparece bajo tres fases:
gaseoso, líquido y sólido. Y se concede un interés creciente a este orden. Desprovisto
de forma, de volumen, hasta de color, el gas apenas inspira nada. El líquido es más
accesible a los sentidos: un volumen determinado lo hace palpable. Pero ante todo, el
hombre concede su atención a lo sólido, pues éste domina el marco terrestre del que
él ha surgido y que su cerebro ha aprendido a conocer, amar y temer.
Efectivamente, lo sólido da su fisonomía a nuestra Tierra, que merced a él está
poblada de formas, a través de las cuales el hombre identifica el medio exterior y
clasifica sus recuerdos. En presencia del objeto desconocido, el primer reflejo
consiste en buscar un parecido. Lo sólido sirvió para edificar una geometría y una
física que adoptaron el metro por patrón.
Ahora bien, esta situación es propia de los planetas. A la escala del Universo, lo
sólido constituye una excepción: el espacio y las estrellas son gaseosos. En vez de ser
un estado primero, lo sólido fue el fruto de una organización: un simple cristal de
hierro representa una prodigiosa arquitectura, en la que los átomos encadenados
forman interminables frescos. Mas para descubrirlos se requerirán microscopios
ebookelo.com - Página 8
especiales, que aumenten millones de veces…
Teniendo en cuenta que una diferencia de escala separa al átomo del hombre y
que los sentidos de éste no le revelan la acción de los átomos, el hombre tendrá
mucha dificultad en seguir el camino que conduce a los verdaderos agentes de la
materia, en descubrir las prodigiosas reglas del mundo de las partículas, en
«interpretar» sus impresiones sensoriales a la luz de las mismas.
A decir verdad, este mundo jugará durante mucho tiempo al escondite con el
puñado de investigadores que se propusieron descubrirlo. Los ojos no lo ven ni el
cerebro lo imagina. Los físicos lo sorprenderán, no en las estructuras colectivistas de
los sólidos, sino en los gases, que representan un estado de materia sencillo, sobre
todo en el aire que el hombre respira y cuya masa constituye una verdadera pantalla
interpuesta entre la Tierra y el cosmos.
Su exploración contribuirá poderosamente a que el hombre obtenga su visado
para el Universo. Por lo demás, todo se transforma cuando se franquea la atmósfera,
del mismo modo que al abandonar un país, el paisaje, las leyes y las costumbres
adquieren un aspecto distinto.
ebookelo.com - Página 9
un tubo en el que se había hecho el vacío, Torricelli ve que el mercurio se eleva a
76 cm. Esto justifica a sus ojos el razonamiento de Galileo: «Vivimos sumergidos en
el fondo de un océano de aire —escribe a Ricci en 1634—. ¿Por qué hay que
sorprenderse de que el argento vivo se eleve hasta equilibrar el peso del aire que le
empuja?».
En Ruan, Pascal repite con diferentes líquidos los experimentos de Torricelli.
Descartes le sugiere que compruebe si el argento vivo asciende a la misma altura,
efectuando la operación en la cumbre de una montaña. Pascal hace que Périer realice
esta experiencia en el Puy de Dome. Y en París, crea el observatorio de la Torre
Saint-Jacques.
Ha nacido el barómetro. Mide la presión atmosférica, cuyos efectos pone de
relieve la bomba de vacío inventada por Otto de Guericke: en 1654, este físico, que
era burgomaestre de Magdeburgo, demuestra que hacen falta fuerzas considerables
—proporcionadas por dieciséis caballos— para separar dos hemisferios entre los que
se ha hecho el vacío.
A partir de entonces, el aire tendrá un rasgo en común con los sólidos y los
líquidos: el peso. Por lo tanto, merece muy bien llamarse materia.
ebookelo.com - Página 10
tardaron en comprender que todas las substancias están formadas a partir de un
número reducido de elementos simples que se irán descubriendo y bautizando poco a
poco, con nombres poéticos o rebuscados, según las modas. El gran descubrimiento
de los elementos, empero, fue obra esencialmente del siglo XIX, de Mendeleyev,
estableciéndose su clasificación.
Sin embargo, desde principios del siglo XIX el aire ha perdido su misterio y los
sabios comprenden que sus elementos constituyentes se encuentran también en otros
cuerpos. Empieza a dibujarse la unidad de la materia, a través de sus diferentes
disfraces.
ebookelo.com - Página 11
considerarse como formadas por cierto número de constituyentes elementales
denominados átomos: cuando dos substancias reaccionan químicamente, es que se
libran verdaderos combates cuerpo a cuerpo a la escala molecular.
Se comprende que en los gases, las moléculas estén muy espaciadas, mientras que
están muy juntas en los líquidos. Esto permite dar una nueva interpretación a los
cambios de estado: hacer hervir un litro de agua equivale a dispersar en 1700 litros
las moléculas que contiene.
Y la ley descubierta por Humboldt y Gay Lussac se explica inmediatamente:
basta con admitir que, en condiciones idénticas, las poblaciones moleculares de todos
los gases son las mismas.
El triunfo de Avogadro
Se ha dado el paso decisivo. El átomo ha hecho su aparición en el lenguaje científico.
Demócrito ya lo imaginó en la Antigüedad. El filósofo jónico veía en los seres
colecciones de átomos que se movían en el vacío. Y Lucrecio evocó igualmente al
átomo en un pasaje célebre de su obra De rerum natura. Pero todo esto no pasaban de
ser especulaciones filosóficas.
Mas entonces esta idea se convierte en un concepto científico que explica la
materia. Los físicos descubrirán para cada elemento un átomo cuyas características se
precisarán más tarde.
Pero de momento, el hombre aún tiene mucha dificultad en admitirlo y durante
cerca de medio siglo las tesis de Avogadro, totalmente ignoradas del gran público,
son incluso mal vistas en los medios científicos, donde el concepto de átomo se
considera «demasiado teórico».
Avogadro triunfa a título póstumo, dos años después de su muerte. En 1858, un
químico italiano llamado Cannizzaro, que trabajaba en Génova, tiene una súbita y
genial inspiración. Comprende que desde el punto de vista de Avogadro la estructura
de las moléculas aparece inmediatamente: si dos volúmenes de hidrógeno se
combinan con un volumen de oxígeno, sin duda esto se deberá, sencillamente, a que
una molécula de agua tiene dos átomos de hidrógeno y un átomo de oxígeno. ¡No
haber pensado en ello! Se escribe entonces la fórmula del agua H2O y se consigue
rasgar ampliamente el secreto de la constitución molecular.
Da mucho que pensar, sin embargo, el hecho de que transcurriesen tres cuartos de
siglo entre el año 1783, época en que el genial Watt vio en el agua un compuesto de
ebookelo.com - Página 12
hidrógeno y oxígeno —opinión tachada entonces de absurda por la Real Sociedad de
Londres— y la época en que se establece finalmente la fórmula del agua.
Pero esto aún no es todo. A pesar del éxito alcanzado, la teoría molecular no pasa
de ser una simple curiosidad durante bastante tiempo. Resulta muy sintomático el
hecho de que después de consagrar importantes notas biográficas a todos los
Avogadro, la Gran Enciclopedia del siglo XIX despache con dos líneas a aquel que
presenta como un químico italiano, autor de una «hipótesis» célebre: ¡definición que
había de subsistir hasta 1945!
ebookelo.com - Página 13
moléculas. Más tarde, esta cifra se dará con mayor precisión[2].
Una vez contadas las moléculas, el físico ya puede calcular su masa. Descubrirá
números increíblemente pequeños: así surgirá la costumbre, para comparar las masas
respectivas de átomos y moléculas, de recurrir a una unidad de masa atómica o
«uma», que se define tomando a un átomo por patrón. Este papel corresponderá
durante mucho tiempo al oxígeno. El carbono lo sustituyó y hoy se dice que un átomo
de carbono ordinario —o carbono 12— tiene por definición una masa de 12 uma[3].
Así expresadas, las masas de los diversos átomos, y por lo tanto de las moléculas,
serán muy cercanas a los números enteros: la explicación de esto se hallará al conocer
la estructura de los átomos.
El movimiento perpetuo
Aún no se ha llegado tan lejos en el siglo XIX.
Las moléculas ya han sido pesadas y contadas. El físico se dedicará a medir su
velocidad.
Porque las moléculas se mueven. Y el hombre se encuentra ante una extraña
situación, al descubrir un movimiento continuo. Tiene que abandonar sus
concepciones tradicionales, pues en la mecánica terrestre, un movimiento no puede
mantenerse: el vehículo cuyo motor se para disminuye de velocidad y termina por
detenerse, pues el roce actúa de freno sobre la velocidad. Pero esta situación es propia
del universo humano. El «movimiento perpetuo» existe en astronomía y también lo
encontramos en las moléculas de un fluido.
En un líquido, las moléculas se desplazan como cangrejos en un cesto. Brown
demostró sus desplazamientos dejando caer en un líquido un fino polvillo que miró al
microscopio: el polvillo parecía animado de un bailoteo desordenado, hoy conocido
en todo el mundo por el nombre de «movimiento browniano».
Pero fue en los gases donde los movimientos moleculares condujeron a los
descubrimientos más sorprendentes.
Estos movimientos ya fueron presentidos por un miembro de la ilustre familia
Bernoulli, una de las más linajudas de Basilea. Daniel Bernoulli, verdadero
«inventor» de la actividad interna de los gases, ya consideraba en 1730 que, teniendo
en cuenta que los gases encerrados en un depósito ejercen presiones permanentes en
las paredes del mismo, hay que suponer que están formados de elementos en perpetua
ebookelo.com - Página 14
agitación. En el siglo XIX, era natural que se imputasen estas presiones a los choques
de las moléculas. Son una corroboración inmediata de la ley de Boyle-Mariotte,
según la cual la presión de un gas se duplica cuando su volumen se reduce a la mitad.
Cada elemento de pared recibe un número doble de choques…
Este número de choques es considerable en todos los casos. Incluso aunque
adoptemos el lenguaje de los electrónicos, que introducirán el picosegundo, o
millonésima de millonésima de segundo, para seguir acontecimientos muy rápidos,
resulta que durante una duración tan breve, cada milímetro cuadrado de pared
expuesto a la atmósfera, recibe el choque de 30 000 millones de moléculas.
Desde el punto de vista físico, la idea de presión reviste un nuevo aspecto. Parecía
dotada de continuidad, pero esto no era más que una ilusión, como lo es la aparente
continuidad de la materia…
Descubrimiento de la temperatura
El bombardeo de las moléculas contra los objetos que se interponen en su camino,
pone de relieve el carácter mecánico de las presiones. La conversión intelectual del
físico continuará con la temperatura, que también se convertirá en un parámetro
mecánico.
La idea de la temperatura era completamente subjetiva en la Antigüedad
(temperatura = clima): o sea, que el hombre captaba por sus sentidos «impresiones»
de calor y frío.
Adquirió derecho de ciudadanía en Física con el instrumento empleado para su
medición: el termómetro. Debido a los estudios que permitió realizar, adquirió una
importancia considerable. Sin embargo, no hizo avanzar ni un ápice a la ciencia
térmica, pues su principio consistía en utilizar la dilatación de los fluidos, o sea,
explotar un efecto de la temperatura. En este caso, el primer termómetro, imaginado
por Galileo, fue un aparato de gas, el antecesor de los modelos perfeccionados que
Regnault creó en el siglo XIX.
Pues los gases aumentan de volumen con la elevación de la temperatura. O si no
se les permite dilatarse, su presión crece. Teniendo en cuenta que el número de
moléculas permanece invariable, hay que sacar la conclusión de que son más
enérgicas, o sea, más rápidas.
ebookelo.com - Página 15
1. Aspecto que ofrecen cien moléculas de un gas
Las máquinas electrónicas pueden simular hoy estados gaseosos. Un modelo fija la situación de cien moléculas en
el dibujo adjunto. Las moléculas se localizan mediante matrículas que permiten seguirlas y las máquinas calculan
su velocidad en cualquier instante.
ebookelo.com - Página 16
velocidad. En un instante determinado, algunas de ellas parecerán lentas y otras serán
rápidas. Y si siguiésemos a una molécula-testigo, veríamos cómo adquiere una
velocidad ora más elevada ora más lenta.
A causa precisamente de su velocidad, las moléculas chocan con frecuencia entre
sí. En el aire ambiente, el «recorrido libre» es solamente de 0,06 micrones[4]. Así, las
colisiones se suceden a un ritmo prodigioso: las moléculas se mueven en todos
sentidos, chocando entre sí desde todos los ángulos, de donde resulta que las
velocidades se componen en realidad de todas las maneras posibles.
Aproximadamente siete mil millones de veces por segundo, cada molécula se ve
desviada, frenada o acelerada, de manera completamente aleatoria.
En realidad, estos choques aseguran una mezcla continua que uniformiza las
energías o al menos confiere a las energías individuales de las moléculas una
«dispersión» gobernada por las leyes de la estadística.
Los fenómenos se desarrollan a una escala que impide toda observación. En su
defecto, las máquinas electrónicas actuales permiten efectuar simulaciones: la figura
1[ver] representa a un grupo de cien moléculas de oxígeno a 15°, cuya velocidad y
posición respectivas han sido indicadas por una calculadora.
Los valores de estas cien velocidades se han reunido en series que agrupan
respectivamente las velocidades comprendidas entre 0 y 100 m/s, las comprendidas
entre 100 y 200 m/s, etc.
Se observará que este reparto es característico: en torno a la velocidad «más
probable» (fig. 2)[ver] que el cálculo establece en 387 m/s[5], esta distribución obedece
ebookelo.com - Página 17
siempre a una misma ley. Y es en este sentido cuando se puede hablar
verdaderamente de «la» temperatura de un gas.
Los grados K
Esta situación revela el carácter artificial de la tradicional escala térmica. El
astrónomo sueco Anders Celsius pensó en señalar mediante 0 y 100° las temperaturas
respectivas del hielo en fusión y del agua en ebullición. Y en la vida corriente se
adoptó esta escala práctica, llamada de los «grados C» o Centígrados. Era puramente
arbitraria y así que los físicos comprendieron la verdadera naturaleza de la
temperatura, buscaron un grado «absoluto».
Lo encontraron en la escala de lord Kelvin, tomando como cero la temperatura a
la cual las velocidades moleculares serían nulas: con los grados K, la energía de las
moléculas es proporcional a la temperatura…
ebookelo.com - Página 18
presión de un gas mantenido bajo un volumen constante aumenta en 1/273 cuando su
temperatura pasa de 0 a 1 °C, hay que concluir que la presión teórica será nula a la
temperatura de −273 °C[6], y por consiguiente, que las moléculas permanecerán
inmóviles. Por lo tanto, los grados Kelvin se obtienen sumando 273° a la escala de
Celsius: una temperatura de 15 °C corresponderá a 288 K.
En la era espacial, los grados K se emplearán corrientemente para medir la
sensibilidad de los radiotelescopios. Si éstos reciben emisiones muy débiles, es
preciso calcular el «ruido» que provoca interferencias. Este ruido procede de fuentes
atmosféricas o cósmicas y también de la agitación térmica de las partículas en los
circuitos del receptor. Por este motivo, hay que medirlo mediante la temperatura
absoluta que asegure semejante agitación. Así, la «temperatura de ruido» es de
2000 K para un receptor ordinario. Desciende a 10 K con un «maser», pues la
temperatura del espacio es de 3 K en el cénit. Temperatura y energía de agitación son
sinónimos, en el lenguaje técnico…
ebookelo.com - Página 19
hablaban un lenguaje bárbaro a sus oídos.
Bastarán unos cuantos lustros para cambiar radicalmente la situación. El átomo
será descubierto, desintegrado y rebasado.
Se descubre el átomo. En el siglo XIX su anatomía era un enigma, hasta que la
reveló Niels Bohr. El sabio danés vio en el átomo a un sistema solar en miniatura.
Alrededor de un núcleo giran electrones, partículas ligeras cuyo número caracteriza al
elemento: 1 = hidrógeno, 2 = helio, 3 = litio… El núcleo está electrizado
positivamente, mientras que los electrones son negativos. O, al menos, los físicos
adoptan este lenguaje completamente convencional, del mismo modo como antaño
hablaban de una electricidad «vítrea», opuesta a una electricidad «resinosa».
Así el hombre comprende que la electricidad existe en el seno mismo de la
materia, lo que le permite dar un paso más hacia el mundo de lo infinitamente
pequeño.
En la época de Avogadro, el vocablo átomo representaba un elemento
constituyente cuya disección parecía imposible (átomo = no divisible). Pero he aquí
que, de pronto, nos aparece como un mundo en el que se pone de manifiesto una
actividad prodigiosa: los electrones se reparten en cierto número de capas, cuya
fisonomía rige las «relaciones» del átomo con el mundo exterior.
La molécula cesa de ser entonces la cosilla inerte del siglo XIX para convertirse en
una maquinaria cuyas características se van perfilando poco a poco. Y de su
explotación nacen mil aplicaciones, desde la industria de los colorantes hasta el reloj
molecular. Al saber cómo se unen los átomos, el metalúrgico puede mejorar las
características de sus materiales y el químico crea millares de nuevos compuestos.
El átomo ha sido rebasado. El hombre lo rompe para poner sus fragmentos al
servicio de la técnica.
Sus planetas, los electrones, se separan con facilidad: a veces basta un simple
frotamiento. En la Antigüedad, Tales de Mileto ignoraba la existencia del electrón,
pero comprobó que el ámbar frotado se electriza y atrae objetos ligeros. Y esto le
llevó a bautizar el fenómeno (electrón = ámbar).
En la era electrotécnica, el hombre descubre que en un metal los átomos pierden
electrones de manera natural, los cuales vagan entonces por el espacio, constituyendo
un verdadero gas. Su domesticación sirve para originar corrientes eléctricas: la
dispersión de 6 242 000 billones de electrones en un segundo crea la corriente
llamada amperio y esta cifra nos aparece como una prueba más del abismo que separa
al hombre del mundo atómico. Incluso las más débiles corrientes ponen en juego
cantidades inmensas de electrones.
Por lo tanto, esta partícula dejó de ser el mito que permitió a un novelista decir
con ironía que «no veo por qué los hombres que creen en el electrón tienen que
considerarse menos ingenuos que los que creen en los ángeles».
El electrón, efectivamente, se puede «liberar» en un tubo de radio. Emitido por un
cátodo incandescente, resulta atraído por una placa, y una rejilla regula su viaje. El
ebookelo.com - Página 20
electrón permite crear igualmente la televisión, de cuya explotación sistemática no
tardará en nacer la sorprendente industria electrónica, con la que la técnica conocerá
una nueva era, explotando los elementos que constituyen la materia, sin llegar al
átomo.
Y este movimiento tiene por réplica un asalto al núcleo, cuya domesticación
origina la industria nuclear.
No han sido estériles, pues, los siglos de oscuro trabajo de los físicos. En esta
época nace una nueva mentalidad. En 1910 aún se desconocía la estructura del átomo.
Cincuenta años después, en Kansas City, un congreso dedicado a la enseñanza
propone que todos los conocimientos físicos se enseñen a partir del átomo, cuya
estructura tendría que explicarse en el parvulario, según recomiendan numerosos
congresistas. ¿No resulta todo esto muy lógico, teniendo en cuenta que se expone la
anatomía de las substancias mediante una jerarquía de complicación creciente?
En todo el mundo se consagran gigantescos esfuerzos intelectuales al átomo, y del
trabajo de artesano de los precursores se pasa a medios de proporciones
verdaderamente industriales.
ebookelo.com - Página 21
altitud, esta hipótesis se cumple y los contactos están asegurados por los choques de
moléculas. En cambio, en la alta atmósfera, muy poco densa, los choques se hacen
rarísimos y no se puede contar con el apoyo de las capas inferiores que, al no recibir
presión por arriba, se extienden hasta alturas considerables. ¡Allí ni siquiera se puede
hablar de presión!
Las poblaciones de estas altas capas atmosféricas parecen importantes en valores
absolutos: representan un «vacío» mucho más total que el que se consigue en el
laboratorio.
El lector conoce sin duda la anécdota de la joven princesa que, al tener que tomar
por tema de una redacción la vida de una familia pobre, comenzó su relato en los
siguientes términos: «Era una familia paupérrima: el padre y la madre eran pobres; el
ayuda de cámara y el ama de llaves eran pobres…».
El razonamiento que se hacía el físico era parecido, al suponer la existencia de
una presión muy baja en la alta atmósfera. La verdad es que allí la presión no existe
o, más exactamente, la idea de presión no tiene sentido. La única posición aceptable
consiste en hacer un censo de la «población» que ocupa las altas regiones de la
atmósfera. Pero tranquilicémonos: continúa siendo impresionante. A una altitud de
1000 km, se cuentan aún millares de componentes por cm3, pero valen mucho más
por su existencia que por sus rarísimos choques.
Y en tales condiciones, la noción misma de temperatura adquiere otro aspecto. En
la baja atmósfera, las energías de las moléculas se distribuyen en torno a un valor
medio con un rigor completamente matemático. Este valor es característico de la
temperatura. A causa de sus múltiples choques, las moléculas tienen una «psicología
de masas»: se manifiestan por medio de la sociedad que representan, pues la menor
aportación de energía se distribuye inmediatamente entre la colectividad. Pero esta
condición cesa de cumplirse a partir del instante en que los choques son poco
frecuentes: la mezcla vigorosa que asegura una «homogeneización» de las energías
moleculares ya no existe.
La verdad es que a una gran altura, los elementos constituyentes de la atmósfera
adquieren su individualidad y las leyes de nuestros gases ya no pueden aplicárseles a
ciegas, pues la dispersión de las velocidades puede extenderse sobre gamas
considerables: partículas a 100 000° coexisten con moléculas a 0°.
No podemos hablar ya de temperaturas; es necesario tener en cuenta la energía de
cada componente. Para ello, el físico se vale del lenguaje de los electronvoltios[7],
para reservar el término temperatura a los medios en que las velocidades son
homogéneas, a causa de la mezcla de los componentes.
Sin embargo, alrededor de la Tierra las velocidades tienen un carácter
heterogéneo muy grande, pues la alta atmósfera está expuesta a múltiples acciones
cósmicas…
Con independencia de los millares de meteoritos que las bombardean diariamente,
las capas elevadas de la atmósfera están excitadas por la radiación solar y por los
ebookelo.com - Página 22
chorros de materia emitidos por el astro central. Reciben además radiaciones y
proyectiles de todas clases.
Aunque parezca paradójico, la materia es tanto más variada cuanto menos densa
es. En la baja atmósfera, reina la disciplina de hierro de una interdependencia
continua de las moléculas. En las alturas reina la bohemia. Mientras que el estado de
la baja atmósfera se describe mediante temperaturas y presiones medidas con
instrumentos sencillos, en la alta atmósfera hacen falta múltiples añagazas y
contadores para calcular las energías e incluso para identificar sencillamente a los
diversos componentes.
El gran carrusel
Esta atmósfera, en efecto, pronto deja de estar poblada por moléculas apacibles.
En el aire ambiente, cada molécula de oxígeno está compuesta de dos átomos.
Pero a una gran altitud, las moléculas de oxígeno están disociadas y los átomos libres
constituyen un gas muy activo: el oxígeno atómico. El nitrógeno corre la misma
suerte.
La excitación de la atmósfera no se limita a disociar moléculas. Ataca a los
propios átomos, a los que arranca uno o varios electrones. El átomo se convierte
entonces en un ion. Finalmente, los constituyentes de la alta atmósfera ya no son los
del aire ambiente: se descubre en ella un magma complejo, preludio del espacio
interplanetario, en el que, junto a los átomos y las moléculas, se desplazan electrones
o núcleos atómicos.
Ya no es un gas, pues sus elementos constituyentes pasan prácticamente
inadvertidos, a causa de la débil densidad del medio, que ni siquiera es ya un medio
neutro. Alma de la materia terrestre, el átomo representa un edificio en el que la carga
negativa de los electrones neutraliza la carga positiva del núcleo. Así, la electricidad
de los componentes no se manifiesta exteriormente, por lo que el físico del siglo XIX
pudo ver en las moléculas a individuos indiferentes a los campos.
Pero ya no es esto lo que sucede en la alta atmósfera, donde los iones son
sensibles a las acciones eléctricas y están canalizados por el campo magnético de la
Tierra. Esto les permite describir trayectorias cerradas que constituyen «bandas de
radiaciones».
Nacen nuevas ciencias: al comprender que los elementos componentes del
espacio tienen un comportamiento distinto al de los tradicionales gases moleculares,
ebookelo.com - Página 23
los físicos sientan las bases de una «electrodinámica cósmica». Basta con franquear
200 kilómetros para entrar en un dominio donde, de súbdito, el átomo pasa a ser rey.
Éste es el verdadero Nuevo Mundo que descubre el hombre a mediados del
siglo XX. El gran salto se realizó al franquear la atmósfera: más allá de ella la
situación ya no cambia durante millones de kilómetros.
El medio atmosférico adquiere un nuevo rostro: se convierte para el hombre en
una verdadera zona franca entre su materia y el inmenso cosmos, frontera en el
espacio y el tiempo simultáneamente.
Bajo el manto de la atmósfera, el mundo terrestre ofrece a la materia un medio
excepcionalmente fecundo, en el que ésta adquiere sorprendentes especializaciones.
Puestos en esta incubadora, los átomos se prestan a numerosas combinaciones
químicas, que se desarrollaron singularmente favorecidas por este marco. Así la
materia conoció una evolución «refinada».
Más allá de la atmósfera, en cambio, se extiende el vasto cosmos, cuya evolución
está muy atrasada. Y al franquear la atmósfera, nos acercamos al Universo primitivo.
Entonces descubrimos su actividad primaria: el cosmos fabricó la materia que la
Tierra utiliza.
ebookelo.com - Página 24
2
El punto de arranque
Así se tiende el puente entre la Tierra y el cosmos en la era espacial y el hombre
adquiere conciencia de la elevada «calidad» de su materia, constituida por sutilísimas
asociaciones atómicas que fuera de los planetas son excepcionales. Los propios
átomos completos son raros en el Universo y un hecho se impone a nuestra atención:
los más abundantes son los más rudimentarios. En el cosmos domina el hidrógeno.
Esta preponderancia cósmica del hidrógeno es el gran descubrimiento del
siglo XX.
Antaño, en efecto, el hombre clasificó a su planeta en los elementos que lo
formaban, o lo hizo al menos en la fracción que le era accesible, y consideró que el
oxígeno era el elemento más abundante en la corteza terrestre. Por otra parte, le
pareció lógico calcular la abundancia relativa de los elementos teniendo en
consideración su peso, lo que resulta singularmente desfavorable para el hidrógeno.
Se redactaron entonces listas de abundancia, que variaban ligeramente de un autor
a otro, pero que revelaban una jerarquía puesta de manifiesto por la tabla I, en la que
el hidrógeno ocupa la novena posición.
Fuera del mundo de los químicos, este elemento apenas llamó la atención de
nadie, pues durante mucho tiempo no sirvió para ningún fin práctico. Encontró a lo
sumo una aplicación en aeronáutica, donde su empleo tuvo a veces consecuencias
trágicas; solamente los cohetes provocarán una verdadera industria del hidrógeno.
Tabla I
Oxígeno 46,6%
Silicio 27,7%
Aluminio 8,1%
Hierro 5,0%
Calcio 3,6%
Sodio 2,8%
Potasio 2,6%
Magnesio 2,1%
Hidrógeno 1,0%
Otros elementos 0,5%
Composición de la masa terrestre
Por lo tanto, el hidrógeno se consideró durante mucho tiempo como un elemento
poco importante, hasta que el hombre comprendió que su planeta natal representaba
una muestra muy deficiente de la constitución del cosmos. La Tierra, efectivamente,
está compuesta ante todo de oxígeno y metales, y, de una manera general, los planetas
nos aparecen como relicarios de elementos pesados. Pero su masa, en realidad, es
ebookelo.com - Página 25
ínfima en el inmenso cosmos, a cuya escala se llega a conclusiones diametralmente
opuestas: todos los elementos pesados solamente forman una pequeñísima fracción
de su materia, pues los átomos de hidrógeno únicamente ya son mucho más
numerosos que todos los demás átomos reunidos.
Las pruebas de este predominio del hidrógeno en todo el Universo no harán más
que acumularse.
ebookelo.com - Página 26
«estados» posibles del átomo en los que, a consecuencia de los acoplamientos, la
energía no es exactamente la misma; así, se emite una radiación cuando el electrón
invierte su sentido de rotación y el cálculo nos enseña que la misma corresponde a la
longitud de onda de 21 cm.
Pero ¿por qué se invierte la rotación del electrón? Aquí reside el mayor interés del
trabajo realizado por Van de Hulst, pues el físico holandés demostró que en el
espacio, esta inversión se efectúa espontáneamente. Es un fenómeno raro, que sucede
en promedio a un átomo de hidrógeno cada once millones de años, pero que basta
para que una nube formada por trillones de átomos se convierta estadísticamente en
una fuente permanente de emisión…
Para resumir, el físico holandés llegó a las conclusiones siguientes: basta escuchar
el Universo con receptores de radio sobre la longitud de 21 cm para «oír» las nubes
de hidrógeno o, dicho de otro modo, para detectar las formaciones que el ojo humano
no puede percibir.
La experiencia acude puntualmente a su cita con la teoría. El 25 de marzo de
1951, se captan en Harvard las emisiones del hidrógeno interestelar; el mismo día en
que, por una sorprendente coincidencia, Van de Hulst fue a pronunciar una
conferencia en aquella docta universidad. Y al poco tiempo, los aparatos puestos a la
escucha del cosmos sobre 21 cm descubrirían inmensas nubes de hidrógeno, en
regiones donde antes no se creía que hubiese algo.
Entonces el hombre comprende que su Universo está formado esencialmente de
hidrógeno.
Y, hecho característico, los nuevos manuales de astronomía principian por un
detallado estudio sobre el átomo de esta substancia fundamental.
El tronco común
No es sin duda por casualidad que el elemento más sencillo represente la materia
primordial del Universo; así, el hidrógeno se presenta como el intermediario natural
entre el mundo de los átomos y el de las partículas llamadas elementales.
A partir de 1933, el hombre sabe que todos los elementos están formados a base
de tres tipos de partículas. En los átomos, los electrones giran alrededor del núcleo,
compuesto de cierto número de protones y neutrones.
El protón (protón = primero) es la partícula pesada fundamental. Posee una carga
positiva y su masa equivale a 1836,10 electrones. El protón ya fue entrevisto en 1886
ebookelo.com - Página 27
por Goldstein en los tubos de descargas, y su existencia fue demostrada por
Thomson, que en 1916 descompuso el hidrógeno en electrones y protones. Pero el
protón no se puso a la cabeza de un gran movimiento técnico como el electrón. Desde
luego, es objeto de explotación, pero sus aplicaciones son limitadas. Solamente unos
cuantos especialistas conocen el microscopio protónico o el magnetómetro de
protones…
El neutrón, por último, está desprovisto de carga, como su nombre indica. Un
poco más pesado que el protón —su masa equivale a 1836,63 electrones— pasa en
1945 al primer plano con la «reacción en cadena» que efectúa en el uranio. En estado
libre, sin embargo, no es una partícula estable. Su «vida» sólo tiene una duración de
unos diez minutos; después de este plazo se descompone engendrando un protón y un
electrón. Y por este motivo no se encuentran nubes de neutrones en los espacios
interestelares.
Electrón, protón y neutrón: el físico ha descubierto la pasmosa trilogía de la
materia, cuya «fabricación» entrevé a partir de tres partículas fundamentales, según
un mecanismo que será familiar para los niños de la Edad Atómica. Descubren que el
numero de protones constituye el «número atómico» del elemento, que se emplea
conjuntamente con el nombre del mismo. El número total de protones y neutrones
que componen un núcleo es, por lo demás, su «número de masa» y se adquiere la
costumbre de designar a los diversos tipos de núcleo seguidos por el número de masa:
así, cuando se habla del uranio 238, hay que entender que el núcleo posee 238
partículas, 92 de las cuales son protones (puesto que el uranio es el elemento número
92) y por lo tanto, 146 neutrones.
Todos los elementos tienen núcleos compuestos, excepto aquéllos cuyo número
de masa es 1. Y este elemento es precisamente el hidrógeno, construido no sobre un
núcleo verdadero, sino sobre una partícula. Pero téngase en cuenta que, en la génesis
de los elementos, el hecho de que una simple partícula pueda representar el papel de
núcleo es significativo, pues deja entrever el proceso que el médico inglés Prout ya
imaginó en 1815, al emitir la hipótesis de que todos los elementos eran
«apilamientos» de hidrógeno. El hidrógeno, elemento número 1, es, en efecto, el
primer peldaño de la «materia organizada».
Se trata de una organización sencillísima, pues un átomo de hidrógeno se reduce a
una partícula que gira alrededor de otra. Cuando está ionizado —o sea, cuando una
excitación cualquiera le ha arrancado su electrón— deja de existir, liberando
partículas elementales desconocidas. Así, la materia denominada hidrógeno
plasmificado no es más que una colección caótica de protones y electrones errantes.
En realidad, basta con calentar el hidrógeno molecular en las condiciones
terrestres, para convertirlo en atómico y una nueva elevación de temperatura lo
plasmifica. Inversamente, las bajas temperaturas permiten que los protones recojan a
los electrones, y así nacen átomos de hidrógeno a partir del plasma…
Mediante esta transformación, el hidrógeno aparece como una verdadera placa
ebookelo.com - Página 28
giratoria en la evolución de la materia. Podemos medir ahora el camino recorrido por
el hombre. En la Antigüedad, cuando se basaba en los datos que le facilitaban los
sentidos, tuvo gran dificultad para llegar hasta el átomo. Pero después, para
comprender la prodigiosa aventura del cosmos, tuvo que ver en el átomo una gran
encrucijada, pues la materia no empezó con él. Para la materia cósmica, el átomo
representa una «opción» después de un tronco común particular. Y el hecho de
comprobar que el hidrógeno continúa dominando en el Universo equivale a decir que
hoy la materia aún continúa, principalmente en el estado de partículas: una pequeña
fracción ha tomado el camino que desde las partículas elementales conduce hasta los
elementos.
ebookelo.com - Página 29
partícula pesada fundamental, adquiriendo, según las circunstancias, las
características de un protón o un neutrón.
Sin embargo, en la etapa del Universo primitivo, las partículas aún no están
asociadas y, por lo tanto, todos los nucleones son protones, pues el neutrón no puede
subsistir en estado libre. Y aquí surge la imagen de una nube primitiva, que consistía
en una serie de electrones y protones. Pero éstos ¿de dónde procedían?
El hombre se plantea esta cuestión, pero, al llegar aquí, la ciencia hace una pausa.
La gran pausa
La verdad es que transcurren varios decenios después del descubrimiento de las tres
partículas fundamentales. La técnica se desarrolla a pasos agigantados, mientras que
en el planeta surge una verdadera industria en torno a la investigación científica. Se
crean medios enormes: los aceleradores animan a las partículas de energías
considerables para arrancarles el secreto de sus caprichosos movimientos; en una
palabra, para descubrir el secreto de la materia a través de las extraordinarias
concepciones masa-energía cuya ecuación general ya dio Einstein en 1905.
Pero el físico está aterrado: la teoría de las partículas no progresa. En vez de
aclararse, incluso tendrá que confesar que se complica, pues una realidad se
impondrá: pronto parecerá una caricatura tratar de imaginar toda la historia de la
materia a base de tres partículas.
Se registra, en efecto, la existencia de otras partículas elementales muy efímeras,
los mesones, cuyas masas están a mitad de camino entre el electrón y el protón (meso
= intermedio). Su lista aumenta con rapidez. Después se descubre la existencia de
partículas neutras, de masa casi nula: los neutrinos. En cambio, con los hiperones, el
físico descubre unas partículas más pesadas que el neutrón. Por último aprenderá a
asociar una «antipartícula» a cada partícula, al contacto de la cual ésta se aniquila…
Mientras los físicos se encuentran ante una selva virgen de partículas elementales,
el enigma continúa sin resolver: ¿Por qué solamente los tres actores llamados
neutrón, protón y electrón fueron llamados a constituir toda nuestra materia, entre la
multitud de partículas citadas?
El problema se complica aún con otro enigma, que se plantea asimismo en el
terreno astronómico.
ebookelo.com - Página 30
La medición del espacio
Otra preocupación se asocia a la cuestión del origen de las partículas: admitiendo que
las partículas forman el Universo, se trata de saber hasta dónde se extiende este
Universo y desde cuándo existe. Esto da origen a la magnífica ofensiva del hombre
para conocer el cosmos en que vive.
Y este movimiento presenta un notable paralelismo con el descubrimiento de la
materia.
Los griegos pudieron determinar el radio de la Tierra según el método descubierto
por Eratóstenes y calcular también la distancia a que se encontraba la Luna.
Pero a pesar de la idea ingeniosa de Aristarco, que propuso efectuar una
triangulación cuando la Luna estuviese en cuarto creciente, no fue posible calcular de
ninguna manera la distancia de la Tierra al Sol. La indecisión de las medidas
efectuadas hacía atribuir al Sol una distancia veinte veces superior a la de la Luna, o
sea, apenas 8 000 000 de km. Y esta situación impidió que se tuviese un verdadero
conocimiento del sistema solar. La idea de Heráclito, que creía en la rotación de la
Tierra, no se tomó en consideración y los sabios se atuvieron a la concepción
geocéntrica de Tolomeo, que estaba aún en boga cuando Galileo descubrió el
firmamento en 1610.
Hubo que esperar a entonces para que triunfasen las ideas de Copérnico: como el
astrónomo polaco ya había afirmado en 1543, hubo que admitir que la Tierra gira
alrededor del Sol, como los demás planetas. Pero reina una «incertidumbre» de varios
millones de kilómetros sobre la distancia Tierra-Sol. Esta medida básica en el sistema
solar no es fácil de conocer, pues la mecánica celeste sólo permite establecer
relaciones.
Sin embargo, un fenómeno notable permitió efectuar mediciones absolutas. Se
trata del paso de Venus por delante del Sol: en 1678, el astrónomo inglés Halley
demuestra que, teniendo en cuenta el tiempo de la ocultación, es posible deducir las
distancias Tierra-Venus y Venus-Sol.
Por desgracia, estos pasos obedecen a una curiosa ley. Tienen lugar por
«dobletes» de ocho años, separados por un intervalo de más de ciento cinco años.
Así pues, en el siglo XVIII Venus efectuó dos pasos, en 1761 y 1769,
respectivamente, que fueron esperados con la mayor paciencia. Halley, que vino al
mundo en 1656, sabía que no podría observarlos, pero preparó el terreno para sus
sucesores. Estos dos pasos de Venus ante el Sol fueron estudiados detenidamente, en
especial el segundo, que fue observado por 34 grupos de astrónomos distribuidos por
toda la superficie del globo.
La suerte que corrieron estos grupos fue muy diversa. Son legendarias las
desdichas del infortunado Legentil, que habiendo escogido Pondichery para observar
el paso de 1761, llegó allí con retraso a causa de la guerra con los ingleses,
ebookelo.com - Página 31
decidiendo quedarse en aquellos parajes y ocupar los ocho años de espera estudiando
el sistema astronómico de los brahamanes, hasta el paso del 3 de junio de 1769. Para
colmo de desdichas, el día tan esperado hubo una tempestad, que le impidió efectuar
observaciones. De regreso a Francia, después de escapar con vida a dos naufragios, el
infortunado astrónomo descubrió que no solamente su nombre había caído en el
olvido después de tan larga ausencia, sino que su lugar estaba ocupado por otro, tanto
en la Academia como en su propia familia, encontrándose incluso con la
imposibilidad de heredar de sí mismo.
En el océano Pacífico, en cambio, la misión británica fue muy afortunada. La
Real Academia Británica envió al Endeavor, bajo el mando de Cook, a Tahití,
entonces llamada isla del Rey Jorge. Con los astrónomos se embarcaron naturalistas y
entre todos crearon en la punta más extrema de la isla un «Fuerte Venus», donde
compartieron su tiempo entre los encantos de la paradisíaca isla y una labor científica
efectuada en excelentes condiciones.
La unidad astronómica
Finalmente, después de confrontar las observaciones hechas en todo el mundo aquel
memorable 3 de junio de 1769, se establece la distancia Tierra-Sol en 147 000 000 de
km. Teniendo en cuenta lo que hoy sabemos, se observará que esta medida tenía una
notable precisión, pues el resultado nos hacía pasar de una ignorancia prácticamente
completa a un orden de magnitud excelente (el margen de error era inferior a 2%).
Desde luego, esta primera estimación se fue mejorando poco a poco: el paso de Venus
de 1874 dio la cifra de 148 000 000 de km y después se utilizaron otros métodos.
Pero únicamente fue un perfeccionamiento: el hecho memorable se efectuó en 1769,
cuando fue determinada científicamente por primera vez la unidad astronómica, o
nombre aplicado a la distancia media Tierra-Sol. El Instituto de Francia conmemoró
este descubrimiento acuñando una medalla en la que se ve a la diosa Venus de la
mitología pasando frente al carro de Apolo, con la leyenda: «Quo distent spatio
sidera juncia docent». (Ambos nos enseñan conjuntamente lo que distan los astros
del espacio).
Esta unidad astronómica servirá de base para medir, el cosmos.
A principios del siglo XIX se hace el catastro del sistema solar. Más allá de éste,
reina la más completa ignorancia. Ya ha pasado el tiempo en que se veía en las
estrellas a simples luminares puestos a muy poca distancia de la Tierra. A fines del
ebookelo.com - Página 32
siglo XVI, el infortunado Giordano Bruno ya tuvo la intuición de que las estrellas eran
soles lejanísimos en el Universo. Pero fue imposible calcular sus distancias.
ebookelo.com - Página 33
La ilusión de las constelaciones
Son raras las estrellas cuya distancia sea inferior a 10 años luz: su número es apenas
de una docena. Y una sola es visible a simple vista en el hemisferio Norte. Se trata de
Sirio, la estrella más brillante del firmamento (seirios = brillante), una de las primeras
conocidas en la historia de la civilización. En el Egipto antiguo, la aparición de Sirio
anunciaba la crecida del Nilo. Por este motivo, se consideraba a esta estrella como un
perro guardián cuya misión consistía en avisar. Se festejaba su aparición en un
período del año que ha conservado el nombre de canícula. Y este nombre de «Can»
pasó a la constelación cuyo astro más rutilante es Sirio (alpha Canis).
Estrella de los filósofos, que imaginaron a nuestro mundo visto por los habitantes
de su sistema, Sirio, que se encuentra a 8,7 años luz, fue tradicionalmente
considerada como la gran estrella vecina del Sol. Las estrellas más próximas,
efectivamente, son astros muy poco luminosos, con excepción de la magnífica Alfa
del Centauro, que se encuentra únicamente a 4,3 años luz y cuyas características son
mucho más parecidas a las del Sol. Pero la constelación del Centauro sólo es visible
desde el hemisferio austral; hay que descender hasta la latitud de Angola para
distinguirla.
Entre las mayores luminarias de nuestro cielo, el astrónomo sitúa a Fomalhaut a
22 años luz, Vega a 27, Arturo a 35 y Régulo a 75. Las dos hermosas estrellas de
Orión, Betelgeuse y Rigel, están situadas respectivamente a 500 y 800 años luz.
Estas medidas sistemáticas revelan el carácter a menudo aleatorio de las
constelaciones o agrupamientos de estrellas, en los que antaño el hombre quiso ver
formas de objetos y seres que le eran familiares. Los astros que aparecían en la
bóveda celeste se consideraban situados todos a la misma distancia. Pero la medida
de su respectivo alejamiento introduce la tercera dimensión en este cuadro y destruye
las leyendas.
Leo especialmente se convierte en un puro efecto de perspectiva: la estrella
Epsilon de esta constelación está a más de 1600 años luz, mientras que Delta, la
estrella del lomo, está a 85. Finalmente Denébola, de donde parte el rabo del felino,
está solamente a 43 años luz. Por lo tanto, no existe ningún vínculo verdadero entre
estos astros. Es más: la estrella Vindematrix, catalogada en la constelación de Virgo,
está más cerca de la estrella Delta que Denébola.
Además de una proximidad casi siempre ilusoria, hacía falta también mucha
imaginación para ver verdaderamente a un león en una configuración caprichosa de
estrellas. Mas lo que resulta verdaderamente erróneo es que hoy aún se continúe
hablando de personas «nacidas bajo el signo de Leo», atribuyendo con toda seriedad
a este animal los rasgos de su carácter.
ebookelo.com - Página 34
4. El cielo en relieve
En este dibujo de las constelaciones circumpolares se indican las distancias estelares más conocidas. La
flecha señala la nebulosa de Andrómeda. Comparando su distancia con la que se encuentra el Japón de un
habitante de París, estas estrellas representarían diversos puntos de la capital de Francia…
ebookelo.com - Página 35
y estudia el brillo de las estrellas.
La observación visual distingue desde antiguo seis categorías entre las estrellas
descubiertas a simple vista. Las más brillantes se llaman «de primera magnitud». En
la época de la fotometría, los astrónomos efectúan mediciones físicas en vez de una
simple apreciación, conviniendo en que el brillo es 2,5 veces más débil a cada nueva
categoría que se aumenta. Así han creado una escala de magnitudes que admite cifras
decimales y por otra parte cifras negativas para las estrellas muy brillantes.
Pero el brillo de una estrella tanto depende de su verdadera luminosidad como de
su distancia. Era imposible desglosar estos dos factores cuando no podían calcularse
las distancias. La medición de las distancias sí lo permite, proporcionando así una
información de importancia primordial, al darnos a conocer la luminosidad intrínseca
de las diversas estrellas.
La luminosidad, naturalmente, se compara con la del Sol, que nos hemos
acostumbrado a tomar por unidad de luminosidad estelar[9]. Así, se calcula en 23 la
luminosidad de Sirio y en 110 la de Arturo. Muy cerca de Alfa del Centauro, Próxima
(que, como su nombre indica, es la estrella más próxima conocida) tiene una
luminosidad de 0,000 07.
O bien, los astrónomos adoptan el lenguaje de las «magnitudes absolutas»,
designando por este nombre a la magnitud que tendrían las estrellas si todas se
observasen desde una distancia de 10 parsecs.
Nuestro Sol aparecería entonces como una pequeña estrella cuya magnitud sería
de 4,7 (estrella llamada de quinta magnitud). Ésta es, pues, su magnitud absoluta.
Sirio tendría la cifra de 1,3. La magnitud absoluta de Vega sería de 0,5. La de una
estrella dos veces y media más luminosa, como Capella, será de −0,5. Pero éste no es
el récord: hoy se atribuyen magnitudes absolutas de −6,5 y −7 a Rigel y Deneb,
respectivamente, exponentes de una luminosidad de 40 000 y 60 000 para cada
estrella[10].
El cielo en relieve
Después de calcular las magnitudes absolutas de las estrellas cuya distancia aprendió
a medir, el astrónomo descubre que hay «tipos» de estrellas: los astros del mismo
color, en efecto, poseen magnitudes absolutas comparables. Y esta correlación revela
la distancia de las estrellas más lejanas. Si admitimos que el color se relaciona con la
magnitud absoluta, la magnitud aparente determinará el alejamiento. El astrónomo se
ebookelo.com - Página 36
comporta como un navegante que observase faros de distintos colores, sabiendo que a
cada color corresponde una potencia luminosa determinada: así, la apreciación del
brillo le informa sobre la distancia.
Esta técnica es muy delicada. La clasificación de las estrellas no tarda en ofrecer
espinosos problemas. Pero el principio empleado permite tomar por referencia
algunas estrellas muy luminosas y después colecciones enteras de estrellas. Y los
astrónomos imaginan otros métodos que utilizan principalmente las estrellas variables
(cefeidas), en las que creen ver una relación entre período y luminosidad.
Descubren entonces que el Sol forma parte de una inmensa familia que tiene la
forma de una gigantesca lenteja y que tal vez contiene cien mil millones de estrellas.
En el cielo nocturno, su perspectiva constituye el majestuoso camino blanco (el
camino de Santiago) que en la Antigüedad se comparó a miles de gotas de leche. Así,
los antiguos astrónomos le dieron el nombre de Galaxia (galacta = leche) o Vía
Láctea.
Tanto los físicos como los astrónomos afirmaron repetidamente que las manchas
que aparecían en algunos lugares del firmamento y que recibían el nombre de
nebulosas, podrían ser otras tantas Vías Lácteas. Abbe defendió en particular esta
tesis con la mayor energía. Por desgracia, no pudo sostenerla con pruebas.
Durante los primeros lustros del siglo XX, aún solía afirmarse que nuestra Galaxia
constituía todo el Universo, y se suscitaron apasionadas controversias sobre la
existencia de «algo» fuera de la Galaxia.
5. El norte cósmico
En nuestras latitudes, esta imagen del firmamento septentrional en el mes de mayo a las 23 h (o en abril a 1 h, o
en marzo a 3 h), confunde casi la Vía Láctea con el horizonte y permite una fácil localización de las
constelaciones.
El norte cósmico está ante el observador, indicado por Casiopea. Al este está el Águila y al oeste, Taurus y
Orión. El borde de la Galaxia más próximo al Sol está en la dirección del Auriga.
ebookelo.com - Página 37
Fue entonces cuando la astronomía conoció su más impresionante desarrollo.
Durante muchos decenios, la eficacia de los grandes instrumentos ópticos da motivo a
enconadas polémicas; muchas veces se les comparó con muestras de anteojeros.
Pero los norteamericanos dan el paso decisivo. Después de construir un anteojo
gigante, con una abertura de 102 cm (Yerkes, 1897), se instala en 1917 un telescopio
de 257 cm en el Monte Wilson. Por medio de este telescopio —Abbe había muerto un
año antes—, Hubble descubrió que la mancha observada en la constelación de
Andrómeda no era una nube de gases: el nuevo instrumento determinaba sin
posibilidad de duda que estaba constituida por millones de estrellas.
El desconcierto que produce este descubrimiento es considerable. Lo que se
entrevé en aquella «nebulosa de Andrómeda» es otra galaxia[11] vecina de la nuestra.
Al poco tiempo, se descubren galaxias a millones. Se inicia entonces la carrera
mundial de los instrumentos gigantes: una veintena de grandes telescopios se
construyen entre 1920 y 1960. El récord se lo lleva el instrumento de Monte Palomar
(1948), con sus 508 cm de abertura.
Después de hacer el catastro del sistema solar y de la Galaxia, el hombre descubre
toda la inmensidad del Universo: el alcance de los telescopios se cifra en centenares
de millones y en miles de millones de años luz.
Ciertamente, durante mucho tiempo será difícil apreciar con exactitud el
alejamiento a que se encuentran las galaxias. Así, entre 1950 y 1960, estas distancias
tienen que duplicarse por dos veces.
Entretanto, el «modelo» del Universo —o sea, su imagen tridimensional—
empieza a precisarse y puede levantarse, un mapa, tomando por referencia el plano de
nuestra Galaxia. Esta posee un diámetro que hoy se calcula en 100 000 años luz y,
partiendo del centro o núcleo de la misma, el Sol se encuentra a las dos terceras
partes de un radio que apuntase desde el Auriga a Orión. Podemos decir, pues, que al
mirar a Betelgeuse, nos volvemos aproximadamente hacia el «borde» de la Galaxia
más próximo al Sol.
El centro se encuentra evidentemente en la dirección opuesta, hacia Sagitario. La
majestuosa Antares del Escorpión proporciona un cómodo punto de referencia, no
muy alejado de la dirección citada y que se caracteriza por una extraordinaria
abundancia de estrellas en la bóveda celeste.
Los astrónomos se han acostumbrado a definir un «norte cósmico» proyectando la
dirección de la Polar sobre el plano galáctico (lo que generaliza nuestro norte
clásico); entonces, el radio sobre el que se encuentra el Sol forma con ella un ángulo
aproximado de 57° (fig. 6)[ver].
Las figuras 7[ver] y 8[ver] indican la fisonomía del Universo con tal orientación a
dos escalas.
Alejándonos de nuestra Galaxia por el lado sur, descubrimos así dos pequeñas
galaxias satélites: las nubes de Magallanes. Sólo visibles desde las regiones australes,
ebookelo.com - Página 38
fueron percibidas por los navegantes portugueses, como su nombre indica. Sus
diámetros son de 30 000 y 40 000 años luz y unos «puentes» de hidrógeno deben
unirlas a nuestra galaxia.
6. Nuestra Galaxia
El eje horizontal que sirve de referencia para medir los grados en la Vía Láctea refleja la orientación anterior de
un observador que, de pie en nuestra Galaxia, estuviese vuelto hacia el norte.
ebookelo.com - Página 39
situadas a menos de 100 000 000 de años luz. Después, entre 100 y 150 000 000 de
años luz, vemos por una parte a siete pequeños grupos y por otra el gran enjambre de
Coma, en la Cabellera de Berenice. Y entre 150 y 250 000 000 de años luz, se
encuentra el enorme cúmulo de Hércules.
A esta escala, por desgracia, y con más dificultad que en la escala galáctea, es
difícil trazar un mapa del firmamento. El hombre del siglo XX sólo consigue situarse
confusamente por lo que a las galaxias lejanas se refiere.
Y de todos modos, sus más potentes telescopios no le revelan los límites del
Universo. Aunque lleguen cada vez más lejos, siempre descubren nuevas galaxias en
el límite de la visión telescópica.
¿Es finito el Universo?
Sí, responden los matemáticos, que han tenido el atrevimiento de calcular su masa
total, basándose en consideraciones teóricas.
Sí, afirman como un eco los astrónomos: el Universo es finito y realiza una
impresionante evolución, que demuestra su expansión.
ebookelo.com - Página 40
mismo que en acústica un sonido se hace más grave cuando la fuente emisora se
aleja, el desplazamiento de las bandas luminosas hacia las grandes longitudes de onda
debe interpretarse como un alejamiento de las fuentes luminosas.
Es el clásico efecto Doppler-Fizeau, que relaciona la velocidad de una fuente de
emisión con la longitud de onda aparente de sus señales. Por ejemplo, si
abandonásemos la Tierra a bordo de una astronave muy veloz, las estaciones de
radiodifusión no ocuparían ya en el cuadrante de un receptor sus lugares
acostumbrados. Sin embargo, las identificaríamos merced a sus números de
referencia y el corrimiento revelaría nuestra velocidad. La espectroscopia ofrece
recursos análogos y podemos considerar a los distintos elementos como colecciones
de emisoras.
ebookelo.com - Página 41
sea, que a dicha distancia el Universo ya no podría existir; por lo tanto, éste debió de
nacer hace 13 000 millones de años, de una explosión gigantesca que proyectó en el
espacio la materia de un núcleo inicial, cuyo radio sería de 2000 millones de años luz.
¿Podemos admitir la realidad de semejante expansión? No hay unanimidad de
pareceres sobre el problema. Algunos científicos consideran temerario basarse en una
sola prueba para afirmar la existencia de un fenómeno tan fantástico. ¿Y puede
afirmarse que el efecto Doppler indica obligatoriamente una expansión del Universo?
Durante varios decenios, los partidarios y los adversarios de la expansión se
enzarzan en reñida controversia.
Los primeros llevan la voz cantante durante la época de la radioastronomía, en
que los partidarios de un Universo estático[17] ven disminuir sus efectivos.
Se registra el efecto Doppler en la longitud de onda de 21 cm, que permite
escuchar las nubes de hidrógeno interestelar, lo mismo que en el caso de las ondas
lumínicas. Mejor aún: los corrimientos en la longitud de onda corresponden a las
diferencias registradas en los casos de objetos cuyas distintas velocidades se conocen.
Además, dejando aparte las observaciones físicas, ¿no fue prevista la expansión
por los matemáticos, que demostraron la inestabilidad de un Universo estático?
El signo de interrogación
Sin embargo, no se ha llegado a la unanimidad. Muchos astrónomos se muestran
refractarios a la nueva teoría e incluso exponen nuevas hipótesis, observando que la
radiación luminosa no es más que una lluvia de fotones. Y en los largos recorridos
cósmicos, las colisiones que sufren los fotones podrían representar un factor natural
de pérdida de energía[18].
El astrónomo intenta hallar una respuesta aumentando el alcance de sus
instrumentos. Los mejores instrumentos ópticos alcanzan normalmente hasta mil
millones de años luz, y de 5 a 7 000 millones en circunstancias excepcionales.
Mientras no se disponga de lentes mayores, lo cual es dudoso, se puede exigir más a
los radiotelescopios, en cuyo caso la tarea de escrutar el espacio se convierte también
en un viaje por el tiempo. Al sondear el Universo a 10 000 o 15 000 millones de años
luz, un radiotelescopio observará unos sucesos que tuvieron lugar igual número de
años antes.
Si la expansión tuvo un «comienzo», el hombre tiene la posibilidad de revivirlo
gracias a estos medios.
ebookelo.com - Página 42
En Sugar Grove, los norteamericanos trabajaron durante un tiempo en la
construcción de un inmenso radiotelescopio de 176 m, del que esperaban un alcance
de 30 000 millones de años luz. Merced a él, los astrofísicos confiaban en ver «los
tiempos en que nuestro Universo aún no existía». Pero la construcción de este aparato
tropezó con graves dificultades mecánicas y se terminó por abandonar este proyecto,
arguyendo que se podrán obtener informaciones equivalentes con colectores
múltiples. No se ha perdido, pues, la gran esperanza de remontarnos hasta sus
mismos orígenes.
En espera de alcanzar este objetivo, el astrónomo trata de cribar las informaciones
obtenidas con los aparatos existentes, que ya le proporcionan preciosas indicaciones.
A menos que se basen los cálculos en una transformación continua de la radiación
en materia —tesis que los ingenios espaciales no corroboran[19]—, los partidarios de
la expansión se ven obligados a admitir que el Universo primitivo fue muy denso: por
lo tanto, tendríamos que hallar concentraciones de materia cada vez más importantes
cuanto más lejos nos remontásemos en lo pasado; es decir, al registrar más
profundamente el espacio. ¿Confirman los sondeos efectuados este punto de vista?
En 1961, el astrofísico inglés Ryle publicó los resultados de los pacientes análisis
efectuados en Cambridge con el radiotelescopio Mullard: este gigantesco canal
parabólico de 442 m, fijo en el suelo, focaliza la radiación hacia una antena montada
sobre un raíl. Los datos son transmitidos por un telescritor a una calculadora
electrónica.
Ahora bien, Ryle estima que la densidad de las fuentes aumenta a medida que nos
remontamos en el tiempo, y, por extrapolación, el astrofísico deduce que nuestro
Universo nació de una explosión gigantesca, que tuvo lugar hace 13 000 millones de
años.
Sin embargo, se le puede hacer una objeción: ¿No sería posible que la radiación
más intensa descubierta en lo pasado, procediese de galaxias que en su juventud
tuvieron mayor actividad, sin que esto quisiera decir que estuviesen más
concentradas?
Así se acumulan los indicios a favor de la expansión, sin que se haya alcanzado
todavía una certidumbre.
El sentido de la evolución
Pero quizá este gran debate en torno a la expansión fuese en cierto modo un problema
ebookelo.com - Página 43
mal planteado.
Fuese cual fuere el punto de vista adoptado, resulta característico que todas las
opiniones concuerden para ratificar una evolución de nuestro Universo a partir de la
época considerada como principio de su expansión.
Actualmente, vemos en efecto millones de astros en el cielo, y descubrimos una
materia en la que domina el hidrógeno a la escala cósmica, pero junto al cual han
surgido otros elementos, dotados de núcleos más complejos. Así la materia dio origen
a diversos tipos de asociación a partir de un estado inicial particular; vivió una
extraordinaria novela, de la que nació nuestro mundo actual.
¿Por qué y cómo?
Comprender el Universo, a decir verdad, es ante todo imaginarse esta evolución.
Es descubrir por qué procesos las partículas fundamentales originaron galaxias,
estrellas, un Sol, una Tierra y unos hombres que hoy reconstruyen esta prodigiosa
evolución, preguntándose de dónde procedían estas partículas y el cortejo de
entidades —espacio, tiempo, masa— de las que ellas ya eran tributarias.
Sí, es en las partículas donde hay que buscar los secretos del Universo.
Remontándonos en pensamiento a los tiempos en que este Universo no era más
que una inmensa nube de hidrógeno, es decir, una colección de protones y electrones,
veremos que todo el destino del cosmos prodigioso estaba inscrito en potencia en
aquellas partículas.
Partículas que hoy componen nuestro cuerpo, la Tierra y el cielo y que vivieron
escenas que asumieron los marcos más diversos. Téngase en cuenta que su papel no
fue el de simples agentes pasivos: no eran «granos de materia», sino verdaderos
individuos cuyas características gobernarían toda la cibernética cósmica.
Ésta será en el terreno filosófico la verdadera revolución del siglo XX.
Al principio, en efecto, el hombre entrevió el mundo atómico a partir de una
división cada vez mayor de la materia que percibía por sus sentidos. Le dominaba la
tendencia instintiva a considerar las moléculas como modelos reducidos, pues los
objetos verdaderos eran los que percibía a su propia escala. Y solía imaginarse como
unos gigantes a los demiurgos del cosmos. Así, después de descubrir el átomo, el
hombre lo miró de arriba abajo con un talante algo desdeñoso, viendo en aquellas
partículas, simples bolitas microscópicas cuya única importancia radicaba en su
número. ¿No tenían que reunirse en grandes cantidades para formar el mejor objeto o
provocar el fenómeno más insignificante?
Sin embargo, hay que adoptar la actitud opuesta, viendo en realidad en el mundo
atómico al verdadero agente creador de todo nuestro Universo.
Si intentamos trazar su historia, no podremos comparar las partículas con ladrillos
o con muebles colocados en el marco de las grandes estructuras, a medida que el
cosmos se iba organizando.
Estas estructuras, efectivamente, no existían de antemano. Al seguir la evolución
del Universo, descubriremos en cambio que en todas sus etapas fueron creadas por
ebookelo.com - Página 44
obra de las partículas. No podemos hablar, pues, de un Universo ocupado por las
partículas, sino de un Universo construido y formado por ellas, pues las propiedades
de estas partículas elementales condicionaron su fisonomía, y su acción dio origen a
una materia cada vez más y más organizada.
Nos daremos cuenta de ello pasando revista a las «fuerzas» que les eran propias.
En primer lugar, cada partícula poseía lo que llamamos una masa. De dicha
entidad se originaría una fuerza de atracción universal: la gravitación.
Sabemos además que los electrones y los protones poseían cargas eléctricas. La
electricidad nos coloca en presencia de una fuerza que presenta dos aspectos: si bien
la gravitación ejerce siempre una atracción, las fuerzas eléctricas solamente atraen las
partículas de signo contrario, rechazando las cargas del mismo signo.
Finalmente, trabaremos conocimiento con otra fuerza muy especial, que sólo se
ejerce entre las partículas pesadas.
Con el conocimiento de estos datos, comprenderemos que el Universo estaba
llamado a evolucionar siguiendo una línea directriz que daría por resultado el
nacimiento de astros y la aparición, en la Tierra, de una substancia soberanamente
organizada: la materia biológica.
El punto de arranque fueron las partículas. El de llegada será el hombre.
Éstos son los dos extremos de una cadena, cuyos eslabones descubriremos al
revivir la novela de la materia.
ebookelo.com - Página 45
3
La obra de la gravitación
La característica primordial de las partículas es la atracción que ejercen sus masas. Se
trata de una acción insignificante cuando el número de partículas es reducido, pero se
manifestará importante cuando éstas sean muy numerosas.
Éste es el sentido de la fuerza que conocemos con el nombre de gravitación.
Representó un papel decisivo durante la etapa de un Universo primitivo, reducido aún
a una vasta nube de hidrógeno que ocupaba el espacio, o sea, una colección
compuesta quizá por 1060 protones y otros tantos electrones.
En esta inmensa formación, las primeras grandes transformaciones topológicas se
realizaron por los efectos de la gravitación: la atracción universal será la responsable
de la organización macroscópica del cosmos.
ebookelo.com - Página 46
ariete, el factor inercia que, en el marco terrestre, revela una masa sin tener que
acudir a su peso. Independientemente de todo peso, una masa, en efecto, se
manifiesta por la resistencia física que opone a los cambios de velocidad.
A este respecto, la era espacial nos ofrece ya las situaciones que permiten
distinguir masa y peso. Un objeto transportado a cualquier lugar del Universo
contiene siempre la misma cantidad de materia: la masa, por consiguiente, será la
magnitud invariable que permite medir dicha cantidad. En cambio, el peso de un
cuerpo refleja las condiciones a que está sometido. En la superficie de la Luna, por
ejemplo, la atracción ejercida por el astro corresponde únicamente a una sexta parte
de nuestra gravedad.
Lo que equivale a decir que la elevación de un objeto, en la Luna, exige un
esfuerzo seis veces menor. En cambio, la energía necesaria para crear una velocidad
será exactamente la misma. Si levantamos una esfera metálica, nos sorprenderemos
ante su liviandad y nos parecerá levantar una bola de corcho. Pero al lanzarla con el
mismo movimiento que en la Tierra, encontráremos que es tal como la conocíamos. Y
en una pista lunar, un ciclista pesará seis veces menos, pero sufrirá los efectos de la
misma fuerza centrífuga que experimentaría en la Tierra y, por lo tanto, deberá
efectuar los virajes muy inclinado…
Por último, cuando una astronave efectúa un viaje en caída libre por el espacio,
adquiere la misma aceleración que los cuerpos que transporta, y, por lo tanto, la
diferencia será nula. El resultado de ello, a bordo, será una ausencia de peso y, por lo
tanto, una cápsula espacial se nos presenta como un laboratorio ideal para estudiar el
fenómeno masa.
En el interior de uno de estos ingenios, los objetos no caen al soltarlos; el lápiz
abandonado permanece encima del papel como sostenido por una mano invisible,
dispuesto a trabajar de nuevo; el agua no se vierte de la botella inclinada y la
progresión normal es imposible, al no existir adherencia contra el suelo. Y los
proyectiles describen líneas rectas, rebotando en las paredes como las bolas en las
bandas de una mesa de billar. La ausencia de gravedad pone entonces de manifiesto la
inercia. Levantar un objeto no exige ningún esfuerzo. Levantarlo o más bien moverlo
con rapidez en una dirección determinada, requiere un esfuerzo tanto mayor cuanto
más importante sea su masa. Titov «dejaba» su cámara en el aire, anclada por su
inercia.
Pero esta creación de medios desprovistos de gravedad es extremadamente
reciente. El destino común de los hombres, en cambio, fue siempre el de no poder
imaginarse masas desprovistas de peso, por haber vivido encadenados
constantemente a su planeta por la gravitación.
ebookelo.com - Página 47
Un ejemplo demasiado magistral
Y el peso era un caso anómalo de la gravitación.
Del uno al otro confín de la Tierra, sus variaciones —0,5% entre los polos y el
ecuador— escapan a la apreciación. Hay que esperar al siglo XX para que el hombre
compruebe, durante competiciones deportivas excepcionales, que un peso cambia
ligeramente en valor según el lugar.
Por lo demás, el carácter «universal» de la gravitación no se demuestra con el
peso, pues está disimulado por la disimetría de las masas que intervienen. La
atracción mutua de dos cuerpos, en efecto, depende del producto de sus masas. Pero
al ser la gravitación una fuerza débil, este producto solamente adquiere valor
importante cuando una de las dos masas es la Tierra. Si soltamos dos piedras juntas,
tendrán tendencia a acercarse, al caer hacia el suelo, pero su atracción mutua será tan
insignificante que el fenómeno escapa a la observación y, en apariencia, cada piedra
describirá su trayectoria propia como si la otra no existiese.
Así, al tener conocimiento del mundo, el hombre tardará mucho tiempo en
relacionar la gravedad o peso de los cuerpos con la masa de su planeta.
Por lo demás, al principiar el siglo XVI aún no había dado la vuelta al mundo. Los
periplos de Piteas lo llenaron de asombro, en otras épocas: el viajero marsellés
alcanzó una región donde «el Sol no desaparecía del horizonte». Pero el hombre vivía
como un provinciano, sin tener una visión general de su planeta, imaginando un cielo
sostenido por columnas por encima de una Tierra plana.
Durante mucho tiempo, esta ilusión de un «arriba» y un «abajo» absolutos se
opone a la representación esférica de la Tierra, preconizada por Aristóteles: si la
Tierra fuese redonda, afirman gravemente los escolásticos, los habitantes de los
antípodas estarían cabeza abajo y los océanos se derramarían en el vacío…
Pero, finalmente, después de medir su planeta y empezar a considerarlo como un
astro, el hombre comprende que la gravedad es una fuerza que atrae los objetos hacia
el centro de la Tierra. Mas entonces cree que en las entrañas del planeta existe un
poder misterioso.
Hace falta la intuición de un Newton para generalizar la fuerza de gravedad,
convirtiéndola en gravitación universal y para comprender que el poder de atracción
de la Tierra debe atribuirse únicamente a su cantidad de materia.
Cuenta la leyenda que el ilustre físico tuvo esta revelación al pie de un manzano
de su aldea natal. Quizá esto no sea una fábula; la propia madre de Newton refirió
esta anécdota a Voltaire, dándola por auténtica. Y hasta que una tempestad lo
destruyó, en 1812, el árbol de Woolsthrope fue un centro memorable de
peregrinación…
Al observar la caída de la manzana, Newton presintió que era atraída por la Tierra
en virtud de una ley general que impulsa a todos los cuerpos del Universo a atraerse,
ebookelo.com - Página 48
con una fuerza que está en relación con su masa. Y el físico enunció entonces la ley
de la gravitación, diciendo que la fuerza de atracción entre dos masas varía
inversamente al cuadrado de la distancia: cuando el alejamiento es doble o triple, la
fuerza de atracción es cuatro o nueve veces menor.
Semejante fuerza de atracción dará órbitas elípticas a los planetas, admitiendo al
Sol como centro, y las leyes que Kepler dedujo de la observación casi un siglo antes,
encontraron su justificación científica. Había nacido la mecánica celeste.
La constante de gravitación
Pero ¿cómo calcular la intensidad del «poder gravífico»? ¿Qué atracción recíproca
ejercerán dos masas de 1 kilogramo que disten 1 metro? Su valor será la «constante
de atracción universal». En tiempos de Newton, esta constante era desconocida,
desde luego, y durante mucho tiempo fue muy difícil precisarla.
No se trata, en particular, de deducirla del peso de nuestros objetos, pues la masa
de la Tierra aún no se ha calculado.
Para proceder a mediciones «absolutas» hay que utilizar masas conocidas y
estudiar su atracción recíproca en el laboratorio. Teniendo en cuenta que se trata de
fuerzas levísimas, estas experiencias son muy delicadas. Pero Cavendish las realiza a
fines del siglo XVIII, empleando una varilla horizontal, móvil alrededor de su centro y
a cuyos extremos se hallan suspendidas bolas de plomo. Puestas delante de unas
esferas de platino, la torsión de la varilla indica su atracción recíproca. Así consigue
demostrar Cavendish que la atracción es algo propio de todas las masas y calcula la
constante de gravitación, sacando la conclusión de que dos masas de 150 kg, cuyos
centros respectivos disten 10 cm, se atraerán con la fuerza que la Tierra ejerce sobre
un milímetro cúbico de agua. Y este débil valor explica muy bien que no podamos
percibir la mutua atracción que se ejerce en las masas.
Conocida la constante de gravitación, se puede calcular la de la Tierra (que es
aproximadamente de 6·1024 kg), y de una manera general la de los cuerpos celestes
cuya gravedad puede medirse. Esto se aplica, especialmente a los astros dotados de
satélites. Así se calculan las masas del Sol y de los planetas superiores. Más adelante,
este método se aplicó a las estrellas que poseen compañeros. Poco a poco, se fueron
pesando todos los astros y la precisión de los cálculos absolutos era la misma que la
constante de gravitación, conocida durante mucho tiempo de forma harto sumaria.
Heyl reanudó en 1930 los experimentos de Cavendish, pero sólo consiguió una
ebookelo.com - Página 49
precisión de una milésima…
ebookelo.com - Página 50
7. Las cercanías de nuestra Galaxia
Se conserva la misma orientación, de las figuras 5[ver] y 6[ver], pero las dimensiones se han reducido en la
proporción de 20.
ebookelo.com - Página 51
8. Nuestro universo local
Una nueva reducción (en una proporción próxima a 150) ofrece una imagen del Universo hasta varios centenares
de millones de años luz. El cuadradito central indicado por una flecha contiene la carta precedente.
Por lo tanto, si masa y peso no estuviesen en la misma relación para los cuerpos
constituidos por diversas substancias, fuerza centrífuga y peso no tendrían la misma
importancia relativa. Suspendidos de un hilo, estos cuerpos deberían adquirir
direcciones ligeramente distintas. Sin embargo, Eötvös no señala la menor diferencia.
Sus experimentos se repiten en 1960 en la universidad de Princeton con una precisión
mil veces superior (mediciones a la diez milmillonésima), pero el resultado también
es negativo.
Por consiguiente, el poder de gravitación nos aparece completamente relacionado
con el factor masa, y esto hizo que Einstein relacionase la entidad masa con una
estructura del espacio. Pero nuestra finalidad no consiste en exponer el origen de la
gravitación ni plantear el problema de las posibles variaciones de la constante
representada por la atracción universal, según las regiones y las épocas.
Mencionamos únicamente el hecho de que las partículas del Universo primitivo se
atraían. Y se trata de comprender las consecuencias que esta atracción tendría en la
evolución del Universo.
ebookelo.com - Página 52
2.— Nacimiento de las galaxias
Los físicos descubrieron la gravitación en una época en que se ignoraba la verdadera
naturaleza de la materia y especialmente la existencia de las partículas. Y se inauguró
una manera de pensar, que veía los problemas de la gravitación a la escala de los
cuerpos celestes.
Así, nuestra mecánica se aplica a unos mundos que ya han adquirido cohesión[20],
y los asimila a objetos compactos que evolucionan en un medio que se supone vacío.
Semejante modelo refleja, ciertamente, la situación actual: los astros que nos son
familiares son estables, y, en el sistema solar, la materia distribuida por el espacio es
relativamente poco abundante, por lo que su gravitación apenas tiene importancia
comparada con la de los astros.
En una carta del sistema solar, el astrónomo podrá entonces razonar como si las
masas de los astros estuviesen concentradas en el centro de los mismos, y estudiar la
atracción mutua de las masas, sin ocuparse de los astros, cuya existencia ya da por
sentada. En cierto modo, la gravitación queda reducida al rango de agente de la
circulación, pues fija las órbitas.
Sin embargo, tuvo ocasión de manifestarse de manera muy distinta en el Universo
primitivo, mediante una labor mucho más importante, pues en los primeros tiempos
intervino para provocar, a partir del caos inicial, la formación y la transformación de
objetos y después para garantizar su cohesión.
Es preciso observar que el término objeto debe entenderse en un sentido muy
general. Desde luego, la Tierra es un objeto, y a causa de una estructura superficial
sólida su cohesión no parece deber ya nada a la gravitación, que asegura únicamente
la retención de una atmósfera. Pero téngase también en cuenta que los planetas son
«objetos secundarios», cuyo nacimiento acaecerá en el regazo de las estrellas, o sea,
de objetos primarios gaseosos. El problema cosmogónico, pues, se plantea de manera
muy diferente al remontarnos en el tiempo: se trata de considerar de qué manera las
fuerzas de la gravitación pudieron asegurar la existencia de astros gaseosos…
Un objeto gaseoso
ebookelo.com - Página 53
partículas o los átomos de hidrógeno que ocupaban un determinado volumen de
espacio se apresaron mutuamente bajo el efecto de su recíproca atracción, con el
resultado de que ya no pudieron abandonar aquellas regiones.
Pero entonces interviene un factor distinto a la gravedad. La gravedad de un astro
indica la atracción ejercida por su masa y tiene un sentido estático. Pero cuando algo
desee evadirse de su superficie, tendrá que efectuar un trabajo que, desde luego,
dependerá de la gravedad, pero también de la manera como ésta varíe con la
distancia.
Imaginemos, por ejemplo, dos astros de diferente volumen, en cuya superficie la
gravedad fuese idéntica. Para que la gravedad disminuya en 75%, es necesario
alejarse, en ambos casos, hasta una altitud igual al radio del astro.
En consecuencia, la distancia a recorrer será más larga para el astro menos denso,
que, al tener un volumen mayor, tendrá también un radio mayor. Y por consiguiente,
será preciso emplear una energía más considerable para vencer una misma fracción
de la gravedad. Así, la energía total que permita alejarse indefinidamente —y que
recibe el nombre clásico de energía de escape— no será la misma.
Las operaciones espaciales nos han familiarizado con semejante situación, al
hablarnos de la «velocidad de escape o de liberación» de un astro. Esta velocidad, por
definición, es la que hay que imprimir a una masa desde la superficie del astro, para
asegurarle la energía de escape bajo una forma cinética. Y este concepto nos
proporciona un lenguaje particularmente apropiado para discutir los problemas
cosmogónicos.
Es notable, en efecto, la relación que existe entre la astronáutica o ciencia que
trata de los cuerpos celestes artificiales y la cosmogonía, que estudia la evolución de
los objetos que poblaron naturalmente el espacio.
Recordará el lector que en astronáutica nunca interviene la masa de nuestro
planeta, cuyo valor sólo es conocido por los especialistas. En cambio, suele citarse a
menudo la velocidad de escape desde la superficie de la Tierra, que equivale a
11,2 km/s.
Así, discutiremos la cohesión de un astro —o, más generalmente, de un objeto
gaseoso— comparando su velocidad de escape con la velocidad de las partículas que
constituyen su periferia.
Por ejemplo, la velocidad de escape del Sol es de 618 km/s. Semejante velocidad
retiene fácilmente los elementos componentes de su superficie, que son átomos de
hidrógeno dotados de una velocidad de 12 km/s, y retiene asimismo la atmósfera del
astro, en la que la velocidad de las partículas alcanza por lo general 100 km/s. Si la
velocidad de escapé del Sol fuese diez veces menor, su cohesión estaría asegurada,
pero perdería su fotosfera y, por lo tanto, estaría condenado a una rápida
evaporación…
ebookelo.com - Página 54
Matemáticas y velocidad de escape
Como la gravedad, la velocidad de escape de un astro depende de su masa. Pero ya lo
hemos señalado: a igualdad de gravedad, la velocidad de escape será mayor para un
objeto de menor densidad.
Teniendo en cuenta la ley de la atracción universal, podemos deducir que la
gravedad de un astro aumenta como su masa y que es inversamente proporcional al
cuadrado de su radio. La velocidad de escape, en cambio, aumenta solamente con la
raíz cuadrada de la masa y es inversamente proporcional a la raíz cuadrada del radio.
Así, todas las «combinaciones» serán posibles, ateniéndonos a las diferentes
densidades de los cuerpos celestes.
Por ejemplo, suponiendo un planeta que tuviese un radio doble del de la Tierra y
una masa cuádruple, las consideraciones precedentes nos demostrarían que, en su
superficie, la gravedad sería la misma que en la Tierra: en este astro hipotético, un
litro de agua pesaría 9,8 newtons[21], y, después de caer durante un segundo, un
objeto tendría una velocidad de 9,8 m/s, como en la Tierra. En cambio, la velocidad
de escape ascendería a 15,8 km/s. Y la gravedad continuaría siendo la misma en un
planeta que tuviese nueve veces la masa de la Tierra con un radio triple del de ésta,
pero la velocidad de escape alcanzaría entonces 19,4 km/s.
Inversamente, los astros tendrían la misma velocidad de escape que la Tierra, pero
gravedades menores, si se aumentasen la masa y el radio en la misma proporción.
Vamos a multiplicarlos por 10, es decir, vamos a imaginar un planeta con una masa
diez veces superior a la de la Tierra, pero con una densidad cien veces inferior. En
este planeta de corcho, los pesos de los objetos son diez veces menores, pero para
lanzar satélites, los cohetes tendrán que crear las mismas velocidades que en la
Tierra.
Y al multiplicar masa y radio por 100, nada nos impide imaginar un mundo
gaseoso en el que la velocidad de escape sea igualmente 11,2 km/s, pero cuya
gravedad sea solamente la centésima parte de la terrestre. Con coeficientes más
elevados, la gravedad cada vez será menor, mientras que la velocidad de escape
conservará el mismo valor.
Estas consideraciones son de importancia capital. Nos proporcionan la clave de
los problemas cosmogónicos, si queremos vislumbrar la acción de la gravitación en
los tiempos del Universo primitivo. Es preciso tener en cuenta, en efecto, que por
débil que sea la densidad de una formación gaseosa, su velocidad de escape puede
ser suficiente para asegurar su cohesión, a condición de que el volumen sea
suficientemente importante.
Por este motivo, en la nube inicial, en la que el hidrógeno tenía una densidad
débil, los primeros objetos fueron enormes concentraciones de gases, precursoras de
las galaxias.
ebookelo.com - Página 55
Se desgarra la nube primitiva
En esta nube no tardarán en producirse desgarrones, pues, en efecto, es inestable y su
gravitación origina contracciones locales, que por su parte crean también una tensión
interna. Así, correrá la misma suerte que una tela demasiado tirante: un proceso de
desgarramiento será inevitable.
Y estos trastornos aumentan en progresión geométrica. La materia que bordea un
desgarrón cesa de estar tirante y se contrae, produciendo concentraciones que crean a
su vez desequilibrios, mientras los desgarrones se generalizan para condenar
progresivamente la nube primitiva a una fragmentación a todo lo largo y lo ancho. De
este proceso nacen gigantescas condensaciones, cuya gravitación asegura la cohesión.
La masa de estas condensaciones se cifra en cantidades aterradoras: miles de
millones de veces la masa solar. Sus dimensiones se expresan por cientos de miles de
años luz, y constituyen agrupaciones informes, en las que sólo se cuentan unos
cuantos átomos de hidrógeno por centímetro cúbico. Durante esta etapa aún no hay
astros, pero la inmensa nebulosa primitiva ha sufrido una transformación, dando
origen a millones de capas que evolucionarán de manera independiente. Ya han
adquirido su unidad; a causa de las elevadas velocidades de escape que les confiere la
gravitación, a partir de entonces la materia ya no podrá evadirse de la formación en la
que está prisionera y en cuyo interior la gravitación se ejercerá de una manera
autónoma.
Antiazar
Este autodesgarramiento de la nebulosa primitiva no tuvo testigos y durante mucho
tiempo se consideró difícil reconstruir esta primera etapa de nuestro Universo.
Sin embargo, el hombre encuentra su recuerdo escrutando el cielo. Lo descubre
en el carácter «asociativo» de las galaxias, que representan hoy la etapa evolucionada
de las formaciones primitivas. La aparición de astros, desde luego, modificó
entretanto su aspecto y su naturaleza, pero ejerció poca influencia en el propio
escenario, pues nuestras galaxias actuales señalan bastante bien los emplazamientos
de las formaciones primitivas, cuya evolución estelar quedó paralizada.
Pero un hecho salta a la vista. El Universo actual nos aparece poblado
principalmente de conjuntos de galaxias que presentan un flagrante carácter gregario,
ebookelo.com - Página 56
pues nuestra propia Galaxia forma parte de un grupo local.
La carta del cielo, a decir verdad, sería muy distinta si el reparto de las galaxias
hubiese obedecido al azar, o sea, si las diversas galaxias hubiesen sido
completamente independientes.
Éste es, en efecto, el sentido físico del término azar, que la historia del cosmos
nos permitirá evocar en otras ocasiones. Por definición, el azar caracteriza a una serie
de sucesos sin relación, desvinculados, semejantes a las suertes sucesivas de la ruleta,
en la que una jugada no depende para nada de las precedentes. Al no existir ningún
número favorecido, cualquier pretensión de calcular el que saldrá o de adivinarlo
gracias a una intuición determinada, debe considerarse como absurda. Los números
premiados nos proporcionan el tipo mismo de una serie aleatoria, que no se halla
regida por ninguna ley y sólo nos permite hacer consideraciones estadísticas,
valederas cada vez que un proceso físico asegure la independencia de los
acontecimientos.
Pero esto no es todo. La existencia o la ausencia de estos rasgos estadísticos nos
permitirá decir si existe azar o intervención: si en la ruleta vemos salir un mismo
número diez veces consecutivas, podremos gritar que hay tongo.
Del mismo modo, al considerar una colección de objetos dispersos en un lugar
determinado, el cálculo tiene en cuenta las estructuras permitidas por el azar —
tenemos un ejemplo notable de ello en las moléculas de un gas— y las que implican
cualquier vínculo entre dichos objetos, a la manera del gregarismo que reúne a las
vacas en un prado.
La génesis de las formaciones primitivas nos pone frente a una acción de este
tipo: hubo dependencia en el poblamiento del espacio. En cierto modo, podemos
hablar de reacción en cadena, pues la menor condensación de la nebulosa inicial tenía
que producir otras en sus proximidades, a consecuencia de la ruptura del equilibrio de
gravedad.
Y hoy tenemos la prueba de este proceso escrutando el firmamento.
Comprobaremos que las galaxias presentan un carácter sorprendentemente asociativo,
lo que se comprende si admitimos que nacieron por racimos.
No se trata de una ilusión. Las condiciones de estos agrupamientos fueron
minuciosamente estudiadas por los matemáticos Kutz y Muldeis, entre otros, que
sentaron las bases de un método que puede resumirse de la manera siguiente:
La población media en la región del cielo accesible a nuestros instrumentos es de
cien galaxias en un cubo cuya arista fuese igual a 20 000 000 de años luz. Entonces
sería posible proponer poblaciones-modelo, si la distribución de las galaxias
obedeciese al azar. En rigor, las podría crear una sencilla ruleta que, como es sabido,
cuenta con 37 números. Si convenimos ver en ellos las matrículas de otros tantos
cubos-testigo, bastaría con efectuar 3700 tiradas para que cada número apareciese
cien veces por término medio: las salidas reales nos informarían sobre la población de
37 cubos cósmicos.
ebookelo.com - Página 57
Los matemáticos dicen que entonces la distribución sería «gaussiana», con una
gran abundancia de poblaciones próximas a ciento, ya que los números muy altos o
muy bajos son extremadamente improbables. En particular, sería inconcebible un
cubo cósmico que contuviese menos de diez galaxias, admitiendo que las
formaciones primitivas se hubiesen encontrado repartidas al azar en el espacio.
Pero la realidad nos muestra numerosos cubos cósmicos que tienen cero galaxias,
mientras que otros las contienen a millares. Lo cual equivale a decir que este
desequilibrio es tan flagrante que ya no permite abrigar ninguna duda; las galaxias no
se distribuyeron al azar por el espacio, sino que una ley de asociación dirigió su
reparto.
Los matemáticos se han esforzado por descubrir esta ley, considerando hasta qué
punto habría que alterar el azar para explicar el hecho de que en las proximidades de
una galaxia, las probabilidades de presencia sean más grandes.
Para esto, han procedido por etapas, exigiendo a las ruletas una primera tirada,
para indicar en principio un punto. Una segunda tirada proporciona una cifra
determinada, indicando el número de galaxias que constituyen un cúmulo y cuyo
centro será dicho punto. Una tercera operación, finalmente, indica la distribución de
las galaxias en el cúmulo.
Así fue como el astrónomo Shane pudo obtener en 1955 unos modelos muy
parecidos a las cartas celestes del Observatorio de Lick.
De este modo se tuvieron los primeros indicios que permitieron reconstruir la
fragmentación de la nube primitiva, a partir del aspecto que ofrece el Universo actual
y a costa de muchísima paciencia.
ebookelo.com - Página 58
satélites unas de otras.
Pero los elementos que constituyen una formación ignoran estos movimientos,
para conocer esencialmente las fuerzas que actúan en el ámbito del objeto, Y
entonces aparece una nueva acción de la gravitación. La gravitación aseguró la
cohesión de la nebulosa; por lo tanto, su papel no será solamente estático.
La gravitación engendra una fuerza de atracción dirigida hacia el centro: por
consiguiente, así que empezó a dibujarse, la formación tuvo tendencia a replegarse
sobre sí misma según un mecanismo que prolongaba la condensación.
Se inicia de esta forma una grandiosa evolución. La gravitación tiende a provocar
la contracción progresiva de esta pregalaxia, pues la materia periférica está atraída
hacia el interior, mientras la masa de la formación aumenta con la materia, que,
esparcida aún por el espacio, tiende a caer bajo los efectos de su gravitación, Y este
doble movimiento tiene por resultado aumentar la densidad de nuestro objeto, cuya
autonomía gravífica se acentuará así por sí misma, pues una densidad más elevada
acarrea un aumento del poder gravífico: la cohesión de la formación aún quedará más
sólidamente asegurada y su contracción se amplificará.
Sin embargo, si tratamos de conocer el ritmo inicial con que se desarrolla
semejante movimiento, nos sorprenderá su lentitud casi increíble.
No obstante, la razón de esto es muy sencilla. Como hemos dicho, la cohesión se
estudia con las velocidades de escape. En cambio, para apreciar la concentración de
un objeto gaseoso hay que volver a la gravedad, que condiciona la velocidad de caída
de los cuerpos. Y como sabemos, las velocidades de escape pueden ser elevadas en el
caso de formaciones gaseosas de muy poca densidad, si son suficientemente vastas.
Pero se caracterizan por gravedades insignificantes.
Por ejemplo, imaginemos una formación cuya masa sea 300 000 millones de
veces la de nuestro Sol y que se presente bajo la forma de una esfera en un radio de
250 000 años luz.
El cálculo le asigna una velocidad de escape próxima a los 100 km/s, que
garantiza perfectamente su autonomía.
En cambio, podemos calcular que en su superficie la gravedad será inferior a una
milésima de la milmillonésima parte de la gravedad terrestre (10−12 g). Las partículas
que ocupasen las regiones periféricas «caerían» con extremada lentitud: durante el
primer día de caída, solamente recorrerán 3 cm en dirección al centro, o sea, una
distancia irrisoria teniendo en cuenta las dimensiones de la nebulosa. Aunque este
proceso se desarrollase sin trabas, el radio de nuestra formación no habría disminuido
ni 20% en cien millones de años.
Tal es la extraordinaria majestad de un fenómeno para el que un millón de años
—período enorme a escala humana— es algo irrisorio. Sin embargo, el millón de
años es la unidad de tiempo apropiada para seguir la evolución del objeto que para
nosotros aún no es más que una galaxia en potencia.
Pero precisamente a causa de su lentitud, esta contracción no puede considerarse
ebookelo.com - Página 59
centrípeta: la materia no se precipita hacia el interior, pues la atracción que
experimenta tiene únicamente por efecto provocar un movimiento de conjunto de las
partículas que parecerá casi insignificante con respecto a la velocidad de agitación, de
manera que la contracción constituirá un telón de fondo y ambos fenómenos se
combinarán para dar a la formación un aspecto que irá esbozándose paulatinamente.
ebookelo.com - Página 60
aumenta vertiginosamente, pues los nuevos vehículos quedan prisioneros de la
maraña.
Así, cuando se alcanza una densidad suficiente, aparecen bolas en el corazón de la
nebulosa, en las que la contracción actuará en menor escala.
Y con ellas nace el concepto de la temperatura, pues se puede invocar a la
velocidad relativa media de los protones. Si ésta es de 1 km/s, el hidrógeno estará
ipso facto a una temperatura de 150 K, y se calcula que para esta temperatura, si la
densidad alcanza solamente 30 protones por cm3, la gravitación asegurará la cohesión
de una esfera que tenga una masa mil veces superior a la del Sol. Para 1000 átomos
por cm3, bastarán cien masas solares y solamente harán falta diez cuando la densidad
alcance 10 000 átomos por cm3.
ebookelo.com - Página 61
por lo tanto, atraerán con más energía al hidrógeno del medio ambiente, adquiriendo
una masa más importante mientras su contracción se acentúa constantemente.
Al llegar a esta etapa aparecerán los fenómenos decisivos en la evolución de la
materia, al surgir el fenómeno estelar.
ebookelo.com - Página 62
4
La energía nuclear
¿Qué es la energía nuclear?
En el siglo XX, este término es una innovación. En realidad, la energía nuclear es
ebookelo.com - Página 63
el corolario lógico del descubrimiento del neutrón. Después de comprender en 1933
que los núcleos atómicos están compuestos de neutrones y protones, el físico no sabe
cómo explicar su cohesión.
Por aquel entonces, efectivamente, no conoce más que dos fuerzas: la gravitación
y la electricidad. Pero la gravitación es una fuerza astronómica que sólo se pone de
manifiesto en presencia de masas considerables: en un núcleo, la gravitación de las
partículas es ínfima. Por lo que a las fuerzas eléctricas se refiere, actúan solamente
sobre partículas cargadas. Por lo tanto, no tienen el menor efecto sobre los neutrones.
Y por lo que toca a los protones, la situación aún es peor, pues en este caso las
fuerzas eléctricas ejercen repulsión. ¡Así, los neutrones no deberían tener ningún
motivo para permanecer en los núcleos, mientras que los protones deberían tener sus
buenas razones para no quedarse en ellos! La verdad es que la existencia de edificios
compuestos de neutrones y protones sólo podría concebirse admitiendo que exista
una fuerza de atracción entre todas estas partículas tomadas dos a dos.
Este acontecimiento es memorable y hace época en la historia de la física. Induce
a que se tome en consideración una fuerza de una naturaleza nueva, cuya realidad ya
no podrá ponerse en duda y cuyas características tratan de esclarecer Wigner, Bartlett,
Heisenberg, Majorana. Yukawa sugiere la función de donde puede derivarse y toda la
mecánica de los núcleos será revisada a la luz de esta fuerza o energía nuclear. Sin
embargo, este término se presta a malentendidos. Esta energía asegura efectivamente
la cohesión de los núcleos y «actúa» cuando éstos sufren modificaciones. Sin
embargo, no está unida al núcleo, sino a las partículas que lo componen.
Y si volvemos al Universo primitivo, deberemos ver la situación desde este
ángulo, pues los núcleos aún no existen. No hay más que partículas, basándose en las
cuales la energía nuclear engendrará precisamente a los núcleos, provocando una
selección fundamental.
Téngase en cuenta, en efecto, que esta energía nuclear únicamente actúa sobre las
partículas pesadas, haciendo caso omiso de los electrones, de manera que durante
miles de millones de años, éstos permanecerán al margen de la gran evolución
cósmica, figurando en el Universo únicamente como partículas errantes, que sólo
participarán de manera excepcional en las reacciones nucleares. Los electrones, desde
luego, «neutralizarán» de manera permanente a la materia. En las zonas tranquilas del
espacio, girarán alrededor de los protones o los núcleos. En el seno de las estrellas,
vagarán desordenadamente, pero a causa de las atracciones y repulsiones eléctricas,
cada volumen contendrá siempre aproximadamente tantos electrones como protones:
así, y a gran escala la materia será neutra o, al menos, los campos eléctricos serán
débiles.
En todo caso, el electrón será el perro fiel que siga al protón sin representar
apenas ningún papel. Haremos caso omiso de su existencia, prácticamente, durante
los grandes capítulos dedicados al nacimiento de los elementos.
ebookelo.com - Página 64
Victoria sobre la electricidad
Por lo tanto, la energía nuclear actuará sobre los protones del Universo primitivo.
Será una fuerza atractiva.
Al ser portadores de cargas eléctricas del mismo signo, dos protones tendrán
tendencia a separarse.
Así ¿qué fuerza triunfará?
A decir verdad, éste es el lugar de extendernos en una disquisición harto sutil.
Cuando dos protones estén casi en contacto, no es posible la duda: triunfará la
energía nuclear, pues su intensidad es elevadísima con relación a la energía eléctrica.
Sin embargo, la energía nuclear ofrece una característica particularísima: su radio
de acción es extremadamente reducido.
La ley de la electricidad es la misma de la gravitación: la energía disminuye con
el cuadrado de la distancia, o sea, que a distancias 5 ó 10 veces mayores, se hará 25 ó
100 veces menor. La energía eléctrica, pues, disminuye con mucha rapidez, pero en
teoría nunca llega a ser nula, pues la disminución debe considerarse regular. Con la
energía nuclear sucede lo contrario: su intensidad es considerable a distancias
cortísimas —en la práctica, hasta 2 milmillonésimas de micrón—, pero cesa
completamente más allá de este límite, obedeciendo así a una ley matemática en
extremo desconcertante que constituye un dato más que añadir al estudio de las
propiedades fundamentales de las partículas.
Según hemos precisado, toda la evolución del Universo dependerá de las
características de las partículas elementales. Ya hemos atribuido las condensaciones
del Universo primitivo a sus masas.
La energía nuclear es local: en el marco del Universo primitivo, interviene
únicamente cuando encuentra protones próximos. En la nebulosa primordial, los
protones se hallaban sin duda demasiado dispersos para que pudiesen encontrarse.
Pero incluso cuando la gravitación concentró al hidrógeno en bolas, la repulsión
eléctrica de los protones se opuso a su acercamiento. Esto impidió actuar a la energía
nuclear, incluso a las temperaturas en que era posible la conversión del hidrógeno en
plasma.
No olvidemos que la trayectoria de un protón evita a los demás protones, a causa
de la energía eléctrica. Incluso en el caso particular en que su velocidad relativa haga
que un protón se dirija en línea recta hacia otro, no habrá choque, pues la velocidad
disminuirá, frenada por la electricidad y después el protón emprenderá el camino de
regreso, como un móvil que vuelve a descender después de haber ascendido por una
pendiente.
Ésta sería la imagen que tendríamos de los fenómenos, si nos fuese posible por un
momento meternos en un protón. Podemos compararlo a una bola que rueda por un
terreno accidentado, en el que los demás protones están rodeados de montañas que su
energía no le permite franquear.
ebookelo.com - Página 65
Al menos, ésta es la situación existente en el caso de temperaturas cifradas en
millares o incluso en docenas de millares de grados.
Pero las condiciones cambian cuando, en el corazón de la protoestrella, la
temperatura alcanza un valor elevado. Es entonces cuando descubrimos el papel
decisivo representado por el fuego de virutas de la contracción.
La temperatura de un gas, en efecto, indica la energía de sus partículas y, si es
suficientemente elevada, los protones se acercan hasta distancias que permiten ejercer
su poderoso efecto de atracción a las energías nucleares. En la comparación anterior,
debemos considerar a la montaña que protege a cada protón como un volcán: así que
un protón incidente llegue al cono interior, «caerá» realmente, adquiriendo una
energía de caída considerable. La energía nuclear «actúa», proporcionando a nuestras
partículas una fuerza de unión de la que nacerá el primer conjunto complejo.
Así aparece una reacción nuclear de fusión en una masa de hidrógeno cuando ésta
alcanza una temperatura de millones de grados. Pero lo importante es observar que
esta reacción se realiza espontáneamente. Por lo tanto, será natural en un momento
dado de la evolución de la protoestrella, en el que una elevación regular de la
temperatura será la consecuencia del proceso de contracción; las partículas adquirirán
velocidades cada vez mayores en las regiones centrales. De esta forma, llegará un
momento en que se iniciarán reacciones nucleares. Entonces el objeto cambiará de
naturaleza, convirtiéndose en una auténtica estrella.
ebookelo.com - Página 66
los núcleos que poseen el mismo número de protones, unidos a un número distinto de
neutrones. Combinado con el oxígeno, el deuterio da el agua pesada. En la actualidad,
todas las aguas terrestres contienen una pequeña cantidad de agua pesada, resto del
acontecimiento nuclear número uno, que aconteció en la época en que el cosmos
primitivo vio fusionar, a sus protones para convertirse en deuterones.
Ésta es, en efecto, la primera actividad cósmica nuclear: en las entrañas de una
estrella joven, el hidrógeno empieza a convertirse en deuterio.
Debemos percatarnos, sin embargo, de la extraordinaria lentitud de esta reacción,
estudiada por Bethe y Crichfield: suponiendo una temperatura de diez millones de
grados, estos físicos calculan su tiempo teórico en 40 000 millones de años. Este
plazo fabuloso nos demuestra cuán estériles son los intentos por explotar
industrialmente esta fusión. (Aunque en realidad, las bombas H y las pilas
termonucleares utilizan como materia prima no el hidrógeno ordinario, sino sus
isótopos). A la escala cósmica, esta lentitud de la transmutación del hidrógeno en
deuterio será una garantía de la longevidad de las estrellas, en las que sucederán otras
reacciones nucleares.
Hacia el helio
El deuterio, en efecto, es una materia prima nuclear mucho más activa que el
hidrógeno: bastan unos cuantos millones de grados para asegurar su fusión casi
inmediata y la unión de dos deuterones dará origen a un bloque de 2 protones y 2
neutrones, que será el helión o núcleo del helio. (Ésta es precisamente la reacción que
se trata de explotar en las técnicas de la energía H).
Pero los deuterones que aparecen en una estrella joven no se someten a este
proceso. Teniendo en cuenta la parsimonia con que han sido producidos, tienen
probabilidades infinitamente mayores de encontrar no a sus semejantes sino a
protones, que los acapararán en cuanto aparezcan. A temperaturas elevadas, los
protones penetrarán en los deuterones, produciendo en este caso una reacción nuclear
muy rápida. ¡A diez millones de grados, su tiempo medio será únicamente de
veinticinco segundos! Dicho de otro modo, el deuterio no tiene tiempo de acumularse
en el corazón de una estrella, pues resulta consumido casi en el mismo instante de su
creación, dando origen a un núcleo de helio 3[E1], o sea, un edificio que posee 2
protones y 1 neutrón.
Este helio 3 fue durante mucho tiempo un desconocido para el físico. Hace veinte
ebookelo.com - Página 67
años, su existencia ni siquiera se sospechaba, y se daba al helio, conocido únicamente
bajo la forma de helio 4, como ejemplo de elemento desprovisto de isótopo. Desde
entonces, se ha descubierto que el 10% de los núcleos de helio interplanetario
parecen ser en realidad helio 3.
Su actividad nuclear es muy característica: el helio 3, prácticamente, no puede
actuar sobre los protones ni sobre los deuterotones. En cambio reacciona sobre sí
mismo, de manera que asistimos a una nueva fusión: el encuentro de los núcleos de
helio 3 se traducirá por la aparición de un núcleo de helio 4 (helio ordinario), o
helión, con expulsión de 2 protones libres.
ebookelo.com - Página 68
Éste es el sentido de la obra en tres actos que, cuando la estrella haya alcanzado
su régimen permanente, permitirá que su hidrógeno se convierta lentamente en helio.
La energía liberada
Esta transformación se inició con la contracción de la protoestrella y se mantendrá a
sí misma mediante la energía que crea. A cada etapa, en efecto, la acción nuclear se
caracteriza por una liberación de energía.
Con excepción de su desesperante lentitud, el primer acto es el menos interesante:
la formación de un deuterón solamente proporciona 0,16 MeV[23]. Pero en el segundo
acto, su transformación en helio 3 libera 5,56 MeV. Así, la creación de la pareja de
helio 3 que permitirá representar el tercer acto, ya nos asegura 11,32 MeV. Y este
tercer acto es el más energético, pues la fusión de dos núcleos de helio 3 libera
12,85 MeV.
Así, pues, este ciclo proporciona aproximadamente 24 MeV cada vez que 4
protones se convierten en 1 helión.
En realidad, este esquema no es el único posible. Las acciones y reacciones
mutuas que se desarrollan en el interior de una estrella pronto adquirirán un carácter
de extremada complejidad y sería pueril querer explicar el funcionamiento de una
estrella.
Téngase en cuenta que si los núcleos de helio 3 se fusionan, actúan igualmente
sobre el helio 4, y las posibilidades de esta relación serán tanto mayores cuanto más
cantidad exista de helio 4. El drama se convierte entonces en una obra en cinco actos:
con el helio 4, el helio 3 engendra berilio, que se convierte en litio por absorción de
un electrón. Y el litio, al captar un protón, da nacimiento a dos heliones.
Podemos imaginar también una variante, pues el berilio puede captar un protón.
Se convierte entonces en boro y este elemento sufre una transformación, de la que
nacen dos heliones.
En todos estos casos, la materia prima y el resultado son los mismos: las
reacciones nucleares consumen hidrógeno para crear en definitiva al helio. Pero la
fabricación de productos intermedios distintos cambia el comportamiento de la
estrella. Y además, la energía creada en ella no es idéntica, pues según el proceso, una
proporción variable resulta substraída al astro por esos elfos particulares que son los
neutrinos, creados por las diferentes reacciones. Si se suprime la energía que éstos
evacúan directamente fuera de la estrella, resultará que la conversión de 4 protones en
ebookelo.com - Página 69
1 helión proporciona a la masa estelar una energía de 20 a 25 MeV.
ebookelo.com - Página 70
superficie de un astro. A causa de la radiación intensa que el mismo crearía, el calor
se disiparía con rapidez por el espacio, pues según la ley de Stefan, la disipación de
energía por una superficie «perfectamente emisiva», crece con la cuarta potencia de
la temperatura absoluta. Y en estas condiciones la potencia irradiada ascendería a
miles de millones de kilovatios por centímetro cuadrado a 1 000 000 de grados. A
10 000 000 de grados, se cifraría en decenas de miles de millones de kilovatios.
Desde luego, los físicos contemporáneos saben —por las explosiones atómicas—
que la ley de Stefan tiene que revisarse, a temperaturas elevadas. Pero ello no impide
que la potencia disipada se sitúe de todos modos a niveles elevadísimos, aunque sea
imposible que la superficie de una estrella se halle a una temperatura de varios
millones de grados.
En realidad, la temperatura propia de las reacciones termonucleares quedará
asegurada en una estrella, si una masa lo bastante importante desempeña el cometido
de amortiguador térmico entre un núcleo activo, a millones de grados, y una zona
superficial a varios miles de grados y que irradia moderadamente la energía, a fin de
que su disipación en el espacio corresponda al ritmo de su producción en el interior
de la estrella.
Al llegar este momento se alcanza un equilibrio energético. De su estado
transitorio de contracción, la estrella pasa a un régimen permanente, que podrá
subsistir durante miles de millones de años. Y este equilibrio térmico se
complementará con un equilibrio mecánico, que significará una disminución regular
de la presión entre el núcleo y la superficie. La presión del plasma que constituye la
estrella actúa a la manera de un resorte, que contrarresta la gravitación. La estrella
adquiere entonces una estructura en la que el equilibrio de cada una de sus capas está
asegurado, bajo los efectos contrarios de la presión y la gravedad.
Y cuando la masa sea mayor, no solamente el aislamiento térmico del astro estará
mejor asegurado, sino que la relación entre la superficie y el volumen disminuirá.
Recuérdese que las pérdidas de energía son proporcionales a la superficie, mientras
que las regiones productoras se desarrollan con el volumen.
Finalmente, podremos hablar de una masa estelar mínima, que asegura el
mantenimiento de reacciones termonucleares a las zonas centrales. El cálculo nos
enseña que para una masa de 1029 kg (1/20 de la masa del Sol), se desarrollarán con
extremada lentitud. Así puede definirse la gama de las estrellas más ligeras.
En la práctica, esta masa de funcionamiento quedará ampliamente rebasada por
las estrellas primarias, que nacen precisamente en las regiones fértiles de inmensas
nebulosas. Pero esto aún no es todo: una vez encendida, la estrella puede continuar
adquiriendo materia, atraída ésta por su campo gravitatorio, lo que provoca una
intensificación de su actividad termonuclear.
¿Hasta dónde crecerá esta masa? Una estrella está obligada a tener una masa
mínima para funcionar. También tropieza con un límite superior, igualmente impuesto
por factores mecánicos y nucleares a la vez.
ebookelo.com - Página 71
El efecto de bañera
En primer lugar, la masa quedará limitada a causa de la rotación, pues la contracción
de una estrella joven se traduce siempre por la aparición de un movimiento de
rotación.
La razón es fácil de comprender. Basta para ello examinar un hecho de la vida
corriente. Una bañera contiene agua aparentemente inmóvil. Destapamos el conducto
de desagüe para que empiece a vaciarse y, sean cuales fueren las condiciones
iniciales, comprobamos que el líquido forma un remolino al salir por aquél.
Esto es una consecuencia de lo que los físicos llaman «la conservación del
momento cinético». El impulso o momento cinético de una masa en rotación
alrededor de un eje indica el producto de su velocidad por su distancia a dicho eje. Es
constante en ausencia de intervenciones exteriores. Esto quiere decir que si la
distancia disminuye, la velocidad aumenta, como indica la técnica de los patinadores
que, al girar sobre sí mismos, pueden aumentar su velocidad pegando los brazos al
cuerpo.
Y esta aceleración alcanzará una amplitud considerable cuando la contracción
adquiera grandes proporciones: como la inmovilidad absoluta no existe, siempre
aparecerá una rotación que permitirá una contracción suficiente. Y esto es
precisamente lo que ocurre al formarse una estrella en una zona agitada, a partir de
una bola de hidrógeno cuyo radio puede cifrarse en meses luz, pero que al final de su
contracción será únicamente de algunos segundos luz, o sea, que el coeficiente de
contracción se elevará a varios millones. Aunque la bola inicial girase muy
lentamente (menos de una milésima de vuelta al año), podemos deducir que al
término de su contracción, la velocidad teórica será de una vuelta cada pocas horas.
Así la materia de una protoestrella en contracción se comportará como el agua
que sale por el desagüe de una bañera. La rotación de las estrellas jóvenes dependerá
de la agitación local de la nube que las ha engendrado y será siempre apreciable. Y
resulta característico que las observaciones hechas en estrellas jóvenes revelen la
existencia de velocidades de rotación elevadas. Los astrónomos ven en estas
velocidades una prueba indirecta del nacimiento de las estrellas en el seno de medios
«turbulentos».
Esta rotación de una estrella en contracción origina una fuerza centrífuga
considerable, cuya acción puede calcularse. En el caso de una estrella joven, por
ejemplo, que tuviese las características de nuestro Sol y girase sobre sí misma en dos
horas cuarenta y seis minutos, podemos calcular que la fuerza centrífuga equilibraría
a la gravedad en el ecuador. En este momento, el equilibrio interno de la estrella se
alteraría y el astro sufriría una gigantesca hemorragia por su ecuador.
Esto nos permite deducir que, desde el punto de vista mecánico, una masa estelar
no puede crecer indefinidamente, pues tarde o temprano llegaría un momento en que
la fuerza centrífuga contrarrestaría la gravitación en el ecuador.
ebookelo.com - Página 72
Al hallarse hundida en un medio fértil, la estrella podrá continuar atrayendo
materia por sus polos y expulsándola por el ecuador, a la mañera de una verdadera
rueda de fuegos de artificio. Hay que fijarse en este mecanismo, pues ya nos permite
entrever por qué las estrellas mostrarán tendencia a hallarse rodeadas de discos…
La presión de radiación
Existe otro factor que tiende a expulsar al espacio la materia de la estrella: su propia
radiación. Cualquier clase de radiación, en efecto, ejerce una presión sobre las
superficies que encuentra a su paso.
Es así como el físico pone de manifiesto la presión de radiación del Sol. Para ello
emplea unos pequeños molinetes llamados radiómetros, provistos de aspas con una
cara negra que absorbe la radiación solar y otra cara, brillante, que la refleja. A causa
de esta disimetría, el molinete gira al hallarse expuesto a la luz.
Se atribuye a esta presión de radiación el hecho de que las colas de los cometas
estén orientadas en dirección opuesta al Sol.
A decir verdad, esta presión es debilísima en el sistema solar. Su efecto sobre una
vela apenas sería sensible; sin embargo, la alejaría lentamente del Sol (se ha
propuesto este procedimiento para navegar con baratura por los espacios
interplanetarios). Y aunque nos aproximásemos a 500 000 km del astro central, la
presión de radiación no pasaría de ser una brisa ligera, que a lo sumo se transformaría
en un vientecillo en la misma atmósfera del Sol.
Pero en el caso de una estrella mucho más luminosa, las condiciones cambian y la
presión de radiación puede originar un verdadero huracán que impulse hacia el
espacio la materia de las capas superficiales del astro.
Por ello, cuando se enciende una estrella debemos suponer que, dejando aparte
los problemas de rotación, la radiación acabaría por oponerse a la llegada de materia
exterior, e incluso si la masa agrupada fuese demasiado grande, una parte de la misma
sería expulsada.
Estos dos factores que limitan la masa no actúan de la misma manera. La fuerza
centrífuga tiene esencialmente un carácter ecuatorial: es cierto que limita la masa de
la estrella, pero a costa de una corriente entre los polos y el ecuador, que puede ser
continua. La presión de radiación, en cambio, es «isotrópica»: si una estrella no
girase, la radiación ejercería su efecto repulsivo de la misma manera en todas
direcciones.
ebookelo.com - Página 73
Teniendo en cuenta esta diferencia, podemos sacar la conclusión de que, según la
importancia relativa de la rotación, las estructuras de las zonas estelares no serán las
mismas, observación que adquirirá toda su importancia con la evolución de la materia
dejada alrededor de las estrellas.
Tengamos en cuenta de momento que los efectos conjugados de esta presión de
radiación y de la fuerza centrífuga, impedirán prácticamente la existencia de estrellas
cuya masa sea superior a 1032 kg.
ebookelo.com - Página 74
matemáticos llaman el logaritmo decimal del número.
En esta escala, en que el 0 corresponde por definición a 1 kg, veremos a los
asteroides y los planetas extendidos en amplias fajas, prácticamente entre el 0 y el 29.
Los cúmulos globulares y las galaxias se sitúan por encima del 35. Las estrellas, en
cambio, se concentran en las inmediaciones del 30.
Así podremos ver en el fenómeno estrella un verdadero «fenómeno trampa». En
los procesos de contracción, una masa comprendida entre «la banda 29-32» estaba
inevitablemente llamada a dar origen a un reactor termonuclear. Y el resultado de ello
es un seguro de paro en la escala de las densidades.
La densidad de una estrella es siempre elevada respecto al medio interestelar, en
el que se cuentan solamente unos cuantos átomos o decenas de átomos por centímetro
cúbico. Pero en el Sol su número es de 1027 e incluso más. En realidad, las
densidades estelares son muy variables: la velocidad de escape, en efecto, se divide
solamente por 10 para una densidad un millón de veces menor. De ello se deduce que
en el interior de una estrella ordinaria, las partículas distarán mucho de estar juntas.
Podríamos decir que incluso a este grado de concentración, ocupan un volumen casi
despreciable con relación al vacío que dejan a su alrededor, pero la presión reinante
en la estrella bloquea la contracción. Esta presión, sin embargo, es una consecuencia
de la temperatura, que está mantenida por reacciones termonucleares.
A falta de estas reacciones; es decir, en el caso de una masa inferior al nivel
estelar, la trampa se frustra en ambos casos.
Cuando ha podido asegurarse la reunión de semejante masa y si nada contrarresta
su contracción gravitatoria, podrá darnos los «objetos hiperdensos» de
Ambartsumian. Estos objetos se caracterizan por un estado de la materia en que las
partículas están casi juntas, pues el citado astrofísico admitió la posible existencia de
un magma compacto de electrones y protones, cuya densidad sería diez millones de
veces superior a la del agua.
Aún se puede ir más lejos e imaginar que bajo una presión suficiente, los
electrones pueden ser «devorados» por los protones, dando origen a una materia
neutrónica. Y el mismo Ambartsumian sugiere una posible fusión de los neutrones en
hiperones, considerando que comparada con el agua, la densidad de un objeto
hipérico podría ser cien billones de veces superior…
Lo expuesto pondrá de relieve la carrera hacia la hiperdensidad, ley común de
todos los grandes objetos celestes, desde el momento en que un factor antagónico no
aparezca para contrarrestar la gravitación. En cuanto el efecto antagónico
desaparezca, la carrera continuará.
En realidad, allí donde existan tales objetos hiperdensos, su elevadísima gravedad
tendría unas consecuencias evidentes: les conferiría un extraordinario poder de
atracción. Sumidos en el seno de una nube de materia, estos objetos representarían el
papel de verdaderos aspiradores, atrayendo la materia con gran energía. En la génesis
de las estrellas, se les podría considerar como «gérmenes» y los astrofísicos admiten
ebookelo.com - Página 75
su aparición espontánea en el interior de las nubes de materia, así que éstas adquieren
cierta densidad. Estos objetos hiperdensos representan callejones sin salida en la
evolución de la materia. En cambio, desempeñarán una misión activa al servir como
puntos de fijación a cuyo alrededor se formarán estrellas, en un medio fértil.
ebookelo.com - Página 76
Las T Tauri
Fue precisamente en la constelación de Taurus donde el astrónomo Joy descubrió en
1945, desde el observatorio de Monte Wilson, unas estrellas todavía en proceso de
contracción, a las que se aplicó el nombre de la más brillante de ellas: T Tauri.
ebookelo.com - Página 77
el astro ofrecerá variaciones de brillo características.
A causa de ello, la estrella T Tauri verá su magnitud aparente oscilar entre 9,5 y
13,5. Teniendo en cuenta la distancia, que es de 650 años luz, esto indica, según los
astrofísicos, una luminosidad diez veces superior que en estado de equilibrio.
Asociadas siempre con una materia interestelar muy rica, en la que pueden ser
abundantísimas, las estrellas pulsantes T Tauri se caracterizan por un elevado
contenido en litio, que refleja la juventud de sus procesos nucleares. Y su espectro es
muy característico, a causa de la mezcla de las emisiones procedentes de la estrella
con la luminosidad que la rodea.
Objetos de Herbig-Haro
Existe además, en la constelación del Unicornio, un extraordinario espectáculo que
atrae nuestras miradas: se trata de la formación llamada NGC 2264[24], cuya distancia
puede calcularse en 2000 años luz. Desde hace tiempo se sabía que esta formación
contenía estrellas muy jóvenes. Ahora bien, las observaciones efectuadas han
revelado que NGC 2264 está envuelta en una nube, cuyo diámetro tiene
aproximadamente 50 años luz y en la cual podemos asistir a la creación de nuevas
estrellas.
Los clisés tomados por Minkowski en Monte Palomar parecen mostrar
protoestrellas. Se trata de unas curiosas manchas, cuyo diámetro es solamente de unas
cuantas semanas luz; representan bolas que al parecer han llegado a la etapa de la
contracción que precede inmediatamente a la conversión en fuente luminosa. Estos
objetos fueron estudiados particularmente por dos astrónomos, George Herbig y
Guillermo Haro, y actualmente se les conoce por el nombre de «objetos de Herbig-
Haro».
En la formación NGC 2264, es característico que existan estrellas tipo T Tauri en
las proximidades de los objetos de Herbig-Haro.
Y por último, en Orión existe una nube de materia que representa un plantel de
jóvenes estrellas. Esta región fue estudiada particularmente por Parenago y Herbig.
En 1954, el segundo fue testigo de un fenómeno notable. Vio aparecer literalmente
dos nuevos objetos en la nube de Orión; según Haro, alcanzaron en tres meses la
densidad necesaria para hacer opaca una masa protoestelar.
Las fotografías tomadas con cinco años de intervalo también parecen demostrar
que durante este tiempo, los objetos de Herbig-Haro se convirtieron en estrellas T
ebookelo.com - Página 78
Tauri.
Parece realmente extraordinario que a una distancia inferior al 2% del diámetro
galáctico, el astrónomo haya conseguido descubrir verdaderos laboratorios celestes,
donde se fabrican estrellas. Su estudio es fértil en enseñanzas. En particular, el
astrónomo puede comprobar que las estrellas jóvenes se hallan animadas de
velocidades de rotación elevadas…
ebookelo.com - Página 79
5
ebookelo.com - Página 80
asociaciones cada vez más evolucionadas.
Al principio de la cadena estaban las partículas. Al extremo opuesto
encontraremos la vida. El artífice de esta evolución será la cibernética.
ebookelo.com - Página 81
La quimera
Pero muy pronto da lugar a enconadas discusiones. Los físicos comprueban que al
caer desde una altura de 1 m, un cuerpo de 3000 kg proporciona aproximadamente
7000 calorías, que hacen ascender de 8 a 15° la temperatura de un litro de agua. Sería
infinitamente seductor realizar la operación inversa; es decir, tomar como «materia
prima» un litro de agua a 15°, y extraer de él 7000 calorías para elevar 1 m una masa
de 3000 kg, o para efectuar cualquier otro trabajo: el «residuo» de la operación sería
1 litro de agua a 8°.
Semejante proceso ofrecería con poco dispendio unas energías casi ilimitadas y
sería el ideal para la propulsión de embarcaciones. Éstas únicamente tendrían que
sacar el agua del océano, que devolverían más fría e incluso solidificada. Al ritmo de
10 litros por hora, la potencia disponible debería alcanzar 1 kW si el agua fuese
devuelta en forma de hielo.
Si trabajo y calor fuesen realmente «equivalentes», esto tendría que ser posible.
Pero es una quimera, afirman los termodinámicos, que, la verdad sea dicha, han
tratado de explotar semejante posibilidad con muy poca convicción. ¡Sería demasiado
bonito para ser cierto!
Así, se considerará imposible obtener un trabajo mecánico a partir de una fuente
única.
Desde luego, 1 litro de agua a 15° contiene «en potencia» 7000 calorías, tomando
por referencia una temperatura de 8°. Pero si el medio ambiente también está a 15°,
los físicos comprueban que estas 7000 calorías no pueden «salir» del agua para
dejarla a 8°. Carnot es el primero en afirmarlo, considerando que «el calor no podría
pasar por sí mismo de un cuerpo más frío a un cuerpo más caliente». Y rápidamente
se precisa su enunciado: en un sistema aislado, dirá Clausius, ninguna cantidad de
calor puede pasar de un cuerpo a otro de temperatura superior, y en particular no
pueden aparecer diferencias de temperatura sin intervención exterior.
Hay que inclinarse, pues, ante la evidencia. Un motor térmico exige dos
temperaturas y solamente puede obtenerse una energía mecánica sacando calorías de
la fuente de calor. Una parte de ellas se cede a la fuente fría y solamente la diferencia
se transforma en trabajo.
Así, la equivalencia teórica calor-trabajo posee un extraño carácter de
irreversibilidad, que la anula. Una energía mecánica puede convertirse íntegramente
en calor. En cambio, la transformación inversa siempre será parcial, con un
rendimiento tanto más débil cuanto más próximas sean las temperaturas de las
fuentes.
No tarda en formularse una ley sencilla sobre las temperaturas absolutas,
concebida precisamente por Kelvin en 1851, al exhumar la obra de Carnot, muerto en
el olvido. En efecto, al considerar las temperaturas absolutas de las fuentes caliente y
fría, el «defecto de rendimiento» resulta igual a su mutua relación. Por consiguiente,
ebookelo.com - Página 82
si utilizásemos como fuente caliente la superficie de un mar a 27 °C, o sea, 300 K, y
como fuente fría unas aguas profundas a 4 °C, o sea, 277 K, una máquina térmica
tendría un rendimiento teórico que podría calcularse restando de la unidad la fracción
277/300: 0,076, o bien 7,6%. Este rendimiento alcanza 30% con una fuente fría a
30 °C y una fuente caliente a 400 °C (es decir, para temperaturas absolutas de 303 K
y 673 K, respectivamente). Y si la fuente caliente estuviese a 800 °C, el rendimiento
alcanzaría 60%, al continuar estando la fuente fría a 30 °C.
Sea como fuere, hay que atribuir al calor una «calidad» inferior a la energía
mecánica, lo que equivale a considerarlo como una forma degenerada de la energía.
Pero esta situación ofrece un aspecto un poco misterioso. ¿Qué significan los valores
de las calorías según las temperaturas de las fuentes?
ebookelo.com - Página 83
súbitas elevaciones de entropía.
Podemos hacer una comparación con el valor de un terreno, según cual sea su
emplazamiento. El propietario de un solar en los Campos Elíseos podrá cambiarlo
fácilmente por un solar de la misma superficie en los arrabales, si comete la locura de
prestarse a semejante transacción. Pero le será imposible realizar la operación
inversa: únicamente podrá cambiar terrenos del mismo valor, a menos que consienta
en sufrir una nueva pérdida, cambiando por ejemplo su terreno de Belleville por otro
de superficie igual situado en el campo.
Así, a través de las peripecias que puede atravesar la energía, Clausius ve en la
entropía una magnitud que caracteriza su desvaloración. Si la entropía es constante,
las transformaciones son reversibles, como en el caso de los terrenos que poseen el
mismo valor. Pero si la entropía crece, la transformación es irreversible.
Podemos valernos también de esta otra metáfora: un huevo hervido en un poco de
agua y no en un metro cúbico de agua tibia, pese a que ésta contiene más calorías,
pero también una entropía más elevada.
La explicación es cómoda. Mas ¿podemos decir que sea satisfactoria? ¿Posee una
significación física la idea de entropía, o es un puro artificio matemático?
Orden y desorden
La entropía —y el segundo principio de la termodinámica, a menudo llamado
«principio de entropía»— fueron admitidos al principio con gran reticencia. Pero la
teoría cinética de los gases no tardó en aclarar las relaciones existentes entre calor y
energía mecánica por una nueva luz, que ya dejaba entrever el papel que
desempeñaba la temperatura absoluta en la entropía de Clausius.
Como sabemos, los elementos componentes de un gas se mueven en todas
direcciones, ya que su energía es proporcional a la temperatura absoluta. O sea, que la
energía calorífica reside en la agitación de las moléculas, mientras que la energía
mecánica indica un desplazamiento de conjunto del objeto constituido por aquélla. Y
esto quiere decir que la conversión trabajo-calor denota sencillamente un cambio de
presentación.
ebookelo.com - Página 84
11. Trabajo y calor
A la izquierda, una imagen de la energía mecánica: los elementos componentes se mueven con idéntica
velocidad en la misma dirección.
A la derecha, la energía calorífica está simbolizada por direcciones y velocidades diferentes.
ebookelo.com - Página 85
Los arcanos de las complexiones
A los ojos de los termodinámicos, toda la diferencia se debe al hecho de que frente a
un «caso» que asegura el orden, hay millones de otros casos que se agrupan bajo las
banderas del desorden. Así, desde el momento en que las moléculas de un gas se
desplazan al azar, todos los casos tienen el mismo número de probabilidades de
realizarse, pero la relación orden-desorden es desequilibrada, siendo para el primero
de una probabilidad y para el segundo de un número de ellas extraordinariamente
elevado.
Vamos a hacer una comparación. En el bridge, todos los juegos son igualmente
probables si las cartas se reparten regularmente. De momento, pues, el reparto de
trece naipes del mismo palo que permitiera a un jugador pedir una gran baza de
salida, tiene tantas probabilidades de presentarse como otra cualquiera, o, para ser
más exactos, tiene tan pocas probabilidades como las otras, a saber, una probabilidad
solamente entre 635 013 559 600, número éste de las jugadas posibles. Y teniendo en
cuenta su valor, diremos que semejante distribución es humanamente imposible.
Cualquier otro reparto fijado de antemano, en el que hubiésemos hecho una lista
determinada de 13 naipes, lo sería igualmente.
En la práctica, sin embargo, un jugador no considera la composición de su mano,
sino su valor. Se considerará afortunado con cuatro figuras de un mismo palo, caso
que puede suceder a través de 33 000 millones de «complexiones» o colecciones de
13 cartas repartidas en un juego. Éste es el número de casos que asegura lo que se
denomina un buen juego, pues huelga decir que el número de casos que permiten
ligar un juego «cualquiera» es mucho mayor aún.
Teniendo en cuenta esto, si pasamos de los 52 naipes de la baraja del bridge a los
billones de moléculas que componen el menor volumen gaseoso, no nos costará
imaginarnos cuál es el veredicto del cálculo de probabilidades: tendremos que
representarnos la orientación común de las moléculas como un orden extraordinario,
mientras que las miríadas de cualesquiera complexiones constituirán otros tantos
casos anónimos de agitación térmica.
Boltzmann encontró una notable significación física a la entropía de Clausius,
demostrando que es el logaritmo del número de complexiones. Por lo tanto, es la
magnitud que mide la cantidad de desorden de un sistema, pues la tendencia de la
entropía a aumentar indica que las estructuras más comunes —que representan el
desorden máximo— son las más probables.
ebookelo.com - Página 86
El triunfo del cálculo de probabilidades
Este resultado parece, pues, justificar el principio de Carnot, confiriendo un sentido
de «altísima improbabilidad» a las irreversibilidades de la termodinámica.
Pero, desde luego, improbabilidad no es imposibilidad. Sin embargo, los físicos
se apresuran a observar que, en la práctica, una probabilidad extremadamente
pequeña equivale a una imposibilidad. Entretanto, todas las leyes de la física indican
lo mismo. Cuando soltamos una piedra, solamente es «muy probable» que caiga
hacia el suelo; la probabilidad de que salga disparada hacia arriba es insignificante,
pero no rigurosamente nula.
Del mismo modo, admitiendo que las moléculas de un gas vagan al azar, podrían
hacerse menos numerosas accidentalmente en un sitio, y en otro, en cambio, hacerse
más densas.
Naturalmente, pueden admitirse fluctuaciones. Pero teniendo en cuenta el número
considerable de elementos componentes, el cálculo de probabilidades indica unas
separaciones prácticamente imposibles de señalar. Una célebre comparación de Emile
Borel da su medida nivelada: esperar que se produzcan fluctuaciones de densidad que
se deben únicamente a 1/100 000, equivale a suponer que, poniendo a un millón de
monos ante sendas máquinas de escribir en las que teclearan al azar, terminasen por
producir un conjunto de textos coherentes, fiel reproducción de las obras que contiene
la Biblioteca Nacional de París.
Sin embargo, podemos admitir que en un gas habría enjambres de moléculas
dotadas de velocidades elevadas junto a otras que se desplazarían a pequeña
velocidad. En un recipiente que contuviese aire a 15°, veríamos así cómo aparece una
fuente de 10° y otra de 20°, capaz de accionar una máquina térmica. En teoría, esto
sería posible, pero semejante asimetría espontánea aún parece más improbable que la
hazaña de nuestros monos escritores.
Al llegar aquí, la ciencia probabilista desarma a sus adversarios, confiriendo el
aspecto de un verdadero dogma al segundo principio de la termodinámica.
La generalización
El nuevo concepto de la entropía es entonces objeto de una espectacular ampliación:
¿No será posible aplicar estas conclusiones a cualquier estado de la materia?
ebookelo.com - Página 87
Pronto se concibe cualquier tipo de evolución en términos de entropía.
Afirman los físicos: la entropía de un sistema aislado solamente puede
permanecer estacionaria o crecer. Cualquier «cambio real», escribe uno de ellos, hará
aumentar la entropía y, abandonado a sí mismo, un sistema tendrá tendencia a
degradarse, pues su evolución irá del orden al desorden.
Pero esto no es todo. Mediante una generalización atrevida, se nos ocurre la idea
de considerar al Universo como un sistema aislado. ¿Con qué podría efectuar
intercambio? Y a partir de entonces, su entropía no puede sino crecer de manera
ineluctable, por lo que cualquier fenómeno irreversible, es decir, cualquier evolución,
aumentará la entropía del Universo.
Así se nos impone la imagen de una degeneración sistemática. Filosóficamente,
traduce una idea que, en el fondo, parece natural al hombre. De una manera
instintiva, el hombre se ha imaginado siempre la aventura del Universo a partir de
una creación inicial de organización. Y de pronto, esta concepción recibe un
verdadero espaldarazo científico. El aumento obligatorio de la entropía, en efecto,
invita al físico a ver en el Universo en marcha una serie de acontecimientos que
alteraron progresivamente un orden primitivo, lo que equivale a situar al principio un
estado inicial de elevada organización.
Y esta teoría de la entropía resulta aún más satisfactoria en el aspecto biológico.
Si la evolución lógica del Universo consiste en un aumento sistemático de la
entropía, es decir, en una anarquía creciente, los seres vivos parecen dotados de una
facultad que Bergson considera característica: ¡fabrican entropía negativa! De
diversas maneras, crean orden. Su acción, pues, parece oponerse al mundo físico
como si la vida mostrase de una manera local y momentánea el medio de retrasar una
inevitable degradación general.
ebookelo.com - Página 88
actúa para destruir y nunca para construir.
Sin embargo, descubriremos una falla capital en el razonamiento de los físicos.
Todos los ejemplos esgrimidos por ellos en aserto de sus consideraciones entrópicas
fueron escogidos entre sistemas desprovistos de determinación interna. Sus
componentes eran elementos aislados.
Nuestros gases, en efecto, están constituidos por moléculas libres de toda
influencia.
En sus hipótesis, el físico las compara a bolitas metidas en un recipiente y sobre
las que no se ejerce la fuerza de gravitación.
Evolucionan en condiciones que excluyen cualquier manifestación de la energía
nuclear (en el siglo XIX, ni siquiera se sospecha la existencia de dicha energía). Estas
moléculas, en fin, se consideran como edificios estables, eléctricamente neutros, que
chocan con las paredes y rebotan unas contra otras como simples masas.
Los elementos componentes son, pues, «independientes» y los choques, que se
consideran perfectamente elásticos, aseguran una distribución aleatoria a las
moléculas. Es la imagen perfecta de un sistema físicamente anárquico, en el que el
orden es sencillamente un caso al lado de un número astronómico de otros casos
imagen del desorden. Y como todos los casos tienen igual número de probabilidades
a causa de la agitación molecular, es inconcebible una aparición espontánea.
Una tautología
Pero semejante conclusión se impone precisamente porque el sistema es anárquico. Y
hablar de entropía en estas condiciones parecerá una redundancia: el físico expresa de
otra manera que los elementos constitutivos del sistema obedecen al azar. Y esto, a
causa de las hipótesis que él ha planteado implícitamente.
Pero podemos imaginarnos otras situaciones. Especialmente en un plasma, las
partículas no vagan ya de manera aleatoria, pues están guiadas por los campos
eléctricos. Y en un gas neutro, sabemos que la gravitación interviene a escala
cósmica.
Dicho de otro modo, el lenguaje de la entropía solamente tendrá sentido en un
«caso extremo» y parecerá casi increíble que durante un siglo, este hecho haya
escapado a la atención de los físicos. Las obras recientes sobre la entropía continúan
generalizando en su conjunto las conclusiones de la termodinámica clásica. Una de
ellas, después de recordar que la idea de entropía «plantea muchas dificultades, no
ebookelo.com - Página 89
solamente durante los estudios universitarios, sino después de ellos», aún afirma que
«todo fenómeno irreversible da lugar a una creación de entropía».
Raras son las obras que subrayan la hipótesis fundamental o en que se expone con
claridad que los cálculos de entropía únicamente son válidos para sistemas en que las
acciones recíprocas sean desestimables.
ebookelo.com - Página 90
profundamente de los gases a la escala de los recipientes terrestres. Teniendo en
cuenta las masas que intervenían, la gravitación desempeñó el papel de agente
concentrador, para dirigir al hidrógeno hacia las regiones en que ya había empezado
a acumularse de una manera fortuita. A partir de entonces, la asimetría que
denominamos orden cesaba de ser «un caso» para convertirse en el estado hacia el
que tendería el sistema, mientras todas las ideas de probabilidad se desvanecían,
teniendo en cuenta que el sistema ya no era aleatorio sino determinado.
En el ejemplo anterior, podemos considerar que incluso durante partidas de
bridge de días enteros, la probabilidad de recibir trece naipes del mismo palo es
ínfima. Todas las partidas, en efecto, son independientes y para cada una de ellas las
leyes del azar atribuyen una probabilidad insignificante a semejante distribución.
Pero no hay duda de que todo cambia si entre partida y partida, el jugador puede
conservar los naipes del mismo palo recibidos. Es más: si la posesión de estos naipes
«atrajese» este palo, nuestro jugador tendría con toda seguridad los trece del mismo
palo en mano en unas cuantas docenas de partidas.
ebookelo.com - Página 91
Iniciado este proceso y habiendo comenzado en realidad una contracción, ésta no
hará más que desarrollarse, a igualdad de condiciones.
Teniendo en cuenta que la nube primitiva estaba condenada a condensarse, los
astrónomos suelen afirmar que era inestable. Sin embargo, este término se presta a
confusión, pues en el lenguaje corriente, el concepto de inestabilidad acostumbra
aplicarse a un equilibrio cuya ruptura está a merced del golpe más leve. Esta ruptura
se considera por lo general destructora del orden. A la escala del Universo, la
situación se invierte. La inestabilidad gravitatoria de la nube primitiva revelaba una
tendencia a engendrar objetos celestes y, por lo tanto, a evolucionar en el sentido de
un Universo organizado topológicamente.
Desde luego, es lícito considerar el caos inicial como un orden y ver en las
galaxias y estrellas la catástrofe consecuencia de su ruptura. En realidad, todos los
conceptos de orden y desorden son relativos, y afirmar que descubrimos un orden en
un sistema, significa que emitimos un juicio al atribuir este término a un caso que
distinguimos de los demás tal como hacemos cuando adquirimos un billete de lotería.
Se trata de un puro eufemismo. En cambio, una retroacción posee una existencia
intrínseca, teniendo en cuenta que determina una línea de evolución.
El Universo tenía que organizarse, puesto que su materia cayó en la red de las
retroacciones.
Esto posee una importancia fundamental. El físico tiene la costumbre de describir
al Universo empleando un lenguaje independiente de las condiciones en que las
observaciones fueron hechas. Y así pretende expresar no sus impresiones subjetivas,
sino las leyes naturales.
Einstein abordó esta tarea en el caso de las entidades primeras de la física. Pero
en la lógica de las estructuras, la retroacción nos aparece como el proceso
fundamental de la evolución, pues busca su origen en el propio sistema, que funciona
en cortocircuito.
Más aún: la retroacción positiva crea unas condiciones que acentúan su efecto. A
escala de la galaxia o de la estrella, la retroacción gravífica realizó transformaciones
que amplificaron su acción…
Crecimiento exponencial
Durante su contracción, la densidad estelar estaba «regida» por la retroacción. Su
crecimiento, por consiguiente, obedeció a una ley característica de la evolución
ebookelo.com - Página 92
natural.
El trabajo de un proceso de retroacción, efectivamente, no es como el de un
aspirador que atrae a masas iguales durante tiempos iguales, pues la potencia crece
con el efecto. Un modelo de retroacción positiva puede estar formado por una
magnitud que aumente a un ritmo proporcional a su valor: cuanto más importante sea,
más tendencia mostrará a crecer con rapidez.
Podemos establecer una comparación con un proceso monótono imaginando el
agua que sale gota a gota de una cuba agujereada: la salida será regular si el diámetro
del orificio permanece constante. En cambio, si la salida provoca un desgaste que
tenga por efecto agrandarlo, asistiremos a una retroacción positiva: un agujero mayor
permitirá que salga más cantidad de líquido, lo que a su vez acentuará el desgaste.
La diferencia en el terreno matemático es la misma que existe entre el interés
simple y el interés compuesto, diferencia que ya conocemos. A interés simple, 1
peseta puesta a 5% asegura regularmente 0,05 pesetas anuales: en veinte años se
duplica el capital. En cambio, a interés compuesto, el capital se alimenta del interés,
imagen perfecta de una retroacción positiva. Y a este mismo rédito de 5%, con una
capitalización continua, podemos calcular que al cabo del mismo plazo de veinte
años, 1 peseta se habrá convertido en 2,718 pesetas.
Este resultado es general: durante el tiempo en que un capital puesto a interés
simple se duplica, a interés compuesto se multiplica por 2,718. Y esta relación surge
cada vez que se compara un proceso de retroacción positiva con su homólogo lineal,
o sea, en la práctica con las indicaciones de un reloj, puesto que nuestro propio
concepto del tiempo reside en el cálculo de fenómenos periódicos, que en teoría
tienen que reproducirse siempre idénticos a sí mismos: en el ejemplo anterior, la
caída regular de gotas de agua refleja el principio mismo en que se basa la clepsidra.
La escala de un proceso de retroacción positiva se comprenderá así muy bien,
considerando el tiempo necesario para que la magnitud por él regida quede
multiplicada por 2,718. Y, a decir verdad, los matemáticos conocen perfectamente
este número, al que designan tradicionalmente por la letra e: Neper lo eligió como
base de sus logaritmos naturales y los estudiantes nunca dejan de sorprenderse al
verlo aparecer en múltiples problemas de análisis matemático. Pero la razón profunda
de ello hay que buscarla en el hecho de que este número e tiene un origen lógico,
pues relaciona con el tiempo los procesos regidos por retroacciones positivas.
Todos los procesos de retroacción poseen su propia escala de tiempo, la cual
depende de un factor de crecimiento en el que puede verse la réplica de un porcentaje
de interés. Así, en las etapas respectivas de la estrella y la galaxia, trabamos
conocimiento con escalas muy diferentes. La aventura cósmica permitirá que
aparezcan otras múltiples retroacciones, con los más diversos porcentajes de
crecimiento.
La correspondencia siempre será la misma. Cuando un reloj señale los instantes 0,
1, 2, la magnitud regida tendrá por valor los términos de la progresión 1, e, e2,
ebookelo.com - Página 93
obedeciendo a la ley que los matemáticos llaman exponencial, y el hecho de que la
función et sea por sí misma su derivada, revela perfectamente bien que el porcentaje
de crecimiento aumenta con la magnitud que rige.
Estas consideraciones sugieren inmediatamente una observación.
Antes vimos que las retroacciones fueron los procesos primitivos; los fenómenos
monótonos aparecerán con los sistemas más evolucionados. Así, en el ejemplo
anterior, en el que el agua caía gota a gota de una cuba, era natural que el fenómeno
ensanchase el orificio. Es la supresión del desgaste lo que exige, si no artificios, al
menos una estructura particular. Debemos, pues, preguntarnos si nuestra concepción
del tiempo, basada en una repetición regular de fenómenos, puede extrapolarse a la
etapa de un Universo primitivo, cuyas únicas «organizaciones» eran retroacciones
positivas.
Hacia la mutación
Otra reflexión se impone. A causa de su crecimiento exponencial, una magnitud
regida por un proceso de retroacción positiva acabaría teóricamente por adquirir
valores fantásticos. En la práctica, llegaría un momento en que el proceso no podría
continuar, pues su desarrollo habría cambiado la base misma del problema.
Ésta es la doble constatación que debemos hacer. No solamente una retroacción
positiva engendra una organización, sino que su propia naturaleza le impide
detenerse por sí misma. Lo cual equivale a decir que, en términos muy generales, un
proceso de retroacción positiva resulta una «mutación».
Los técnicos conocen muy bien la retroacción positiva llamada el efecto Larsen:
cuando se trata de aumentar la potencia de una instalación sonora, puede suceder que
el micrófono capte el sonido del altavoz y vuelva a inyectarlo en el amplificador. Al
principio hay silencio, pero si se origina un sonido, éste se hará cada vez más fuerte,
hasta alcanzar la saturación; el altavoz dejará oír entonces un violento y monótono
maullido, que interferirá la voz. El aparato, que al principio era un amplificador, se
transforma en un generador de silbidos…
De la misma forma, la retroacción de una estrella naciente se interrumpe al entrar
en juego la energía nuclear que enciende al astro y con la fuerza centrífuga de su
rotación; o sea, cuando aparecen factores que tienden a desintegrarlo.
Una vez encendida la estrella, el problema se presenta en un aspecto muy distinto,
pues estos factores tienden a dislocar la masa estelar, con una energía que crece con
ebookelo.com - Página 94
la materia acumulada. Finalmente, se alcanza un equilibrio cuando estos factores
contrarrestan la gravitación.
La retroacción negativa
Pero en este momento, el equilibrio está «garantizado» por otro proceso que originará
una retroacción negativa. Efectivamente, si el ritmo de las reacciones nucleares
debiese acelerarse, el excedente de energía podría provocar la desintegración de la
estrella; de ello resultaría una disminución de su temperatura central, que provocaría
a su vez una disminución en la actividad de las reacciones, lo que aseguraría una
regulación automática.
Es fácil comprender la lógica de este nuevo mecanismo.
Si un sistema está aislado en un medio anárquico, únicamente puede recibir
determinación de sí mismo. Esto es lo que significa la retroacción.
Pero podemos concebir dos tipos de retroacción. Con la retroacción positiva, el
efecto crea una causa de la misma naturaleza que actúa en el mismo sentido. Ahora
bien, nada nos impide imaginar una estructura en la que el efecto cree una causa que
actúe en sentido contrario. Esto es precisamente la retroacción llamada negativa: así
que el sistema tienda a cambiar de estado, una reacción se opondrá a este cambio.
La retroacción positiva originaba una evolución: la magnitud regida por ésta se
hallaba sometida a un modelo de ley exponencial. La retroacción negativa, en
cambio, nos proporciona una fijeza de la magnitud regida; la determinación adquiere
un aspecto pasivo al oponerse a cualquier variación fortuita de la magnitud regida. O
sea, que la retroacción negativa crea una estabilización, y volveremos a encontrarla
en numerosas etapas de la historia del cosmos.
En la etapa estelar, tenemos ya un ejemplo de ello, pues el secreto de la casi
estabilidad de numerosas estrellas que, como nuestro Sol, pueden funcionar con un
régimen casi permanente durante muchísimo tiempo, hay que buscarlo en la
retroacción negativa.
Por consiguiente, la organización de una estrella quedó finalmente asegurada
mediante dos retroacciones, la primera de las cuales originó la segunda.
ebookelo.com - Página 95
3.— La filosofía cibernética
Por lo tanto, en el Universo aparecieron retroacciones de manera natural y, bajo sus
auspicios, comenzó a organizarse.
Mas, precisamente, el proceso de estas retroacciones es el mismo que hoy
invocan los cibernéticos para gobernar, sus sistemas regidos por reglas. La
semejanza, de momento resulta sorprendente y nos abre perspectivas apasionantes.
El substantivo cibernética proviene directamente del verbo griego kubernan, que
nos ha dado gobernar pasando por el latín gubernare. Actualmente designa a la
ciencia de los medios que permiten «gobernar», en el sentido de «dirigir» o «regir»,
pues no hay que entender al término «gobernar» en el sentido limitado que tiene a
menudo. Esta palabra suele aludir casi siempre al gobierno de un país, a veces el
gobernador de una provincia y, en un sentido más restringido, a la acción de llevar un
buque al rumbo que se le ha señalado. La función es siempre la misma: del modo
como se gobierna un país, una administración o un barco, se gobierna a una máquina
o se gobierna uno mismo. Y hemos descubierto que hay magnitudes físicas que se
encuentran gobernadas, o regidas, por retroacciones naturales.
Pero ¿qué quiere decir en este caso gobernar?
Esta pregunta equivale a abordar una cuestión que será fundamental en todas las
disquisiciones sobre el azar y el antiazar. Un sistema no gobernado evoluciona por
definición de manera aleatoria, o sea, que sufre toda clase de influencias: es el
juguete del azar. En cambio, gobernar un sistema equivale a aislarlo e imponerle una
línea de evolución.
Se trata de una función que el hombre asume corrientemente mediante sus
intervenciones sobre el mundo exterior. Pero ¿merced a qué proceso? A decir verdad,
el análisis de estas intervenciones dio lugar entre los griegos a consideraciones
notablemente oportunas.
La herencia de Platón
En el Gorgias y la Política, Platón ya nos presentaba a la cibernética como el arte de
gobernar. El eximio filósofo observó que se gobierna un sistema reuniendo datos,
elaborando un programa de acción y utilizando una energía para ponerlo en práctica.
El gobierno de una nave se presentaba entonces como una aplicación típica de la
ebookelo.com - Página 96
cibernética, pues el timonel gobierna realmente la nave que le ha sido confiada; por
esto los griegos lo llamaban kybernetes. Y en la historia helénica encontramos una
tradición característica con las «cibernesias», que se celebraban todos los años en
otoño en honor de los timoneles. Según la leyenda, estas festividades fueron
instauradas por el propio Teseo, en honor de los dos nautas que lo condujeron
victoriosamente a la isla de Creta.
Más de dos milenios transcurrieron después del milagro griego, y la idea misma
de cibernética cayó en el olvido, pues el hombre tenía el privilegio, gracias a sus
músculos y sus herramientas, de gobernar el medio ambiente sin tener necesidad de
analizar la función que ejercía.
Pero en la era industrial, un descubrimiento le sorprende: la técnica crea máquinas
que se gobernarán a sí mismas merced a verdaderos órganos artificiales de los
sentidos, que guiarán su trabajo. Se trata de «captores» que miden el número de las
piezas fabricadas por una máquina-herramienta o la temperatura de un baño, a fin de
asegurar la conformidad del trabajo con un programa determinado. Lo más notable
será que esta conformidad quede sistemáticamente asegurada mediante retroacciones
negativas y con dispositivos que Watt ya imaginaba en el siglo XVIII, para mantener
constante la velocidad de su máquina de vapor.
El árbol motor de esta máquina, vertical, tenía en efecto dos varillas de las que se
hallaban suspendidas unas bolas, que se separaban por la influencia de la fuerza
centrífuga, accionando entonces una anilla que maniobraba a su vez las compuertas.
Así, el régimen se elevaba automáticamente si la velocidad tendía a disminuir por una
causa fortuita. Este principio es el mismo de nuestros «limitadores de velocidad»: la
anilla es entonces solidaria de un disco, y un freno cuya altura puede regularse,
bloquea la velocidad cuando se produce el contacto.
Una fórmula moderna para el mando de un motor eléctrico, consiste en hacer
regular por una dínamo montada en el árbol la corriente de alimentación. De esta
manera la velocidad puede mantenerse constante, sea cual fuere la carga: si ésta
aumenta, la dínamo asegurará al motor un excedente de energía. En cambio, si gira en
vacío, la dínamo evitará que se acelere reduciendo la corriente.
De una manera muy general, los técnicos crean lazos de retroacción cada vez que
desean regular algo; por ejemplo, cuando quieren mantener constante la presión en un
depósito. Un comparador calcula la diferencia existente entre el valor de consigna de
la presión, o sea, el valor ideal que ésta debería tener, y su valor efectivo, medido por
un factor. Y según el sentido de esta separación, se creará una acción antagónica. Si la
presión fuese demasiado débil, se pondría en marcha una bomba; si fuese demasiado
alta, se abriría una válvula. Del mismo modo, un lazo de retroacción puede mantener
a una célula fotoeléctrica por encima de una línea: si se desvía a la derecha, un motor
la desplazará hacia la izquierda, e inversamente.
ebookelo.com - Página 97
Cibernética artificial y cibernética natural
Con independencia de sus respectivas aplicaciones, las técnicas expuestas tuvieron
profundas repercusiones teóricas.
En otros tiempos, solamente el hombre se consideraba capaz de gobernar. En la
era de la cibernética industrial, comprende que su función puede delegarse a lazos de
servidumbre. Pero debe tener en cuenta que en la historia del Universo estos lazos
aparecieron «de manera natural» bajo los tipos de retroacción que al principio
regularon las densidades estelares, y así se gobernó el Universo, adquiriendo
determinaciones que al principio surgieron de la interacción entre las partículas y
después fueron consecuencia de las situaciones creadas.
Este continúa siendo el sentido profundo de la cibernética, cuyo objeto no es una
técnica, sino una ciencia de las estructuras. Para alcanzar una finalidad, poco importa
que la información esté captada por dispositivos eléctricos, mecánicos o neumáticos:
el verdadero problema consiste en estudiar las acciones mutuas de los sistemas o sus
reacciones sobre sí mismos, pues la cibernética se presenta como una física de los
efectos y las relaciones, mientras que antaño la física de las cosas lo refería todo al
hombre, estudiando los sistemas aislados, sin examinar cómo se comportaban
respecto a sí mismos o respecto a otros. ¡Piénsese que el Universo ha evolucionado
durante millones de años!
La cibernética rige al Universo. Ahora lo comprendemos; no esperaba al hombre
para existir y organizar el cosmos con la cooperación de los efectos naturales.
Al llegar aquí, será interesante establecer una comparación entre nuestros
limitadores de velocidad y las estrellas llamadas de Wolf-Rayet, que se caracterizan
por elevadísimas velocidades de rotación[25]. La fuerza centrífuga se conjuga con la
presión de radiación para provocar una intensa eyaculación de materia: la estrella
pierde así una fracción de su masa, hasta que el proceso cesa de ser apreciable.
Por otra parte, el técnico sabe hoy estudiar la estabilidad de sus dispositivos
reguladores, destinados a dosificar su acción teniendo en cuenta la diferencia y la
variación, a fin de no crear una acción antagónica demasiado brusca. Una retroacción
mal concebida, en efecto, puede sobrepasar el objetivo propuesto, creando una
diferencia de sentido contrario, que provocaría a su vez una reacción también
contraria. De esta forma se manifiesta el fenómeno llamado de bombeo, para el que
podemos hallar un símil en el conductor automovilista bisoño que no consigue
mantener al vehículo en línea recta: cuando el automóvil se va hacia la derecha, da un
golpe de volante demasiado violento hacia la izquierda, que exige una nueva
rectificación, hacia la derecha, también exagerada, y así sucesivamente.
Tenemos ejemplos de esto en la cibernética estelar, con categorías bien conocidas
de estrellas inestables. Lo hemos visto ya en la contracción de las estrellas nacientes
T Tauri.
ebookelo.com - Página 98
Una ciencia de las estructuras
Por este motivo nos damos cuenta del alcance que tiene la cibernética. En la época
heroica de la misma, o sea antes de 1955, la reacción de los físicos fue característica.
La mayoría de ellos sólo quería ver en la cibernética una nueva disciplina que había
que integrar en la tradicional clasificación de las ciencias, como un capítulo
suplementario de la física al que convenía aplicar el principio de la entropía.
Semejante actitud daría por resultado una variante de la degradación de la
energía: la degradación de la información. Pero el absurdo de esto salta a la vista: si
hay algo cuya «multiplicación» sea patente, es precisamente la información. El
profesor que transmite conocimientos a sus alumnos no los pierde por ello, y esto es
válido para todas las fórmulas de enseñanza como libros, películas, cintas
magnetofónicas o memorias de máquinas electrónicas.
Del mismo modo, en la época de la automatización, las máquinas cibernéticas de
nuestras fábricas pueden considerarse como generadoras de organización. Y al
estudiar el comportamiento de nuestra raposa electrónica, nos sorprendió comprobar
una creación de entropía negativa.
La verdad era que la cibernética se situaba, no entre las ciencias o las técnicas
clásicas, sino por encima de ellas, permitiendo entrever una inteléctica general y
considerando todos los tipos de relación que pueden existir entre los elementos
componentes de un sistema, sea cual fuere su número y su naturaleza, mientras que el
terreno propio de la termodinámica era el caso particular de elementos componentes
numerosísimos y muy pequeños, cuyas evoluciones no conocen la influencia de
ningún campo.
Y el principio de entropía se aplica únicamente a estos sistemas desprovistos de
interacción, siendo lo sorprendente que los termodinámicos hayan llegado a
denominarlos «perfectos». En realidad, querían decir que solamente este sistema
justificaba a la perfección las leyes sencillas formuladas sobre la base de una ausencia
de interacción, pues la relación PV-RT de los gases perfectos se estableció
principalmente al comparar a las moléculas con masas puntuales libres de toda
influencia. En realidad, de este modo perfección era sinónimo de anarquía y la
entropía actuaba entonces plenamente.
Éste es el fondo del problema: el principio de entropía no es en absoluto una
cuestión de escala o de técnica. Verdad es que las interacciones gravíficas exigieron
el marco cósmico, pero la debilidad de la fuerza de gravitación era la única
responsable. Y encontraremos un notable ejemplo de interacción molecular con la
materia biológica, acusada antaño por los físicos de «hacer trampa» con el principio
de la entropía.
ebookelo.com - Página 99
Conquistada la organización
En estas condiciones, una «lógica general de los sistemas» se nos presenta como la
tarea fundamental de una cibernética teórica. Merced a un instrumento único
representado por las matemáticas, nos permitió descubrir la sorprendente jerarquía de
los efectos, en la base de la cual debían colocarse los sistemas desprovistos de
determinación interna. Éstos, en efecto, dependen del segundo principio de la
termodinámica: su entropía sólo puede permanecer constante o ir en aumento.
Pero para los sistemas organizados, a los que las estructuras internas o externas
imponen una evolución, el concepto de entropía deja de tener sentido.
Hemos descubierto notables estructuras en el caso de las retroacciones gravíficas
que constituyen los primeros procesos organizadores, los únicos concebibles en el
estadio de un mundo primitivo.
Pero en el Universo organizado, la situación será diferente. Al aparecer sistemas
primarios, sus estructuras podrán suscitar otras, representando verdaderamente el
papel de máquinas. Las retroacciones negativas serán otros tantos muros que
limitarán los terrenos donde se desarrollarán las retroacciones positivas, creadoras de
nuevos circuitos de organizaciones. Finalmente, lo que se hará cada vez más raro será
la inorganización, pues un sistema sólo permanecerá al margen de estos circuitos
cuando las acciones exteriores no ejerzan efectos sobre él.
Éste es el caso de un gas a nuestra escala. Pero ¿hay que aplicarle solamente el
nombre de sistema? ¿Hasta qué punto una colección de moléculas constituye «algo»?
Tanto en el caso de un litro de gas o de un metro cúbico, la situación es la misma.
Ningún vínculo existe entre los elementos componentes y ya nada los une con el
exterior, pues las condiciones existentes no permiten la intervención de las fuerzas
fundamentales del Universo. Al menos, estas consideraciones exponen un punto de
vista ideal, pues en ningún caso podrían excluirse totalmente estas fuerzas. La
gravitación terrestre no hace describir a las moléculas segmentos de recta, sino arcos
de elipse, y tampoco puede prescindirse completamente de las interacciones
eléctricas.
Esta lección no debe caer en saco roto: la independencia total es una añagaza, ya
que el suceso puramente aleatorio es una ficción. El físico sabe hoy muy bien que, en
realidad, el azar perfecto no existe en un mundo en el que un análisis sutil destaca la
existencia de innumerables correlaciones, de manera que en el Universo todo actúa
sobre todo. Ninguna substancia permanece fija, ningún cuerpo puede jactarse de ser
eterno y ningún átomo conoce el reposo. Cien veces al año, las partículas cósmicas
proyectadas por la explosión de estrellas provocan mutaciones en nuestro organismo.
Y a decir verdad, la materia es teatro por doquier de un sorprendente hormigueo: las
partículas se agitan, chocan, se unen para formar edificios que a su vez se
transformarán. Los engranajes del Universo están en perpetuo movimiento.
La verdad es que desembocamos en una conclusión diametralmente opuesta a la
Masa y temperatura
Nada nos impide imaginar otros modelos. Por ejemplo, en el caso de una masa doble,
se puede calcular un reparto distinto de las temperaturas, asignando al núcleo
16 000 000 de grados.
La relación masa-luminosidad
Podemos admitir así que, para las estrellas jóvenes, la luminosidad variará
Por lo tanto, resulta aún más notable que en el siglo pasado, el padre Secchi ya se
dedicase a clasificar las estrellas según su color, echando los cimientos de una ciencia
estelar que luego había de perfeccionarse, al establecer cierto número de clases,
conocidas universalmente por las letras O, B, A, F, G, K y M[27]. Y cada una fue
dividida en subclases. Las O y B son azules, las A y F, blancas, las G, amarillas,
como nuestro Sol, y, finalmente, las K y M son estrellas rojas. En la figura 20[ver] se
indica el reparto de las estrellas jóvenes en estas diferentes clases, según cuál sea su
masa.
Reacciones de gravitación
Si consideramos dos objetos celestes, sabremos en qué condiciones la gravitación de
Esto suscita la siguiente cuestión: saber si las estrellas que hoy nos aparecen
agrupadas en una región constituyen enjambres naturales que aún no se han
La alquimia celeste
Con diversas variantes, la actividad de una estrella joven se limita a una
transmutación de su hidrógeno en helio. La conversión se hace con mucha rapidez en
las estrellas grandes, hasta el punto de provocar con bastante prontitud su cambio en
gigantes.
Al llegar a esta etapa, las reacciones termonucleares aún están alimentadas por la
corona de hidrógeno que rodea al núcleo central.
Pero su espesor disminuye poco a poco y llegará de manera inevitable un
momento en que la cantidad de hidrógeno ya no bastará para asegurar la actividad
estelar.
La cadena heliónica
La creación de elementos se prosigue, pues, de acuerdo con una ley muy sencilla,
según la cual la absorción de un helión eleva en dos unidades el número atómico,
mientras que el número de masa aumenta por su parte en cuatro unidades.
Este proceso favorece a los elementos pares que, a partir del helio, están en
abrumadora mayoría en el Universo, especialmente en forma de isótopos, cuyo
número de masa es múltiplo de cuatro.
Tabla II
Número de masa Abundancia%
1 99,98
1. Hidrógeno
2 (1+1) 0,02
3 (2+1) 0,000 01
2. Helio
4 (2+2)* 99,999 99
6 (3+3) 7,4
3. Litio
7 (3+4) 92,6
4. Berilio 9 (4+5) 100
10 (5+5) 18,8
5. Boro
11 (5+6) 81,2
12 (6+6)* 98,9
6. Carbono
13 (6+7) 1,1
14 (7+7) 99,62
7. Nitrógeno
15 (7+8) 0,28
Este cuadro da la abundancia relativa de los diversos isótopos de cada uno de los quince primeros elementos.
La Tierra tiene una composición sensiblemente distinta a la del Universo. Sin embargo, se admite que la
abundancia relativa de isótopos es comparable, para un elemento determinado. Los asteriscos indican los
núcleos heliónicos.
Al llegar aquí, vale la pena examinar la tabla II, que da la abundancia respectiva
de cada isótopo en la Tierra, para los primeros elementos. Podemos pensar que
corresponden a su abundancia respectiva en el Universo, que aún es muy joven, pues
el hidrógeno es diez veces más abundante que todos los demás elementos
reunidos[30]. O sea, que en promedio, el Universo apenas ha recorrido una fracción de
su primera vida.
Dejando el hidrógeno al margen, es decir, teniendo únicamente en cuenta la
«materia evolucionada», continúa siendo característico el hecho de que el helio
también sea diez veces más abundante que todos los demás elementos juntos; por lo
tanto, los elementos que intervienen en la segunda vida de una estrella sólo
representan 1% en el Universo.
Pero al llegar a esta etapa, el «deslizamiento» es muy rápido y ya no se trata de
basar los cálculos en un oxígeno que fuese diez veces menos abundante que el
carbono y después en un neón diez veces menos abundante que el oxígeno. La
situación adquiere un aspecto completamente distinto con el desarrollo de las
reacciones nucleares y, más allá del helio, en realidad nos encontramos con un
pelotón, encabezado por el oxígeno. El carbono viene después, por la sencilla razón
de que se ha transformado casi todo en oxígeno, mientras que este elemento se
El proceso neutrónico
La enana blanca
Sin embargo, la segunda vida de una estrella destaca un proceso cada vez más audaz,
a medida que aumenta el peso de los elementos. Entonces, las fusiones exigen
temperaturas cada vez más elevadas.
En caso de «avería» en el régimen estelar, la gravitación, desde luego, siempre
está dispuesta a iniciar una nueva contracción, para hacer saltar la chispa que
provocará el incendio, mientras confiere a los elementos unas temperaturas en
aumento incesante.
Pero es inconcebible que este proceso continúe indefinidamente, pues las energías
liberadas por las reacciones termonucleares se hacen cada vez más débiles. La
disminución puede cifrarse. La unión de un helión con un carbono 12 libera 7,1 MeV,
y si el oxígeno 16 formado absorbe por su parte un nuevo helión, solamente se
Sometidos a una débil irradiación, los núcleos de una estrella caliente ascienden por la escalera nuclear según el
proceso de las desintegraciones beta (emisión de electrones), dando origen a elementos estables de números
atómicos crecientes.
Los peldaños que faltan pueden saltarse. No existe núcleo estable con 43 protones. Pero cuando se absorbe un
neutrón, el molibdeno 98 (42 protones + 56 neutrones) se transmuta en tecnecio 99 (punto T: 43 protones + 56
El proceso r corresponde a un flujo neutrónico extremadamente intenso, que no deja tiempo a los núcleos para
que adquieran la forma de isótopos estables.
La flecha señala los núcleos que tienen un peso atómico mágico de 50 nucleones. Las Y corresponden a las
gamas que abarcan núcleos que contienen un número mágico de neutrones (50, 82, 126).
El proceso r
Estos elementos pesadísimos que el neutrón engendra más allá del plomo, se
disgregan lentamente. Al menos así sucede hasta el elemento 92, o sea el uranio. En
forma de uranio 238, su período es superior a los cuatro mil millones de años y tendrá
tiempo de acumularse en cantidades considerables durante la vida de una gran
estrella, para liberar muy lentamente la energía de su radiactividad.
Por lo visto, pues, el uranio señala el límite de los elementos pesadísimos creados
por el proceso neutrónico y resultará característico que, pese a ser radiactivo, este
elemento se haya considerado durante mucho tiempo como el último cuerpo natural.
Ésta es por lo menos la situación con el mecanismo neutrónico normal, siempre
lento, y por esta razón los físicos lo designan por el nombre de proceso s (s = slow,
lento). O bien podemos imaginar un proceso r o proceso rápido, en el que se
planteará una situación distinta: la absorción de neutrones por los núcleos se
producirá en condiciones que no les permitirán ascender tranquilamente por la escala
cósmica, según el mecanismo normal de la transmutación beta. Si los neutrones
llegan a un ritmo acelerado[31], los núcleos sufrirán verdaderas indigestiones de
neutrones. Por ejemplo, el niobio (elemento 41), que es estable con 52 neutrones,
absorberá hasta 82 (número mágico) y solamente se transmutará al recibir el
siguiente, con el que el número será 83. Los neutrones sucesivos lo transformarán en
molibdeno (Z = 42), después en tecnecio (Z = 43) y así sucesivamente, sin que
aumente el número de neutrones. Este proceso le obliga a ascender no una escalera,
sino una verdadera escala vertical. Después de largos rellanos horizontales, los
elementos desembocan bruscamente en niveles mucho más elevados, mientras que en
el proceso s se ascendía la escalera cósmica peldaño a peldaño.
Pero en la etapa de los elementos transuranianos, el proceso r cambia
profundamente las cosas, pues hace que los núcleos quemen la gama de los elementos
Estalla el polvorín
Así con el californio, el proceso r desemboca en otro medio de destrucción de los
núcleos, infinitamente más brutal, dando un final completamente distinto a la tercera
vida de la estrella, dominada por el neutrón.
Los técnicos ya están familiarizados con esta desintegración de los núcleos, o
fisión. La explotan desde hace un cuarto de siglo, después de conquistar la energía
nuclear siguiendo un orden inverso al de la naturaleza. Durante la etapa del Universo
primitivo, ésta se hallaba condenada exclusivamente a las reacciones termonucleares.
Pero en el marco terrestre, la creación de temperaturas estelares no es empresa fácil.
La fisión, en cambio, ofrecía posibilidades de explotación práctica con el uranio,
metal radiactivo y a la vez fisionable mediante reacciones en cadena.
La fisión del uranio 235 en una pila o una bomba se desencadena siempre
mediante el impacto de neutrones, dando origen a «productos de la fisión» (o sea
núcleos medianos) y a neutrones secundarios, capaces de chocar también con nuevos
núcleos.
Pero con independencia de la fisión provocada, algunos elementos transuranianos
se caracterizan por la fisión espontánea que es, como la radiactividad, una forma de
autodestrucción de los elementos pesados, pero incomparablemente más enérgica.
Cada fisión libera 200 MeV; o sea, treinta veces más que con una emisión alfa. Esto
se debe al hecho de que una fisión disminuye directamente en cien unidades el
número de masa: ya no se trata de hacer descender dos peldaños a un elemento, sino
de lanzarlo al pie de la escala, al hallarse liberada de golpe la totalidad de la energía
acumulada durante el ascenso.
Singularmente enérgica, la fisión espontánea es al propio tiempo un fenómeno de
una extremada brutalidad. Podemos evocar un período para medir la velocidad del
La fábrica galáctica
Así, pues, las estrellas macizas envejecen más de prisa, llegan con más rapidez al
término de su vida, que puede tener dos desenlaces fundamentales.
Toda la actividad estelar no es más que un combate entre la fuerza de gravedad,
que tiende a contraer al astro, y la energía nuclear, factor expansivo y que vence
reiteradamente el freno de la gravitación.
En el caso de la enana blanca, asistimos a un triunfo gradual de la fuerza de
gravedad, que contrae la materia estelar hasta que las partículas están casi contiguas y
ninguna reacción nuclear es ya posible en el seno del astro, convertido en la tumba de
los elementos pesados que él mismo fabricó y de los que no se beneficia el Universo.
En la evolución de la materia, esta vía conduce a un callejón sin salida.
En cambio, la estrella tendrá una muerte violenta si sus reacciones nucleares se
aceleran, rompiendo el freno de la gravitación y provocando la desintegración del
astro. Semejante proceso explosivo significa el término de su vida para el astro, pero
la materia que desparrama no se pierde para el Universo. Por el contrario, se dispersa
en el espacio, donde vuelve a inyectarse en forma de una nueva semilla.
Pero ¿a qué ritmo estallan las estrellas? ¿Las ven los astrónomos?
Mucho antes de que se hubiesen analizado los mecanismos nucleares —que aún
distan mucho de comprenderse totalmente, pues hay que tener en cuenta los sutiles
arcanos y variantes de los procesos neutrónicos— los astrónomos ya habían
observado que algunas estrellas presentan un sorprendente carácter explosivo. Junto a
las «novas» —estrellas variables en las que el cibernético descubre hoy oscilaciones
de relajación— estaba representada una clase extraordinaria de estrellas: las
supernovas.
Este nombre se dio a unas estrellas cuyo brillo aumenta en un plazo brevísimo,
hasta alcanzar proporciones colosales. La variación representa a veces más de 20
magnitudes; o sea, que la luminosidad del astro se halla multiplicada por un factor de
mil millones. Ésta es la manifestación exterior de la retroacción positiva, que
transforma en bomba un reactor estelar. Durante los días que siguen a su ingreso en el
orden de las supernovas, una estrella puede liberar más energía que en diez millones
de años de funcionamiento regular. La presión de radiación creada por semejante
explosión representa un fantástico huracán que sopla a miles o a decenas de miles de
kilómetros por segundo, desparramando la materia de la estrella.
Docenas de casos
El hecho de que solamente se hayan observado algunas supernovas en nuestra
Galaxia, demuestra la rareza del fenómeno. Estos casos constituyen una base
Más adelante, los elementos pesados desempeñan un papel directo en ciertas fases
de la evolución estelar.
Al margen de la diferenciación fundamental, que tenía en cuenta a las estrellas
formadas de la misma substancia y a las que su diferencia de masa solamente
Como las estrellas más antiguas tienen atmósferas más pobres en metales, aparecen más azules, de manera que
los diagramas color-luminosidad de las cinco generaciones estelares de nuestro Universo no coinciden: a cada
una de ellas corresponde una pista. La generación 1 está simbolizada por el viejísimo cúmulo M 67 (diez mil
millones de años) y la pista que representa a la generación 2 está figurada por el diagrama de M 3 (seis mil
millones de años). Por lo que respecta a las generaciones 3 y 4, solamente se ha representado la parte inferior de
las pistas.
La línea punteada horizontal, al nivel de una masa solar, explica las diferencias de coloración que puede sufrir,
según su origen, una estrella que tenga la misma luminosidad que el Sol.
De aquí surgió la nueva idea de «población». Los astrónomos afirman que las
estrellas próximas al Sol, que son las que se estudiaron desde más antiguo,
representan una «población I». Y las de características diferentes se hallan
comprendidas en una «población II», constituyendo principalmente los cúmulos
globulares.
Con este nombre de cúmulos globulares, el astrónomo designa prodigiosos
Cinco generaciones…
Por lo tanto, los modelos de estrellas actuales deben tener en cuenta la época del
nacimiento, que determinó la composición del astro.
No hay duda de que un simple reparto de las estrellas en dos poblaciones es una
caricatura; los astrónomos se han dejado llevar por casos extremos, al hacer esta
clasificación sumaria.
Por consiguiente, Parenago propuso en 1950 una clasificación más precisa, y en
1957 la Unión Astronómica Internacional dividió a las estrellas en cinco
«generaciones», correspondientes a otras tantas etapas en el enriquecimiento de la
materia galáctica. Según esta división, el Sol parece ser una estrella de tercera
generación.
Este nuevo factor acaba la dispersión estelar. Si tenemos en cuenta la extremada
sensibilidad de algunas reacciones nucleares, tendremos que admitir que mínimas
diferencias en la composición inicial de la estrella o en la mezcla de su substancia
(influencia de la rotación), podrán traducirse por opciones muy diferentes. En
condiciones críticas, los procesos nucleares ascenderán vertiginosamente. Así, se
observarán casos notables: conocemos estrellas de litio o de fósforo…
Las vías abiertas a la evolución de una estrella son innumerables, como lo serán
las que en la Tierra se ofrecerán a la gran aventura biológica.
Acoplamiento estrella-galaxia
A diversos ritmos y de una manera reiterada, las estrellas lanzan su materia al
espacio.
El movimiento no se efectúa en sentido único. Incluso después de su formación,
los astros continúan recogiendo una materia galáctica. Hasta puede suceder que
encuentren nubes de materia que desgarrarán y cuyos fragmentos arrastrarán; además,
arrastran el polvo que encuentran a su paso. Aunque parezca paradójico, esta
captación de materia alcanza un tanto por ciento muy elevado cuando la estrella cesa
en su actividad; al llegar al estado de «enana», cuando la gravitación provoca su
contracción definitiva al extinguirse las reacciones nucleares, sabemos que la estrella
posee una densidad elevada, que le confiere un poder de atracción considerable.
En una palabra, las estrellas y el medio galáctico se alimentan mutuamente y de
manera permanente merced a una corriente de doble dirección en la que
La película de un aplastamiento
Nuestra propia Galaxia es del tipo Sb y podemos imaginarnos su historia, desde la
condensación de una formación gigantesca. Antes los astrónomos tenían que
contentarse con imaginar, pero actualmente empezamos a reconstruir poco a poco la
prodigiosa película galáctica.
Si bien nuestra Galaxia ofrece hoy el aspecto de una gigantesca lenteja cuyo
diámetro y cuyo espesor miden respectivamente 100 000 y 10 000 años luz, ya hemos
dicho que el astrónomo observa la presencia de magníficos cúmulos globulares fuera
de ella, que son muestras de la materia primitiva. Y su presencia en un halo que se
extiende por encima y por debajo de la Galaxia, donde están distribuidos de una
manera notablemente simétrica, nos revela su fisonomía primitiva, la que tenían antes
de la evolución que las convertiría en un disco cada vez más aplastado y concentrado.
Nuestra Galaxia
Las galaxias aplanadas se convertirían en escenario de notables actividades debidas a
su propia estructura.
Nuestra Galaxia en particular es un verdadero «combinado» cósmico cuya
organización sólo se ha vislumbrado en fecha muy reciente.
La astronomía tradicional tropezó con grandes dificultades para su estudio.
Un turrón de estrellas
Más allá de dicho abultamiento, la radioastronomía registra un inmenso vacío que se
extiende hasta 1600 años luz del centro. A esta distancia aparece un anillo cuya
amplitud se calcula en 300 años luz. Después viene nuevamente el vacío. Y por
último, el corazón mismo de la Galaxia está ocupado por un núcleo densísimo.
Tratemos de interpretar esta situación. Al producirse la contracción del objeto
galáctico, el efecto de desagüe debió de ejercerse esencialmente en la materia
periférica, cuya velocidad aumentó a medida que se acercaba al centro. Y el
abultamiento señala la zona donde la fuerza centrífuga triunfó de la gravedad,
dividiendo la Galaxia en dos regiones.
En el interior, el corazón de la Galaxia quedó aislado en una región tranquila, que
pudo organizarse como una verdadera república autónoma. Su materia se condensó
Pensándolo bien, era lógico que las estrellas de una región tranquila estuviesen
muy juntas, creando una verdadera comunidad; en principio, en efecto, no existe
ningún límite mínimo para la distancia que separa a las estrellas, que pueden estar
unidas tanto por su gravitación como por su radiación.
Ésta sería la situación de la región central, en el interior de un mundo separado
del resto de la Galaxia.
Supersupernova
Por lo tanto, en las galaxias fecundas la materia sufre un ciclo regular, durante el cual
resulta enriquecida por una gigantesca instalación cósmica constituida por miles de
millones de estrellas que forman el edificio, cuyas máquinas son ciertos astros
particulares.
Así una galaxia puede ser teatro de cambios más o menos intensos, conservando
durante períodos larguísimos un rendimiento casi constante. Diremos entonces que ha
adquirido su régimen permanente. Es una fábrica astronómica sometida a una
inmensa regulación natural: la estructura espiral la gobierna con una retroacción
negativa, pues una aceleración del ritmo galáctico acarrearía una dispersión
acentuada de la materia.
Y se plantea una cuestión: ¿No podríamos imaginar también una estructura a
escala galáctica que estuviese gobernada por una retroacción positiva, cuyo resultado,
por consiguiente, sería la explosión del propio objeto galáctico? Teniendo en cuenta
que algunas estrellas estallan, dispersando su materia por el cosmos, ¿no sería posible
que vastas aglomeraciones de estrellas y hasta galaxias enteras corriesen la misma
suerte?
Teóricamente, esto es concebible para las galaxias esféricas o incluso para el
núcleo de las galaxias espirales. Cuando se alcanza cierta concentración de estrellas,
se pueden plantear condiciones críticas que, una vez rebasadas, darán lugar a una
retroacción positiva, consistente en la precipitación de las estrellas unas sobre otras;
es decir, una «implosión» del objeto galáctico. La obra de la gravitación se ejercería
entonces sobre masas considerables, creando temperaturas de miles de millones de
grados que darían origen a fantásticas reacciones nucleares y a una explosión que
convertiría a la galaxia en una supersupernova.
Tal posibilidad se tomó en consideración en enero de 1963, durante las reuniones
de la American Physical Society. No solamente Fowler y Hoyle sostienen que estos
procesos son posibles, sino que creen haber hallado la huella de estos cataclismos en
El fenómeno planeta
A partir del hidrógeno inicial, aún no hemos registrado más que una organización
topológica del cosmos y la creación de elementos pesados.
Mediante la conjunción de estos dos procesos, pasamos una página: el fenómeno
planeta representará una nueva etapa en la evolución de la materia, con el
advenimiento de la era fisicoquímica.
Auténtico crisol nuclear, cada estrella es el centro de un dominio en el que su
gravitación mantiene prisionera cierta cantidad de materia. Ahora bien: ésta iniciará
un proceso de una naturaleza totalmente nueva. Se reunirá para formar «objetos
secundarios» desprovistos de actividad termonuclear, que se convertirán en el paraíso
de los átomos.
Esta etapa interesa directamente al hombre: el tercer planeta que gravita alrededor
de la estrella llamada Sol será la Tierra, cuna de unos seres que hoy pretenden
reconstruir el Universo con el pensamiento. Y en este sentido, comprender el
fenómeno planeta era para el astrónomo explicar esencialmente la génesis del sistema
solar.
Pero esta discusión debe realizarse en un marco más amplio y buscar si este
sistema solar fue un fenómeno excepcional o natural en el Universo y, para ello,
estudiar la cibernética de los mundos estelares.
Veremos que es extraordinariamente sutil; lo cual no tiene nada de sorprendente,
pues la complejidad es la regla general en la evolución de los sistemas, cuando sus
elementos componentes pueden efectuar numerosas reacciones mutuas. Así, la
actividad de las estrellas calientes ya nos reveló una complejidad cualitativa, con la
actividad incesante de las partículas y los núcleos. Pero alrededor de una estrella
señalaremos la presencia de una complejidad mecánica: la materia retenida bajo su
dominio no cambiará de naturaleza, pero se organizará en asociaciones que
reaccionarán mutuamente y modificarán el medio ambiente.
Así fue como durante mucho tiempo, la cosmogonía de nuestro sistema solar
constituyó la desesperación de los astrónomos, que señalaron pacientemente todas las
particularidades del extraordinario cortejo que rodea al Sol. Esto condujo a Ter Haar
a realizar un censo exhaustivo. Pero ¿no había que distinguir particularidades de
origen y caracteres adquiridos? Y entre los rasgos de nuestro sistema solar, ¿cuáles
eran fundamentales y cuáles contingentes? El astrónomo no ocultaba la contrariedad
que le producía no disponer más que de un modelo, pues de haberse sabido cómo se
organizó la materia en torno a otras estrellas, hubiera sido infinitamente más fácil
entender la cibernética de los sistemas planetarios.
Reducido a sus elementos, el problema es sencillo. Al principio las estrellas —o
El acoplamiento magnético
Estas hipótesis, que implican una materia exterior, no se hallan desprovistas de
interés: con ellas se puede «hacer el censo» de una manera muy general de los
procesos que permiten el enriquecimiento en materia de los mundos estelares. Pero
no hay por qué disimularlo: semejantes aportaciones fueron excepcionales.
En lo que concierne especialmente al sistema solar, asistimos en 1940 a un
retorno a las tesis definidas por Kant y Laplace.
La única objeción que se les hacía era la que se refería a la ley de conservación
del momento cinético: el Sol hubiera debido girar con mucha mayor rapidez sobre su
eje.
Pero no tardó en proponerse una explicación: ¿No sería posible que el Sol
primitivo hubiese tenido un movimiento de rotación más rápido?
La mecánica clásica no admitía esta eventualidad, pues observaba que, en el
vacío, una rotación se conserva indefinidamente, de manera que si el Sol hubiese
tenido una rotación rápida hace miles de millones de años, la conservaría en la
actualidad. Pero precisamente Alfven se encargó de señalar el error que representaba
haberse limitado a estudiar el sistema solar en términos gravitatorios, con muchos
principios de mecánica formulados para medios neutros. Como hemos visto, la
comprensión de una galaxia requiere que se tenga en cuenta su campo magnético. Por
lo que se refiere a la rotación de objetos en el espacio, la astronáutica nos ha
proporcionado una lección muy elocuente.
Cuando un satélite se coloca en órbita, los técnicos le comunican con frecuencia
una rotación que lo transforma en giróscopo, a fin de realizar una «estabilización por
espín». Pero la experiencia demuestra que esta rotación disminuye con el tiempo: en
el caso de los Tiros, por ejemplo, en tres meses desciende de 12 a 9 revoluciones por
minuto.
Esta disminución de la velocidad es de origen electromagnético. Compuestos los
satélites de materiales conductores y evolucionando en el campo magnético terrestre,
su rotación es frenada por las «corrientes de Foucault» y por fenómenos de histéresis.
Pero las estrellas, constituidas de materiales plasmificados, son mil veces más
El nacimiento de gérmenes
¿Cómo aparecieron los mundos en este disco en rotación?
En la actualidad, sólo conocemos una fuerza capaz de conjuntar un objeto
cósmico: la gravitación universal. ¿Debemos invocarla, considerando la gravitación
como algo inherente a la materia misma del disco que rodeaba a la estrella?
No podemos excluir tal posibilidad. Cuando un gas está contenido en un
recipiente determinado, se inicia una retroacción gravífica de contracción si la
densidad alcanza un valor crítico, llamado a menudo densidad de Roche. Y en un
disco importante, este valor podrá ser rebasado.
Pero este caso no es general y hay que considerar lo que sucede cuando la
gravitación no puede iniciar contracciones espontáneas en el disco. Sabemos que en
estas circunstancias puede surgir otro proceso de condensación.
Las velocidades relativas de los elementos componentes del disco son pequeñas,
en órbitas muy próximas, y podrán nacer asociaciones de los encuentros no brutales;
entonces, los átomos se unirán en moléculas, que a su vez aumentarán de tamaño para
convertirse en polvo, el cual, asimismo, se convertirá en gérmenes.
Pero además, es necesario que estas asociaciones sean posibles en la materia que
constituye el disco.
Ahora bien, su composición es igual a la de la estrella que ciñe. Si ésta es de
primera generación, será esencialmente hidrógeno, y el disco mostrará entonces una
tendencia a evaporarse lentamente en el espacio. Pero en el caso de una estrella de
población más reciente —y es precisamente el caso del Sol— el hidrógeno está
enriquecido con elementos que son aptos para múltiples combinaciones.
Consecuentemente, en los discos que rodean a las estrellas de generaciones
La ley de Titius-Bode
Nuestro sistema solar posee en la actualidad nueve planetas principales. Se interpreta
este número admitiendo una división del disco primitivo según la ley que hubiese
reservado a cada uno de ellos un margen de velocidad determinado. Y teniendo en
cuenta que la velocidad circular depende de la distancia, esta ley debió de gobernar la
respectiva separación de los planetas.
La verdad es que existe una armonía en el alejamiento respectivo de los cuerpos
que forman nuestro sistema solar. Si partiendo de Mercurio —o, más exactamente, de
un punto de origen situado a 60 000 000 de kilómetros del Sol—, adoptamos una
unidad de 45 000 000 de kilómetros, las distancias de los planetas forman la serie
siguiente: Venus, 1,08; Tierra, 2; Marte, 3,75; Júpiter, 16; Saturno, 30,06; Urano, 63.
Estos números están muy próximos a la progresión 20, 21, 22, 24, 25, 26. Por lo tanto,
dijérase que las distancias planetarias obedecen a una ley excepcional; es decir, la ley
fundamental de una cibernética natural.
Teniendo esto en cuenta, si pasamos revista a los elementos que más abundan en
un disco de hidrógeno enriquecido, las afinidades pueden resumirse de la manera
siguiente:
(1) La revolución sideral, que vuelve el planeta al mismo punto de su órbita, representa el año del astro.
Científicamente, podemos definirla como «el tiempo necesario para que la longitud media del Sol aumente en
360°».
La unidad de tiempo llamada «año» es el año Juliano que, en números redondos, tiene por definición el valor de
trescientos sesenta y cinco días y seis horas.
(2) La unidad astronómica (UA) puede considerarse como la distancia media de la Tierra al Sol (véase
Apéndice)[ver].
Tabla III B
Inclinación Excentricidad Revolución Velocidad media sobre
de la órbita de la órbita sinódica(1) (días) la órbita (km/s)
7° 0' 0,205 6 115,877 47,86
3° 23' 0,006 8 583,921 35,02
0,016 7 29,78
1° 51' 0,093 3 779,936 24,12
1° 18' 0,048 4 398,884 13,05
2° 29' 0,055 7 378,092 9,63
0° 47' 0,046 9 369,656 6,80
1° 46' 0,009 367,487 5,43
17° 9' 0,249 366,2 4,74
Los principales componentes del sistema solar: características de las órbitas (B)
(1) Radio de la esfera teórica que tuviese el volumen del astro (modelo esférico). Indicamos estos valores con la
mayor precisión posible en la actualidad: los datos son muy inciertos para los planetas alejados de la Tierra.
Tabla IV B
Revolución Inclinación
Velocidad
Rotación del ecuador
Albedo(1) Gravedad de evasión del satélite
sobre su
del astro
(km/s) rasante(2) órbita
273,16 618,7 2 h 46 25 a 29 d
0,05 4,00 4,28 l h 21 58 d
0,64 8,75 10,351 l h 27
23 h 56 min
0,39 9,82 11,189 l h 24 23° 27'
4 s
24 h 37 min
0,15 3,69 5,038 l h 40 24° 5'
23 s
9 h 50 a 9 h
0,42 25,99 59,69 2 h 58 3° 6'
56
10 h 14 a 10
0,45 11,08 35,49 4 h 15 26° 42'
h 40
0,46 9,89 21,6 2 h 56 10 h 42 98°
0,53 10,99 22,8 2 h 52 15 h 48 29°
4,7 5,2 l h 24
Los principales componentes del sistema solar: características de los astros (B)
(2) Se trata de un satélite que gravitase rasando el ecuador, suponiendo que el planeta estuviese desprovisto de
atmósfera.
Más allá, la evasión del hidrógeno aún es más acentuada. Al llegar a la órbita de
Urano, se realiza con un exceso de 2,8 km/s respecto a la velocidad circular, que es
de 2,25 km/s tan sólo en la órbita de Neptuno; de manera que cuando se ejerció la
fuerza gravitatoria de estos dos planetas, encontró un medio ambiente en el que la
desaparición del hidrógeno ya estaba muy avanzada.
Por lo tanto, encontraremos densidades de nuevo crecientes; 1,6 para Urano y 2,2
para Neptuno. Y estos grandes planetas tendrán una masa que «solamente» será 14,6
y 17,5 veces superior, respectivamente, a la masa de la Tierra. Por último, Plutón, de
masa muy pequeña, tiene sin duda una densidad aún más elevada.
Y resulta característico que solamente este planeta sitúe el centro de gravedad del
sistema fuera del Sol. Según los principios de la mecánica celeste, en efecto, no
puede decirse que un astro gira alrededor de otro, sino que en realidad ambos giran
alrededor del centro de gravedad propio de la pareja que constituyen. Pero teniendo
en cuenta la desproporción de masas, el centro de gravedad del sistema Sol-Tierra se
encuentra en el interior mismo del Sol y la situación es idéntica para todas las parejas
constituidas por el Sol y cada uno de los planetas tomado por separado, salvo Júpiter,
pues el centro de gravedad común del sistema Sol-Júpiter se encuentra
aproximadamente a cincuenta mil kilómetros de la superficie del Sol.
Por esta razón, es menester estudiar el sistema solar teniendo en cuenta la
gravitación conjunta del Sol y de Júpiter, pues la influencia de éste es grande en las
regiones próximas al mismo, ya que ha llegado incluso a modificar las órbitas de los
demás planetas.
De lo que antecede se deduce que no debemos considerar nuestro sistema solar
como un sistema rígido. Los astrónomos descubren lentas variaciones de
excentricidad y cambios en la inclinación de las órbitas. Algunas modificaciones
revisten un carácter periódico, mientras que otras indican verdaderos
«desplazamientos».
El comportamiento de Júpiter respecto a los pequeños planetas, planetoides o
asteroides fue típico. Estos minúsculos mundos que forman un cinturón entre Júpiter
y Marte ofrecen en la actualidad un aspecto de lo más extraño. Ceres y Vesta, los dos
más importantes, tienen unos 560 km de diámetro; la mayoría de ellos —hoy se
conocen más de 1640— son de dimensiones insignificantes. Los astrónomos
atribuyeron su existencia a la influencia de Júpiter, que impidió la formación de un
astro único; además, pensaron que los múltiples grumos nacidos por acreción,
pudieron dar origen a astros muy próximos, de cuyas colisiones nacieron los
asteroides.
El «recorte» hecho por Júpiter del reino de estos planetoides es muy claro. A
causa de su reducida masa, los asteroides poseían una fuerza gravitatoria muy débil y
por lo tanto podemos decir que estaban condenados a inclinarse ante la voluntad de
Júpiter.
Tomando por unidad el período de revolución de Júpiter en torno al Sol, los
períodos de revolución de los planetoides tienen duraciones comprendidas entre 0,28
y 0,56. Consideremos ahora las fracciones más sencillas dentro de esta gama: 1/2,
1/3, 2/5 y 3/7. Si trazamos una gráfica que indique la abundancia de planetoides en
relación con el período de revolución, encontraremos «claros» para estas fracciones
simples, correspondientes a las resonancias más marcadas.
La influencia de Júpiter sobre la órbita de los pequeños planetas se manifiesta de
otro modo: sus perihelios se hallan concentrados en la parte opuesta del perihelio de
Un proceso de centrifugación
En la última fase de su formación, por lo tanto, los grandes planetas gobernaban unos
verdaderos universos en miniatura. Y la materia que contenían sería sometida a un
intenso tratamiento centrifugador, del que aún hallamos las trazas observando que
Júpiter y Saturno todavía se caracterizan por sus variaciones apreciables de gravedad
según la latitud.
En la superficie de nuestro mundo, estas variaciones son insignificantes. Si
tomamos por referencia la gravedad g de un «modelo» de Tierra de forma esférica —
esta gravedad confiere a un litro de agua un peso de 9,81 newtons— la gravedad real
en los polos de nuestro planeta tiene un valor de 1,02 g, mientras que en el ecuador es
de 0,98 g. Estas diferencias son debidas al achatamiento del planeta y a la fuerza
centrífuga, que en el ecuador tiende a lanzar los cuerpos al espacio. Pero los efectos
Los números de los satélites corresponden al orden del descubrimiento. La excentricidad de los cinco primeros,
siempre muy pequeña, es en realidad variable a causa de los acoplamientos fortísimos que existen entre estos
satélites.
El mundo de Júpiter
El mundo de Saturno es también muy notable, pues este planeta posee un volumen
Así se explicarían los vientos que parecen barrer la atmósfera de este planeta y
que poseen una velocidad superior a un kilómetro por segundo en el ecuador.
Tabla VII B
Gran semieje en Gran Inclinación con Velocidad de
Excentricidad relación, a la órbita de
radios de semieje evasión
de la órbita (1)
Saturno (1000 km) Saturno (km/s)
3,07 185,7 0,0201 27° 0,05
3,94 238,3 0,044 28,1° 0,1
4,88 295,1 0 27° 0,05
6,24 377,4 0,0022 28,1° 0,07
8,72 527,4 0,0010 28,1° 0,1
20,22 1223 0,0289 27,1° 2,6
24,17 1462 0,23 39,1°
24,49 1481 0,1043 27,3°
58,91 3565 0,0283 18,1° 0,07
214,4 12 951 0,166 175°
El sistema de Saturno (B)
El planeta más próximo al Sol, o sea Mercurio, fue un guijarro que nació en el
seno de una materia ardiente.
La Tierra nació de una materia tibia cuya temperatura ascendió durante su
crecimiento, pues el proceso gravífico aceleró el recalentamiento del astro.
Los planetas lejanos, nacidos de una materia fría, permanecieron fríos durante
mucho tiempo. Solamente se calentaron en una etapa tardía, después de adquirir
un tamaño propicio para que se manifestase su gravitación. En cuanto se
calentaron, poseían cantidades importantes de hidrógeno, que su gravitación
pudo retener.
Finalmente, los satélites de los planetas lejanos nacieron de una materia fría, en
un ambiente frío y relativamente pobre, por lo que la gravitación no podía
provocar un recalentamiento importante, O sea, que dichos astros nacieron
completamente en frío.
El calor central
Debido al hecho de que los elementos radiactivos estaban dispersos en la Tierra, esta
energía se manifestó en forma de calor.
Y si bien la actividad nuclear de la Tierra nunca fue verdaderamente importante,
su producto debió de serlo, a causa de la acumulación de calorías.
Se calcula que admitiendo la hipótesis de un reparto uniforme en el seno de la
joven Tierra, la cantidad de calor generada por el torio y los isótopos principales del
uranio, ¡representaba 13 calorías por kilogramo en el transcurso de un millón de
años!
Ésta era la situación existente hace cuatro mil quinientos millones de años. A
continuación esta proporción disminuyó, con el agotamiento de los elementos más
activos, y actualmente no se producen más de cuatro calorías por kilogramo.
Pero la corriente calorífica así creada trastocaría la evolución térmica de nuestro
planeta.
La Tierra, cuya temperatura había aumentado mucho en la última fase de su
formación, empezó a enfriarse al hacerse más lento su crecimiento y su superficie
mostró tendencia a acercarse a la «temperatura ambiente» impuesta por su
alejamiento del Sol. Dejaría al agua en estado líquido, a pesar de que los óxidos, en
cambio, eran sólidos, con el resultado de que se constituyó una corteza terrestre.
Pero esta corteza convirtió al planeta en un verdadero termos pues, mala
conductora, aprisionó las calorías de origen radiactivo, permitiendo únicamente la
evacuación de una pequeña cantidad fuera de la Tierra. Al sumarse al calor de
formación del planeta, que únicamente se disipó en la superficie, esta fuente térmica
impuso entonces un calentamiento de un nuevo carácter a las masas internas, cuya
La obra de la electricidad
Este comportamiento pasivo de dos fuerzas fundamentales permite entonces la acción
de la tercera. La Tierra asistirá a su gran reinado, haciéndonos presenciar un
sorprendente trastocamiento de papeles.
La verdad es que la energía eléctrica no realizó ninguna labor constructiva en el
corazón de las estrellas. En el tumulto de una materia plasmificada, los núcleos no
podían atraerse cortejos de electrones, con el resultado de que la mutua atracción de
las cargas de signo contrario no producían organización alguna. Y la repulsión de las
cargas del mismo signo resultaba en unas consecuencias negativas, pues
obstaculizaba las reacciones nucleares; eran necesarias temperaturas elevadísimas
para liberar la energía nuclear de dicha repulsión. Así, durante toda la primera vida de
las estrellas, la energía eléctrica representó el papel de obstáculo, impidiendo la
mayoría de las fusiones nucleares y controlando las que autorizaba.
Fuera de los astros, la situación ofrece un aspecto distinto. En las regiones que
gozan de una calma relativa, núcleos y electrones se asocian para formar átomos.
Pero en la tranquilidad terrestre, la estructura atómica se convierte en ley y crea
La maquinaria atmosférica
En el subsuelo, la autoconcentración de los minerales comenzó con la formación de
la corteza. En la superficie del planeta, una organización de otro orden le hace eco.
La Tierra se plegó. Como un rail víctima de una intensa dilatación, su superficie
se torció. Aquí aparecieron rocas eruptivas más allá las fallas dejaron brotar las
enormes cantidades de agua retenidas por el planeta.
Al principio, la geografía obedeció a los caprichos del azar. Las montañas no
tenían más razón de aparecer en un punto que en otro y el reparto aleatorio de los
océanos recuerda el desgarramiento de la nebulosa primitiva: a la escala local, los
acontecimientos fortuitos engendraron retroacción. Así se transformó la Tierra en el
transcurso de las eras geológicas.
Acumulada en cuentas gigantescas, el agua alimentó otra prodigiosa maquinaria,
también en curso de organización. Los océanos se evaporaron bajo los efectos de la
radiación solar y el agua volvió a caer en forma de lluvia sobre los continentes. Las
gotas erosionaron el terreno, reuniéndose en arroyos por los que se escurren las
aguas; empezaron a dibujarse los ríos y la erosión de las rocas creó una demarcación
cada vez más profunda entre su lecho y el medio ambiente.
Finalmente se implantaron los circuitos de un elemento fluido sobre la tierra
firme.
Esta maquinaria no era inmutable. Merced a la actividad del subsuelo y la erosión
de los continentes, el relieve cambia: este río, al excavar una región, desvía el lecho
de aquél. Así fue como en Francia, las aguas del Mosela afluyeron al Mosa hasta el
día en que un pequeño torrente provocó un hundimiento en la región de Commercy:
con sus aguas, el Térouin condujo entonces el Mosela hacia el Meurthe.
Los ríos acarrean en mezcolanza todos los materiales, para verterlos al mar. Pero
bajo la influencia de la radiación solar, se produce una destilación en el gigantesco
Por último, el cuarto número cuántico r[E7] tiene en cuenta el espín del electrón, o
sea su giro, que puede tener dos sentidos: por lo tanto r puede tener dos valores
opuestos.
Una vez sentados estos postulados, el principio de exclusión de Pauli afirma que
dos electrones de un mismo átomo no pueden tener sus cuatro cantidades idénticas.
Por definición, los electrones son partículas llamadas indiscernibles, que tienen la
misma masa, la misma carga y el mismo espín: si además sus parámetros mecánicos
fuesen idénticos, una distinción sería inconcebible.
Arquitectura atómica
A causa de las leyes de la mecánica cuántica, todos los átomos de un mismo tipo son
productos de serie, rigurosamente construidos según un modelo único. Podemos
hablar, pues, del átomo de hidrógeno o del átomo de hierro.
Y a través de los átomos que las componen, esta arquitectura se extiende a las
moléculas, cuya estructura hoy conocemos merced a los rayos X.
El químico sabe hoy que la molécula de hidrógeno es una pequeña pesa de
gimnasia, cuyos dos protones están separados por una distancia de 0,74 ángstroms.
La molécula de agua ya constituye un verdadero edificio. Su osamenta es un
acento circunflejo (con ángulo de 105°): el átomo de oxígeno está centrado en la
cúspide y en los brazos, los protones que constituyen los núcleos del hidrógeno están
a una distancia de 1,01 ángstroms de la cúspide.
La complicación aumenta con la molécula de amoníaco, cuyos cuatro átomos (un
átomo de nitrógeno y tres de hidrógeno) constituyen una pequeña pirámide, cuyos
ángulos y aristas poseen valores bien determinados.
Conocemos además las dos variedades de carbono que nos dan el grafito y el
diamante. Son muy distintas: el diamante es el cuerpo duro por excelencia, mientras
que el grafito es muy friable.
Con sus cuatro electrones periféricos, en efecto, el átomo de carbono ofrece
cuatro «enlaces» posibles. Permite una arquitectura espacial en la que cada átomo,
situado en el centro de un tetraedro, está unido a cuatro átomos que ocupan los
vértices, motivo que se repite en todas las direcciones del espacio y que asegura
uniones extremadamente sólidas. Ésta es la estructura del diamante.
Pero también podemos imaginarnos un enlosado formado por hexágonos, en el
que los átomos del carbono ocuparán los vértices. Cada vértice, en efecto, solamente
estará unido a otros tres, pero es posible imaginar dobles enlaces alternos. Según este
modelo, los átomos de carbono formarán placas que, al sobreponerse, nos darán
precisamente el grafito: se hallan amontonadas, unidas apenas por enlaces
secundarios. Semejante estructura es en cierto modo sólida en el plano horizontal y
líquida verticalmente, lo que explica que el grafito constituya un lubricante excelente,
pues el espesor de las laminillas se reduce al diámetro de un átomo de carbono.
Esta «doble solución» constituye una lección nada despreciable y nos enseña que
Hacia la vida
Pero moléculas y cristales son más bien instalaciones industriales que palacios.
El átomo es una máquina, denominación que está justificada por la actividad de
los electrones. Invitados a ocupar normalmente los lugares más próximos al núcleo,
los electrones periféricos pasan a niveles superiores, bajo la influencia de
excitaciones externas. Su recaída se traduce por una radiación, idéntica para todos los
átomos de un mismo tipo.
Y este término de máquina aún puede aplicarse más profundamente a las
moléculas, pues las más sencillas de entre ellas se hallan animadas por movimientos
internos. Reducida a dos átomos, la molécula de hidrógeno «vibra». Las moléculas
complejas son verdaderas máquinas-herramienta.
Pero aún nacerán moléculas cada vez más evolucionadas. En si el interior de la
N = 6,0230·1023.
V = 22,407 litros.
Las velocidades de nuestras cien moléculas en un instante determinado (oxígeno a 15°) están clasificadas por
columnas según la cifra de las centenas (m/s): una sola molécula tiene una velocidad inferior a 100 m/s, ocho
tienen velocidades comprendidas entre 100 y 200 m/s; 15, entre 200 y 300; 22, entre 300 y 400; 21, entre 400 y
500; 14, entre 500 y 600; siete, entre 600 y 700; cuatro entre 700 y 800; tres, entre 800 y 900, dos, entre 900 y
1000; una, entre 1000 y 1100; una, entre 1100 y 1200; finalmente, una molécula tiene una velocidad superior a
1200 m/s. <<
El eje horizontal que sirve de referencia para medir los grados en la Vía Láctea refleja la orientación anterior de
un observador que, de pie en nuestra Galaxia, estuviese vuelto hacia el norte. <<
En el cúmulo de las Pléyades, las estrellas más pesadas están más cerca del centro: se toma el radio del enjambre
como unidad de longitud. <<
Acoplando una cámara electrónica al telescopio de Lick, los astrónomos Lallemand, Duchesne y Walker pudieron
estudiar con gran precisión el corazón de nuestra galaxia vecina, la nebulosa de Andrómeda. Comprobaron que la
velocidad de rotación aumentó regularmente a partir del centro hasta 25 años luz: entonces alcanza 87 km/s. Estos
valores corresponden al radio del núcleo y a su velocidad ecuatorial. Al ser el crecimiento lineal, podemos deducir
que el núcleo se comporta mecánicamente como un sólido: sin duda se trata de un elipsoide, cuya revolución se
efectúa en quinientos cuarenta mil años. Su eje menor debe de medir 16 años luz y su masa se calcula en quince
mil millones de veces la masa del Sol (el 15% de la masa total de la galaxia). <<
El eje horizontal que sirve de referencia para medir los grados en la Vía Láctea refleja la orientación anterior de
un observador que, de pie en nuestra Galaxia, estuviese vuelto hacia el norte. <<
Una nueva reducción (en una proporción próxima a 150) ofrece una imagen del Universo hasta varios centenares
de millones de años luz. El cuadradito central indicado por una flecha contiene la carta precedente. <<
En nuestras latitudes, esta imagen del firmamento septentrional en el mes de mayo a las 23 h (o en abril a 1 h, o
en marzo a 3 h), confunde casi la Vía Láctea con el horizonte y permite una fácil localización de las
constelaciones.
El norte cósmico está ante el observador, indicado por Casiopea. Al este está el Águila y al oeste, Taurus y
Orión. El borde de la Galaxia más próximo al Sol está en la dirección del Auriga. <<
El eje horizontal que sirve de referencia para medir los grados en la Vía Láctea refleja la orientación anterior de
un observador que, de pie en nuestra Galaxia, estuviese vuelto hacia el norte. <<
Las máquinas electrónicas pueden simular hoy estados gaseosos. Un modelo fija la situación de cien moléculas en
el dibujo adjunto. Las moléculas se localizan mediante matrículas que permiten seguirlas y las máquinas calculan
su velocidad en cualquier instante. <<
La relación de Eddington encuentra su justificación en este gráfico que indica la luminosidad teórica de una
estrella-modelo, según cuál sea su masa. En las ordenadas, la escala es la logarítmica (los astrónomos evocan con
más frecuencia la escala de las magnitudes absolutas, dispuesta al lado). Pero en las abscisas hemos adaptado una
escala lineal para las masas: la forma de la curva pone de relieve el crecimiento vertiginoso de la luminosidad
cuando aumenta la masa. <<
peso que un litro de agua; la imprecisión de las medidas hizo que Galileo diese la
cifra de 400. <<
a 15°, la energía de las moléculas refleja un promedio de 474 m/s: las moléculas más
rápidas son menos numerosas, pero aportan mayor energía y elevan el promedio del
mismo modo que, en un examen, las buenas notas en las pruebas dotadas de
coeficientes elevados. <<
cuyo valor indica la energía adquirida por un electrón bajo una diferencia de
potencial de 1 voltio. Recuérdese que a 465 °C, la energía media de una molécula
equivale a 0,1 eV. <<
es reciente y aún no está aceptada. En 1950, todavía se daba la cifra de menos de 500
años luz para señalar la distancia de la estrella. <<
abril de 1961), la intensidad de las radiaciones que surcan el espacio es mil quinientas
veces demasiado débil para justificar una creación continua. <<
Dreyer. <<
citamos por simple curiosidad: Oh Be A Fine Girl, Kiss Me! (Oh, sé buena chica,
bésame), al que se puede añadir: Right Now, Sweetheart, para las letras R, N, S,
aplicadas a tipos estelares más raros. (N. del T.) <<
<<
radio del electrón, o sea 0,529 ángstroms (un ángstrom = 1 diez millonésima de
milímetro). <<
guion, sin espacios, entre el nombre del elemento y su número másico; en este caso la
notación actualizada sería: helio-3. (N. del E. D.) <<