La Aventura Del Cosmos-Holaebook

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 311

Albert

Ducrocq es un reputado especialista de astronáutica cuyos libros


sobre las diversas facetas del tema, traducidos a diversas lenguas, gozan de
amplia audiencia internacional.
Este libro, primero de una serie dedicada a la cibernética y el universo,
constituye un estudio científico de la evolución de la materia, esta gran
aventura que el propio autor llama novela de la materia.
La física clásica creía que en el universo reinaba un desorden generalizado,
pero la cibernética, arrojando nueva luz sobre los misterios del cosmos, nos
conduce a una conclusión diametralmente opuesta que las páginas de este
libro nos presenta: a partir del caos de las partículas era lógico que
apareciesen organizaciones rudimentarias, que se formasen estrellas, que
nacieran elementos; que a Tierra se haya constituido y la vida se desarrolle…
La aventura del cosmos tenía que producirse. Estas páginas son su
apasionante relato.

ebookelo.com - Página 2
Albert Ducrocq

La aventura del cosmos


ePub r1.0
Titivillus 09.12.2017

ebookelo.com - Página 3
Título original: Le Roman de la matière, Cybernétique et Univers I
Albert Ducrocq, 1963
Traducción: Antonio Ribera

Editor digital: Titivillus


ePub base r1.2

ebookelo.com - Página 4
Introducción
En la Prehistoria, el hombre inventó herramientas que eran una prolongación de la
mano. Después las accionó mediante el viento y la fuerza hidráulica. Finalmente,
durante la era industrial, el relevo del músculo se hace en gran escala merced a la
hulla y el petróleo y con la magia de la electricidad. Los esclavos mecánicos pueblan
la Tierra a millones.
Sin embargo, al llegar a esta etapa, la mentalidad del hombre apenas ha
cambiado. Sigue considerándose el único depositario de la inteligencia en su
planeta. La proliferación de las máquinas lo afianza en esté convencimiento, pues
son a manera de peones cuyos movimientos él gobierna a su antojo. No pasan de ser
simples agentes que ponen en ejecución los programas dictados por el hombre, el
único capaz de recoger las informaciones necesarias para establecerlos.
Esta transcendencia intelectual del hombre está confirmada por el físico,
inventor de la entropía. La entropía de un sistema, nos dice, es su «cantidad y
desorden» y allí donde un sistema queda abandonado a sí mismo, ésta únicamente
puede aumentar. Pero existe una soberana excepción para esta ley en el caso de la
materia biológica, pues la característica intrínseca de los seres vivos consiste en su
lucha contra el azar. Y el hombre lleva este combate al mundo que lo rodea y lo
transforma, pues conoce la arquitectura, la geometría y la mecánica.
La revolución industrial le proporcionó nuevas armas. Pero al llegar al siglo XX,
la máquina empieza a salir de su letargo. Efectivamente: los técnicos la proveen de
«captores», verdaderos órganos de los sentidos en miniatura, que le permiten recoger
informaciones necesarias para realizar su trabajo. Así nacen las máquinas llamadas
cibernéticas, capaces de dirigirse a sí mismas y que en el terreno que les es propio
pueden alcanzar objetivos determinados, tal como hace el hombre, creando el orden
y haciendo disminuir la entropía.
Teniendo en cuenta que estas máquinas cibernéticas han sido concebidas y
realizadas por el hombre, sólo poseen una «delegación» de su facultad creadora.
Con todo, el hecho de que semejante poder se delegue, inicia una profunda
revolución intelectual. Hay que llegar a la conclusión de que el orden es el fruto de
notables estructuras, en este caso las de las máquinas cibernéticas que, una vez
construidas, pueden generar una organización.
La mecánica, la electrónica o la hidráulica, en efecto, no son más que medios;
todo su interés reside en los esquemas que permiten realizar, o sea, que los
cibernéticos concentran su atención en la función, considerando la técnica como
secundaria.
Nace una nueva ciencia, cuyo sentido consiste en estudiar la reacción recíproca
de diferentes sistemas, dejando de tomar al hombre como referencia. Así sucede, a la
clásica física de las cosas, una física de las relaciones, que tiene en cuenta las

ebookelo.com - Página 5
estructuras y sus efectos.
El problema de la evolución del Universo encuentra entonces sus bases. ¿Y si el
orden del cosmos se debiese a estructuras que fuesen a su vez el producto de otras
estructuras?
Éstas fueron las reflexiones que nos embargaron al efectuar nuestros primeros
estudios sobre la cibernética. Pudimos observar esto: el hombre se gobierna y
construye máquinas que se gobiernan por sí mismas, en la actualidad, pero antes de
su aparición, la Tierra y el Universo entero se gobernaban…
Fue entonces cuando comprendimos que el estudio de las estructuras debía
constituir la ciencia fundamental. Y con este convencimiento, sentamos las bases de
una «inteléctica» en un libro matemático titulado Lógica general de los sistemas y
los efectos.
En otros tiempos, la física aportó soluciones al hombre, permitiéndole
comprender ciertos fenómenos de su Universo. La cibernética las integra en una
síntesis: de las ciencias, hace la Ciencia.

ebookelo.com - Página 6
1

Visado para el cosmos


Una cámara cinematográfica instalada en nuestro planeta desde su creación, hubiera
tomado una película cuyo carácter verdaderamente fantástico podremos imaginarnos,
pasándola en pensamiento en el espacio de pocas horas.
Aquí, la Vía Láctea es un piélago celeste cuya espuma multicolor engendra vastos
enjambres estelares. Allá, los astros se desplazan en todos sentidos: algunos poseen la
rapidez de estrellas fugaces y otros avanzan lentamente, como nuestros satélites
artificiales. Por doquier se ven los destellos y los fuegos artificiales cósmicos, cuyas
chispas se dispersan majestuosamente.
Mientras el Universo se organiza, otra actividad da principio en la Tierra, cuya
corteza, sacudida por convulsiones, ha creado plegamientos en su superficie. Los
océanos destruyen continentes enteros tal como hoy, en nuestras playas, las
rompientes se burlan de los castillos de arena. Movida por los rayos del Sol, la sutil
maquinaria atmosférica modela unas tierras que heredan del mar un hormigueo
llamado vida.
Durante el último cuarto de hora, una rica vegetación recubre el planeta. Los
últimos minutos de la proyección nos presentan a los mamíferos y en las últimas
imágenes se oye el rumor de las oleadas humanas. Al ritmo de esta película, en un
segundo se suceden diez mil generaciones. Frente al cosmos, la vida es un relámpago.
El hombre apenas tiene tiempo de nacer, conocer a sus hijos y desaparecer, después
de contemplar un Universo que a sus ojos es inmóvil como una estatua.
Pues de esta película prodigiosa ve únicamente el último fotograma. No sabe que
se ha representado una obra prodigiosa y que su fragmento de espacio es la imagen de
su fragmento de tiempo: el cielo es un decorado cuyo sentido no comprende. Los
árboles dan la medida de sus edificios. No vive en el espacio, sino en una superficie;
la delgada corona que rodea a la Tierra le sirve de cuna y de tumba.
Al ignorar el Universo y no sospechar que su pequeña morada constituye el
extraordinario producto de una especialización, el hombre trata ingenuamente de
buscar actores de su talla, para que le expliquen el cosmos en el lenguaje de los
fenómenos terrestres.
En el pensamiento del hombre antiguo, el Sol efectúa todas las noches un
misterioso viaje en barca por un río que lo conduce de Occidente a Oriente. Los
poetas cantan la epopeya del Universo a la escala de un océano, de una familia, de
una tradición.

ebookelo.com - Página 7
La materia más sencilla
A decir verdad, será necesaria una larga y ardua labor antes de que pueda entreverse
la fisonomía del Universo. Se dibujará muy tarde, cuando la civilización haya
engendrado diversos refugios intelectuales. Pero incluso entonces, en su vida
cotidiana, el hombre se preocupa poco por el cosmos y la estructura de la materia no
le interesa, al no comprender la utilidad de semejante conocimiento. Grimm nos dice
que existe un fondo inagotable de credulidad y superstición en el corazón humano. Su
contrapartida fue siempre una sorprendente indiferencia por parte del hombre hacia
los sucesos que no le conciernen: los precursores no consiguen interesar a sus
contemporáneos por las causas extrañas a su existencia cotidiana.
Por lo tanto, durante siglos el estudio de la materia fue el patrimonio de un
reducido número de individuos, cuyo nombre y cuya obra permanecen ignorados a
menudo por parte de sus coetáneos. Mas por encima de las vicisitudes, de los años y
los reinos, son los artesanos de una revolución intelectual. Bajo sus auspicios, el
hombre empieza a comprender los engranajes de su Universo y a disecar su materia.
Esto no resulta sencillo, teniendo en cuenta la perfección que alcanza en el marco
terrestre. El hombre ve a su alrededor un terreno cubierto de vegetación, árboles y
ríos, y descubre una vida, patrimonio de un medio superiormente organizado. En el
árbol genealógico de la materia, es el extremo de una rama, pero él no lo sabe. La
sangre que derrama en el combate, la carne que le sirve de alimento, la madera que
quema, son substancias que él considera primitivas. Sin embargo, se sitúan a gran
altura en la jerarquía de la materia; son el resultado de un prodigioso trabajo que la
naturaleza realiza desde hace cientos de millones de años.
Incluso el reino de los cuerpos inertes, que los naturalistas colocan en la parte
inferior de la jerarquía, tiende una trampa al investigador. Aparece bajo tres fases:
gaseoso, líquido y sólido. Y se concede un interés creciente a este orden. Desprovisto
de forma, de volumen, hasta de color, el gas apenas inspira nada. El líquido es más
accesible a los sentidos: un volumen determinado lo hace palpable. Pero ante todo, el
hombre concede su atención a lo sólido, pues éste domina el marco terrestre del que
él ha surgido y que su cerebro ha aprendido a conocer, amar y temer.
Efectivamente, lo sólido da su fisonomía a nuestra Tierra, que merced a él está
poblada de formas, a través de las cuales el hombre identifica el medio exterior y
clasifica sus recuerdos. En presencia del objeto desconocido, el primer reflejo
consiste en buscar un parecido. Lo sólido sirvió para edificar una geometría y una
física que adoptaron el metro por patrón.
Ahora bien, esta situación es propia de los planetas. A la escala del Universo, lo
sólido constituye una excepción: el espacio y las estrellas son gaseosos. En vez de ser
un estado primero, lo sólido fue el fruto de una organización: un simple cristal de
hierro representa una prodigiosa arquitectura, en la que los átomos encadenados
forman interminables frescos. Mas para descubrirlos se requerirán microscopios

ebookelo.com - Página 8
especiales, que aumenten millones de veces…
Teniendo en cuenta que una diferencia de escala separa al átomo del hombre y
que los sentidos de éste no le revelan la acción de los átomos, el hombre tendrá
mucha dificultad en seguir el camino que conduce a los verdaderos agentes de la
materia, en descubrir las prodigiosas reglas del mundo de las partículas, en
«interpretar» sus impresiones sensoriales a la luz de las mismas.
A decir verdad, este mundo jugará durante mucho tiempo al escondite con el
puñado de investigadores que se propusieron descubrirlo. Los ojos no lo ven ni el
cerebro lo imagina. Los físicos lo sorprenderán, no en las estructuras colectivistas de
los sólidos, sino en los gases, que representan un estado de materia sencillo, sobre
todo en el aire que el hombre respira y cuya masa constituye una verdadera pantalla
interpuesta entre la Tierra y el cosmos.
Su exploración contribuirá poderosamente a que el hombre obtenga su visado
para el Universo. Por lo demás, todo se transforma cuando se franquea la atmósfera,
del mismo modo que al abandonar un país, el paisaje, las leyes y las costumbres
adquieren un aspecto distinto.

Descubrimiento del aire


El aire es hoy para nosotros una materia hecha de la misma pasta que los demás
objetos. Como es sabido, basta con hacer descender su temperatura para que el aire se
vuelva líquido como el agua, convirtiéndose entonces en la base de una industria. A
una temperatura aún más baja, es sólido como el hielo. Este hecho nos parece natural.
A principios del siglo XVII, nadie podía sospecharlo: el aire se consideraba todavía un
ente misterioso al que ni siquiera se le podía llamar substancia.
El primer episodio de su descubrimiento tiene lugar con Galileo, cuya experiencia
consiste en comprimir al aire en un globo, que entonces aumenta de peso. Esto
permite a Galileo formular el primer orden de magnitud por lo que toca a la densidad
del aire[1].
En realidad, lo que el físico pesará será toda la atmósfera, aunque de manera
indirecta. Los fontaneros de Florencia le explicaron que sus bombas se negaban a
aspirar el agua por encima de 32 pies de altura. Galileo imagina la razón de ello,
considerando que la atmósfera debe de equilibrar semejante altitud.
Su discípulo Torricelli propone entonces utilizar un líquido mucho más denso, el
mercurio, que en aquella época recibía el pintoresco nombre de «argento vivo». En

ebookelo.com - Página 9
un tubo en el que se había hecho el vacío, Torricelli ve que el mercurio se eleva a
76 cm. Esto justifica a sus ojos el razonamiento de Galileo: «Vivimos sumergidos en
el fondo de un océano de aire —escribe a Ricci en 1634—. ¿Por qué hay que
sorprenderse de que el argento vivo se eleve hasta equilibrar el peso del aire que le
empuja?».
En Ruan, Pascal repite con diferentes líquidos los experimentos de Torricelli.
Descartes le sugiere que compruebe si el argento vivo asciende a la misma altura,
efectuando la operación en la cumbre de una montaña. Pascal hace que Périer realice
esta experiencia en el Puy de Dome. Y en París, crea el observatorio de la Torre
Saint-Jacques.
Ha nacido el barómetro. Mide la presión atmosférica, cuyos efectos pone de
relieve la bomba de vacío inventada por Otto de Guericke: en 1654, este físico, que
era burgomaestre de Magdeburgo, demuestra que hacen falta fuerzas considerables
—proporcionadas por dieciséis caballos— para separar dos hemisferios entre los que
se ha hecho el vacío.
A partir de entonces, el aire tendrá un rasgo en común con los sólidos y los
líquidos: el peso. Por lo tanto, merece muy bien llamarse materia.

La naturaleza de los cuerpos


Pero ¿de qué substancia está formado? Por aquel entonces, esto no se sospechaba ni
remotamente. Las ciencias de la materia también pasan por su época de pura
mitología, con la «flogística» de Stahl. Y hay que esperar a 1741, para que
Lomonosov esboce la primera clasificación racional de los elementos.
Solamente a partir de 1770, Scheele, Priestley y Lavoisier analizan el aire, del que
se extrae un gas particularmente activo, que mantiene la combustión. Lavoisier lo
denomina «aire eminentemente respirable» o «aire vital». Su presencia se señala
asimismo en numerosos compuestos y por último recibirá el nombre de oxígeno, pues
el sabio francés lo considera, equivocadamente, presente en todos los ácidos (
oxi-geno significa etimológicamente «el que engendra los ácidos»). Esto se convierte
en el punto de partida de una ciencia «que tiene por finalidad el estudio de la
naturaleza y las propiedades de los cuerpos simples»: la química.
Por lo tanto, el aire contiene oxígeno. El resto es una «mofeta residual» en la que
se identifica otro gas que se llamará ázoe (del griego a zoein, sin vida) o nitrógeno.
Cavendish, por su parte, consiguió aislar al hidrógeno. Los investigadores no

ebookelo.com - Página 10
tardaron en comprender que todas las substancias están formadas a partir de un
número reducido de elementos simples que se irán descubriendo y bautizando poco a
poco, con nombres poéticos o rebuscados, según las modas. El gran descubrimiento
de los elementos, empero, fue obra esencialmente del siglo XIX, de Mendeleyev,
estableciéndose su clasificación.
Sin embargo, desde principios del siglo XIX el aire ha perdido su misterio y los
sabios comprenden que sus elementos constituyentes se encuentran también en otros
cuerpos. Empieza a dibujarse la unidad de la materia, a través de sus diferentes
disfraces.

Descubrimiento de la estructura atómica


Mientras continúa el descubrimiento de los elementos, el siglo XIX es testigo de otro
acontecimiento decisivo: se vislumbra la constitución atómica, a través de una serie
de episodios. El primero se inicia con la famosa discusión entre Alejandro von
Humboldt y José Luis Gay Lussac.
Humboldt sentía pasión por la ciencia desde su juventud; llegó al extremo de
herirse, para reproducir en sus músculos la experiencia hecha por Galvani con una
rana. Y el célebre naturalista dio su nombre a muchas plantas y minerales. Estudió en
1804 las condiciones en que se combinan los gases; parecían aún muy misteriosas y
Humboldt emprendió una ingrata labor de interpretación.
Gay Lussac era un joven auxiliar de Física, que acababa de ilustrarse mediante
ascensos en globo. Atacó con ardor las conclusiones de Humboldt. Este quiso
conocer personalmente a su acérrimo adversario; de su discusión nació la luz y una
amistad que había de unir hasta la muerte a los dos antiguos adversarios. Así, el l.º de
pluvioso del año XIII, presentan juntos a la Academia la histórica memoria en la que
afirman que el agua está engendrada por una combinación de dos volúmenes de
hidrógeno con un volumen de oxígeno. Y a los ojos de los físicos, esta ley es general:
los volúmenes de los gases se unen en proporciones simples.
Un profesor de Turín, Amadeo Avogadro, propone entonces una explicación,
emitiendo en 1811 su gran hipótesis molecular. Este físico afirma que, contrariamente
a las impresiones de nuestros sentidos, la materia no es continua y sobre todo que los
fluidos están constituidos por una gran colección de «pequeñas masas» o moléculas
(mole = masa). Estas moléculas, verdaderas muestras de las substancias, deben

ebookelo.com - Página 11
considerarse como formadas por cierto número de constituyentes elementales
denominados átomos: cuando dos substancias reaccionan químicamente, es que se
libran verdaderos combates cuerpo a cuerpo a la escala molecular.
Se comprende que en los gases, las moléculas estén muy espaciadas, mientras que
están muy juntas en los líquidos. Esto permite dar una nueva interpretación a los
cambios de estado: hacer hervir un litro de agua equivale a dispersar en 1700 litros
las moléculas que contiene.
Y la ley descubierta por Humboldt y Gay Lussac se explica inmediatamente:
basta con admitir que, en condiciones idénticas, las poblaciones moleculares de todos
los gases son las mismas.

El triunfo de Avogadro
Se ha dado el paso decisivo. El átomo ha hecho su aparición en el lenguaje científico.
Demócrito ya lo imaginó en la Antigüedad. El filósofo jónico veía en los seres
colecciones de átomos que se movían en el vacío. Y Lucrecio evocó igualmente al
átomo en un pasaje célebre de su obra De rerum natura. Pero todo esto no pasaban de
ser especulaciones filosóficas.
Mas entonces esta idea se convierte en un concepto científico que explica la
materia. Los físicos descubrirán para cada elemento un átomo cuyas características se
precisarán más tarde.
Pero de momento, el hombre aún tiene mucha dificultad en admitirlo y durante
cerca de medio siglo las tesis de Avogadro, totalmente ignoradas del gran público,
son incluso mal vistas en los medios científicos, donde el concepto de átomo se
considera «demasiado teórico».
Avogadro triunfa a título póstumo, dos años después de su muerte. En 1858, un
químico italiano llamado Cannizzaro, que trabajaba en Génova, tiene una súbita y
genial inspiración. Comprende que desde el punto de vista de Avogadro la estructura
de las moléculas aparece inmediatamente: si dos volúmenes de hidrógeno se
combinan con un volumen de oxígeno, sin duda esto se deberá, sencillamente, a que
una molécula de agua tiene dos átomos de hidrógeno y un átomo de oxígeno. ¡No
haber pensado en ello! Se escribe entonces la fórmula del agua H2O y se consigue
rasgar ampliamente el secreto de la constitución molecular.
Da mucho que pensar, sin embargo, el hecho de que transcurriesen tres cuartos de
siglo entre el año 1783, época en que el genial Watt vio en el agua un compuesto de

ebookelo.com - Página 12
hidrógeno y oxígeno —opinión tachada entonces de absurda por la Real Sociedad de
Londres— y la época en que se establece finalmente la fórmula del agua.
Pero esto aún no es todo. A pesar del éxito alcanzado, la teoría molecular no pasa
de ser una simple curiosidad durante bastante tiempo. Resulta muy sintomático el
hecho de que después de consagrar importantes notas biográficas a todos los
Avogadro, la Gran Enciclopedia del siglo XIX despache con dos líneas a aquel que
presenta como un químico italiano, autor de una «hipótesis» célebre: ¡definición que
había de subsistir hasta 1945!

El tamaño de las moléculas


Aún quedaba un largo camino por recorrer para que el átomo descubriese sus
secretos. En la época de Avogadro, el físico debe limitarse a describir lo que
encuentra. Téngase en cuenta, sin embargo, que el átomo sólo existe
excepcionalmente en estado libre: en el marco terrestre es parte constitutiva de la
molécula y los investigadores se dedican durante largo tiempo al estudio de esta
última.
Avogadro adivina la existencia de las moléculas. No las vio ni precisó ninguna de
sus características. Esto plantea múltiples cuestiones. La primera incógnita está
representada por las dimensiones de las moléculas.
Hay que esperar a fines del siglo XIX para que un gran mago de la física, lord
Rayleigh, despeje esta incógnita mediante un sencillo experimento.
Sin duda el lector conoce el juego consistente en hacer flotar en agua un cisne de
celuloide, al que se han adaptado bolas de alcanfor, que se disuelven, produciendo la
propulsión del cisne por reacción. Pero este experimento solamente da resultado con
agua extremadamente limpia. El fenómeno se interrumpe en cuanto se aísla el
alcanfor recubriendo el agua aunque sólo sea con una capa de moléculas extrañas.
Así, depositando un poco de aceite en el agua mediante un alfiler, bastará con medir
la dosis que provoca la detención del cisne, la cual corresponderá a una capa
depositada y revelará las dimensiones de las moléculas que la constituyen.
Esta clase de experiencias no permiten cálculos precisos. Sin embargo, nos
revelan que los diámetros moleculares son de milésimas de milímetro.
Lord Rayleigh efectuó asimismo la primera cuenta de moléculas. Descubre que,
en condiciones normales, un litro de gas contiene entre 22 y 36 mil trillones de

ebookelo.com - Página 13
moléculas. Más tarde, esta cifra se dará con mayor precisión[2].
Una vez contadas las moléculas, el físico ya puede calcular su masa. Descubrirá
números increíblemente pequeños: así surgirá la costumbre, para comparar las masas
respectivas de átomos y moléculas, de recurrir a una unidad de masa atómica o
«uma», que se define tomando a un átomo por patrón. Este papel corresponderá
durante mucho tiempo al oxígeno. El carbono lo sustituyó y hoy se dice que un átomo
de carbono ordinario —o carbono 12— tiene por definición una masa de 12 uma[3].
Así expresadas, las masas de los diversos átomos, y por lo tanto de las moléculas,
serán muy cercanas a los números enteros: la explicación de esto se hallará al conocer
la estructura de los átomos.

El movimiento perpetuo
Aún no se ha llegado tan lejos en el siglo XIX.
Las moléculas ya han sido pesadas y contadas. El físico se dedicará a medir su
velocidad.
Porque las moléculas se mueven. Y el hombre se encuentra ante una extraña
situación, al descubrir un movimiento continuo. Tiene que abandonar sus
concepciones tradicionales, pues en la mecánica terrestre, un movimiento no puede
mantenerse: el vehículo cuyo motor se para disminuye de velocidad y termina por
detenerse, pues el roce actúa de freno sobre la velocidad. Pero esta situación es propia
del universo humano. El «movimiento perpetuo» existe en astronomía y también lo
encontramos en las moléculas de un fluido.
En un líquido, las moléculas se desplazan como cangrejos en un cesto. Brown
demostró sus desplazamientos dejando caer en un líquido un fino polvillo que miró al
microscopio: el polvillo parecía animado de un bailoteo desordenado, hoy conocido
en todo el mundo por el nombre de «movimiento browniano».
Pero fue en los gases donde los movimientos moleculares condujeron a los
descubrimientos más sorprendentes.
Estos movimientos ya fueron presentidos por un miembro de la ilustre familia
Bernoulli, una de las más linajudas de Basilea. Daniel Bernoulli, verdadero
«inventor» de la actividad interna de los gases, ya consideraba en 1730 que, teniendo
en cuenta que los gases encerrados en un depósito ejercen presiones permanentes en
las paredes del mismo, hay que suponer que están formados de elementos en perpetua

ebookelo.com - Página 14
agitación. En el siglo XIX, era natural que se imputasen estas presiones a los choques
de las moléculas. Son una corroboración inmediata de la ley de Boyle-Mariotte,
según la cual la presión de un gas se duplica cuando su volumen se reduce a la mitad.
Cada elemento de pared recibe un número doble de choques…
Este número de choques es considerable en todos los casos. Incluso aunque
adoptemos el lenguaje de los electrónicos, que introducirán el picosegundo, o
millonésima de millonésima de segundo, para seguir acontecimientos muy rápidos,
resulta que durante una duración tan breve, cada milímetro cuadrado de pared
expuesto a la atmósfera, recibe el choque de 30 000 millones de moléculas.
Desde el punto de vista físico, la idea de presión reviste un nuevo aspecto. Parecía
dotada de continuidad, pero esto no era más que una ilusión, como lo es la aparente
continuidad de la materia…

Descubrimiento de la temperatura
El bombardeo de las moléculas contra los objetos que se interponen en su camino,
pone de relieve el carácter mecánico de las presiones. La conversión intelectual del
físico continuará con la temperatura, que también se convertirá en un parámetro
mecánico.
La idea de la temperatura era completamente subjetiva en la Antigüedad
(temperatura = clima): o sea, que el hombre captaba por sus sentidos «impresiones»
de calor y frío.
Adquirió derecho de ciudadanía en Física con el instrumento empleado para su
medición: el termómetro. Debido a los estudios que permitió realizar, adquirió una
importancia considerable. Sin embargo, no hizo avanzar ni un ápice a la ciencia
térmica, pues su principio consistía en utilizar la dilatación de los fluidos, o sea,
explotar un efecto de la temperatura. En este caso, el primer termómetro, imaginado
por Galileo, fue un aparato de gas, el antecesor de los modelos perfeccionados que
Regnault creó en el siglo XIX.
Pues los gases aumentan de volumen con la elevación de la temperatura. O si no
se les permite dilatarse, su presión crece. Teniendo en cuenta que el número de
moléculas permanece invariable, hay que sacar la conclusión de que son más
enérgicas, o sea, más rápidas.

ebookelo.com - Página 15
1. Aspecto que ofrecen cien moléculas de un gas
Las máquinas electrónicas pueden simular hoy estados gaseosos. Un modelo fija la situación de cien moléculas en
el dibujo adjunto. Las moléculas se localizan mediante matrículas que permiten seguirlas y las máquinas calculan
su velocidad en cualquier instante.

Al observar el aumento de la presión, será posible saber cómo varían las


velocidades moleculares: cuando la temperatura pasa de 0 a 15°, se calcula que la
energía de las moléculas de oxígeno traduce una elevación de 461 a 474 metros por
segundo de su velocidad media.
Y teniendo en cuenta que durante los encuentros las leyes del choque imponen
una uniformización de las energías, se deducirá que, en una mezcla de muchos gases,
las moléculas más pesadas serán las más lentas.
Por ejemplo, para una misma temperatura, las moléculas de hidrógeno, dieciséis
veces más ligeras que las moléculas de oxígeno, son cuatro veces más rápidas. Este
concepto se generalizó: la temperatura revela la agitación de los componentes en
cualquier cuerpo o colección de partículas.
La temperatura tiene ante todo un sentido estadístico. Por lo que se refiere al aire,
no es preciso creer que todas las moléculas de oxígeno se desplazan a una misma

ebookelo.com - Página 16
velocidad. En un instante determinado, algunas de ellas parecerán lentas y otras serán
rápidas. Y si siguiésemos a una molécula-testigo, veríamos cómo adquiere una
velocidad ora más elevada ora más lenta.
A causa precisamente de su velocidad, las moléculas chocan con frecuencia entre
sí. En el aire ambiente, el «recorrido libre» es solamente de 0,06 micrones[4]. Así, las
colisiones se suceden a un ritmo prodigioso: las moléculas se mueven en todos
sentidos, chocando entre sí desde todos los ángulos, de donde resulta que las
velocidades se componen en realidad de todas las maneras posibles.
Aproximadamente siete mil millones de veces por segundo, cada molécula se ve
desviada, frenada o acelerada, de manera completamente aleatoria.
En realidad, estos choques aseguran una mezcla continua que uniformiza las
energías o al menos confiere a las energías individuales de las moléculas una
«dispersión» gobernada por las leyes de la estadística.
Los fenómenos se desarrollan a una escala que impide toda observación. En su
defecto, las máquinas electrónicas actuales permiten efectuar simulaciones: la figura
1[ver] representa a un grupo de cien moléculas de oxígeno a 15°, cuya velocidad y
posición respectivas han sido indicadas por una calculadora.

2. Clasificación de las velocidades moleculares


Las velocidades de nuestras cien moléculas en un instante determinado (oxígeno a 15°) están clasificadas por
columnas según la cifra de las centenas (m/s): una sola molécula tiene una velocidad inferior a 100 m/s, ocho
tienen velocidades comprendidas entre 100 y 200 m/s; 15, entre 200 y 300; 22, entre 300 y 400; 21, entre 400 y
500; 14, entre 500 y 600; siete, entre 600 y 700; cuatro entre 700 y 800; tres, entre 800 y 900, dos, entre 900 y
1000; una, entre 1000 y 1100; una, entre 1100 y 1200; finalmente, una molécula tiene una velocidad superior a
1200 m/s.

Los valores de estas cien velocidades se han reunido en series que agrupan
respectivamente las velocidades comprendidas entre 0 y 100 m/s, las comprendidas
entre 100 y 200 m/s, etc.
Se observará que este reparto es característico: en torno a la velocidad «más
probable» (fig. 2)[ver] que el cálculo establece en 387 m/s[5], esta distribución obedece

ebookelo.com - Página 17
siempre a una misma ley. Y es en este sentido cuando se puede hablar
verdaderamente de «la» temperatura de un gas.

Los grados K
Esta situación revela el carácter artificial de la tradicional escala térmica. El
astrónomo sueco Anders Celsius pensó en señalar mediante 0 y 100° las temperaturas
respectivas del hielo en fusión y del agua en ebullición. Y en la vida corriente se
adoptó esta escala práctica, llamada de los «grados C» o Centígrados. Era puramente
arbitraria y así que los físicos comprendieron la verdadera naturaleza de la
temperatura, buscaron un grado «absoluto».
Lo encontraron en la escala de lord Kelvin, tomando como cero la temperatura a
la cual las velocidades moleculares serían nulas: con los grados K, la energía de las
moléculas es proporcional a la temperatura…

3. Curvas teóricas de distribución de velocidades


Obtenidas por el cálculo de probabilidades, estas curvas indican la abundancia teórica de moléculas animadas
por una velocidad determinada, según la temperatura y la naturaleza del gas. Para el oxígeno a 15°, el perfil
de la clasificación precedente se sigue con notable fidelidad.

La correspondencia resulta muy sencilla de establecer. Teniendo en cuenta que la

ebookelo.com - Página 18
presión de un gas mantenido bajo un volumen constante aumenta en 1/273 cuando su
temperatura pasa de 0 a 1 °C, hay que concluir que la presión teórica será nula a la
temperatura de −273 °C[6], y por consiguiente, que las moléculas permanecerán
inmóviles. Por lo tanto, los grados Kelvin se obtienen sumando 273° a la escala de
Celsius: una temperatura de 15 °C corresponderá a 288 K.
En la era espacial, los grados K se emplearán corrientemente para medir la
sensibilidad de los radiotelescopios. Si éstos reciben emisiones muy débiles, es
preciso calcular el «ruido» que provoca interferencias. Este ruido procede de fuentes
atmosféricas o cósmicas y también de la agitación térmica de las partículas en los
circuitos del receptor. Por este motivo, hay que medirlo mediante la temperatura
absoluta que asegure semejante agitación. Así, la «temperatura de ruido» es de
2000 K para un receptor ordinario. Desciende a 10 K con un «maser», pues la
temperatura del espacio es de 3 K en el cénit. Temperatura y energía de agitación son
sinónimos, en el lenguaje técnico…

El siglo del átomo


Con la interpretación mecánica de las temperaturas y las presiones, se escribió un
prodigioso capítulo de la historia de la Física, debido, en gran parte, a Maxwell. En el
umbral del siglo XX se logra la síntesis de los resultados y Boltzmann publica en 1902
su «teoría cinética de los gases».
Han transcurrido cerca de tres siglos desde la época heroica de Galileo. Los dos
primeros se invirtieron en una ingrata labor de roturación; el último vio al hombre
interpretar las estructuras de la materia. Pero los investigadores continuaron siendo
unos teóricos cuyas especulaciones no llegaban a oídos de la sociedad. ¿Qué interés
ofrece, pues, el estudio cinético de los gases? Para el filósofo, se halla desprovisto de
toda poesía y el industrial lo considera falto de utilidad, pues no le permite mejorar en
nada el funcionamiento de sus máquinas.
Lo cual equivale a decir que la revelación de una estructura granular en la
materia, la demostración de una agitación natural en el seno de las substancias; en
una palabra, la traducción de los datos sensoriales en realidades físicas, no causó
mella en la gran masa de la humanidad.
Al alborear el siglo XX, las personas corrientes continuaban en los tiempos de la
física de Pascal. Las ciencias del átomo no penetraron en su vida y las moléculas

ebookelo.com - Página 19
hablaban un lenguaje bárbaro a sus oídos.
Bastarán unos cuantos lustros para cambiar radicalmente la situación. El átomo
será descubierto, desintegrado y rebasado.
Se descubre el átomo. En el siglo XIX su anatomía era un enigma, hasta que la
reveló Niels Bohr. El sabio danés vio en el átomo a un sistema solar en miniatura.
Alrededor de un núcleo giran electrones, partículas ligeras cuyo número caracteriza al
elemento: 1 = hidrógeno, 2 = helio, 3 = litio… El núcleo está electrizado
positivamente, mientras que los electrones son negativos. O, al menos, los físicos
adoptan este lenguaje completamente convencional, del mismo modo como antaño
hablaban de una electricidad «vítrea», opuesta a una electricidad «resinosa».
Así el hombre comprende que la electricidad existe en el seno mismo de la
materia, lo que le permite dar un paso más hacia el mundo de lo infinitamente
pequeño.
En la época de Avogadro, el vocablo átomo representaba un elemento
constituyente cuya disección parecía imposible (átomo = no divisible). Pero he aquí
que, de pronto, nos aparece como un mundo en el que se pone de manifiesto una
actividad prodigiosa: los electrones se reparten en cierto número de capas, cuya
fisonomía rige las «relaciones» del átomo con el mundo exterior.
La molécula cesa de ser entonces la cosilla inerte del siglo XIX para convertirse en
una maquinaria cuyas características se van perfilando poco a poco. Y de su
explotación nacen mil aplicaciones, desde la industria de los colorantes hasta el reloj
molecular. Al saber cómo se unen los átomos, el metalúrgico puede mejorar las
características de sus materiales y el químico crea millares de nuevos compuestos.
El átomo ha sido rebasado. El hombre lo rompe para poner sus fragmentos al
servicio de la técnica.
Sus planetas, los electrones, se separan con facilidad: a veces basta un simple
frotamiento. En la Antigüedad, Tales de Mileto ignoraba la existencia del electrón,
pero comprobó que el ámbar frotado se electriza y atrae objetos ligeros. Y esto le
llevó a bautizar el fenómeno (electrón = ámbar).
En la era electrotécnica, el hombre descubre que en un metal los átomos pierden
electrones de manera natural, los cuales vagan entonces por el espacio, constituyendo
un verdadero gas. Su domesticación sirve para originar corrientes eléctricas: la
dispersión de 6 242 000 billones de electrones en un segundo crea la corriente
llamada amperio y esta cifra nos aparece como una prueba más del abismo que separa
al hombre del mundo atómico. Incluso las más débiles corrientes ponen en juego
cantidades inmensas de electrones.
Por lo tanto, esta partícula dejó de ser el mito que permitió a un novelista decir
con ironía que «no veo por qué los hombres que creen en el electrón tienen que
considerarse menos ingenuos que los que creen en los ángeles».
El electrón, efectivamente, se puede «liberar» en un tubo de radio. Emitido por un
cátodo incandescente, resulta atraído por una placa, y una rejilla regula su viaje. El

ebookelo.com - Página 20
electrón permite crear igualmente la televisión, de cuya explotación sistemática no
tardará en nacer la sorprendente industria electrónica, con la que la técnica conocerá
una nueva era, explotando los elementos que constituyen la materia, sin llegar al
átomo.
Y este movimiento tiene por réplica un asalto al núcleo, cuya domesticación
origina la industria nuclear.
No han sido estériles, pues, los siglos de oscuro trabajo de los físicos. En esta
época nace una nueva mentalidad. En 1910 aún se desconocía la estructura del átomo.
Cincuenta años después, en Kansas City, un congreso dedicado a la enseñanza
propone que todos los conocimientos físicos se enseñen a partir del átomo, cuya
estructura tendría que explicarse en el parvulario, según recomiendan numerosos
congresistas. ¿No resulta todo esto muy lógico, teniendo en cuenta que se expone la
anatomía de las substancias mediante una jerarquía de complicación creciente?
En todo el mundo se consagran gigantescos esfuerzos intelectuales al átomo, y del
trabajo de artesano de los precursores se pasa a medios de proporciones
verdaderamente industriales.

Fuera del marco terrestre


Así las cosas, va a producirse la mayor sorpresa de la era científica. El hombre
descubre que le basta con abandonar su planeta natal, para encontrarse hecho este
trabajo de paciente descomposición de la materia.
A este respecto, resulta muy instructivo atravesar la atmósfera. Cuando la altitud
aumenta, la densidad del aire disminuye según una ley natural que Laplace formuló
ya en 1800, demostrando que implicaba una reducción de la mitad para cada
elevación de 5 km; es decir, que si tomamos por unidad la presión que reina en el
nivel del mar —que el físico llama la «atmósfera»—, la presión disminuirá a 1/2
atmósfera a 5 km, siendo únicamente de 1/4 a 10 km y de 1/8 a 15 km.
Pero si esta ley se verifica rigurosamente hasta 100 km, ya no sucede así más
arriba. Al propio tiempo que la composición de la atmósfera cambia profundamente,
se instaura un nuevo régimen: la presión disminuye con mucha lentitud, a partir de la
altitud citada.
La explicación es muy sencilla.
Laplace efectuó un razonamiento de matemático, considerando a la atmósfera
formada por una superposición de capas que se apoyaban unas sobre otras. A baja

ebookelo.com - Página 21
altitud, esta hipótesis se cumple y los contactos están asegurados por los choques de
moléculas. En cambio, en la alta atmósfera, muy poco densa, los choques se hacen
rarísimos y no se puede contar con el apoyo de las capas inferiores que, al no recibir
presión por arriba, se extienden hasta alturas considerables. ¡Allí ni siquiera se puede
hablar de presión!
Las poblaciones de estas altas capas atmosféricas parecen importantes en valores
absolutos: representan un «vacío» mucho más total que el que se consigue en el
laboratorio.
El lector conoce sin duda la anécdota de la joven princesa que, al tener que tomar
por tema de una redacción la vida de una familia pobre, comenzó su relato en los
siguientes términos: «Era una familia paupérrima: el padre y la madre eran pobres; el
ayuda de cámara y el ama de llaves eran pobres…».
El razonamiento que se hacía el físico era parecido, al suponer la existencia de
una presión muy baja en la alta atmósfera. La verdad es que allí la presión no existe
o, más exactamente, la idea de presión no tiene sentido. La única posición aceptable
consiste en hacer un censo de la «población» que ocupa las altas regiones de la
atmósfera. Pero tranquilicémonos: continúa siendo impresionante. A una altitud de
1000 km, se cuentan aún millares de componentes por cm3, pero valen mucho más
por su existencia que por sus rarísimos choques.
Y en tales condiciones, la noción misma de temperatura adquiere otro aspecto. En
la baja atmósfera, las energías de las moléculas se distribuyen en torno a un valor
medio con un rigor completamente matemático. Este valor es característico de la
temperatura. A causa de sus múltiples choques, las moléculas tienen una «psicología
de masas»: se manifiestan por medio de la sociedad que representan, pues la menor
aportación de energía se distribuye inmediatamente entre la colectividad. Pero esta
condición cesa de cumplirse a partir del instante en que los choques son poco
frecuentes: la mezcla vigorosa que asegura una «homogeneización» de las energías
moleculares ya no existe.
La verdad es que a una gran altura, los elementos constituyentes de la atmósfera
adquieren su individualidad y las leyes de nuestros gases ya no pueden aplicárseles a
ciegas, pues la dispersión de las velocidades puede extenderse sobre gamas
considerables: partículas a 100 000° coexisten con moléculas a 0°.
No podemos hablar ya de temperaturas; es necesario tener en cuenta la energía de
cada componente. Para ello, el físico se vale del lenguaje de los electronvoltios[7],
para reservar el término temperatura a los medios en que las velocidades son
homogéneas, a causa de la mezcla de los componentes.
Sin embargo, alrededor de la Tierra las velocidades tienen un carácter
heterogéneo muy grande, pues la alta atmósfera está expuesta a múltiples acciones
cósmicas…
Con independencia de los millares de meteoritos que las bombardean diariamente,
las capas elevadas de la atmósfera están excitadas por la radiación solar y por los

ebookelo.com - Página 22
chorros de materia emitidos por el astro central. Reciben además radiaciones y
proyectiles de todas clases.
Aunque parezca paradójico, la materia es tanto más variada cuanto menos densa
es. En la baja atmósfera, reina la disciplina de hierro de una interdependencia
continua de las moléculas. En las alturas reina la bohemia. Mientras que el estado de
la baja atmósfera se describe mediante temperaturas y presiones medidas con
instrumentos sencillos, en la alta atmósfera hacen falta múltiples añagazas y
contadores para calcular las energías e incluso para identificar sencillamente a los
diversos componentes.

El gran carrusel
Esta atmósfera, en efecto, pronto deja de estar poblada por moléculas apacibles.
En el aire ambiente, cada molécula de oxígeno está compuesta de dos átomos.
Pero a una gran altitud, las moléculas de oxígeno están disociadas y los átomos libres
constituyen un gas muy activo: el oxígeno atómico. El nitrógeno corre la misma
suerte.
La excitación de la atmósfera no se limita a disociar moléculas. Ataca a los
propios átomos, a los que arranca uno o varios electrones. El átomo se convierte
entonces en un ion. Finalmente, los constituyentes de la alta atmósfera ya no son los
del aire ambiente: se descubre en ella un magma complejo, preludio del espacio
interplanetario, en el que, junto a los átomos y las moléculas, se desplazan electrones
o núcleos atómicos.
Ya no es un gas, pues sus elementos constituyentes pasan prácticamente
inadvertidos, a causa de la débil densidad del medio, que ni siquiera es ya un medio
neutro. Alma de la materia terrestre, el átomo representa un edificio en el que la carga
negativa de los electrones neutraliza la carga positiva del núcleo. Así, la electricidad
de los componentes no se manifiesta exteriormente, por lo que el físico del siglo XIX
pudo ver en las moléculas a individuos indiferentes a los campos.
Pero ya no es esto lo que sucede en la alta atmósfera, donde los iones son
sensibles a las acciones eléctricas y están canalizados por el campo magnético de la
Tierra. Esto les permite describir trayectorias cerradas que constituyen «bandas de
radiaciones».
Nacen nuevas ciencias: al comprender que los elementos componentes del
espacio tienen un comportamiento distinto al de los tradicionales gases moleculares,

ebookelo.com - Página 23
los físicos sientan las bases de una «electrodinámica cósmica». Basta con franquear
200 kilómetros para entrar en un dominio donde, de súbdito, el átomo pasa a ser rey.
Éste es el verdadero Nuevo Mundo que descubre el hombre a mediados del
siglo XX. El gran salto se realizó al franquear la atmósfera: más allá de ella la
situación ya no cambia durante millones de kilómetros.
El medio atmosférico adquiere un nuevo rostro: se convierte para el hombre en
una verdadera zona franca entre su materia y el inmenso cosmos, frontera en el
espacio y el tiempo simultáneamente.
Bajo el manto de la atmósfera, el mundo terrestre ofrece a la materia un medio
excepcionalmente fecundo, en el que ésta adquiere sorprendentes especializaciones.
Puestos en esta incubadora, los átomos se prestan a numerosas combinaciones
químicas, que se desarrollaron singularmente favorecidas por este marco. Así la
materia conoció una evolución «refinada».
Más allá de la atmósfera, en cambio, se extiende el vasto cosmos, cuya evolución
está muy atrasada. Y al franquear la atmósfera, nos acercamos al Universo primitivo.
Entonces descubrimos su actividad primaria: el cosmos fabricó la materia que la
Tierra utiliza.

ebookelo.com - Página 24
2

El punto de arranque
Así se tiende el puente entre la Tierra y el cosmos en la era espacial y el hombre
adquiere conciencia de la elevada «calidad» de su materia, constituida por sutilísimas
asociaciones atómicas que fuera de los planetas son excepcionales. Los propios
átomos completos son raros en el Universo y un hecho se impone a nuestra atención:
los más abundantes son los más rudimentarios. En el cosmos domina el hidrógeno.
Esta preponderancia cósmica del hidrógeno es el gran descubrimiento del
siglo XX.
Antaño, en efecto, el hombre clasificó a su planeta en los elementos que lo
formaban, o lo hizo al menos en la fracción que le era accesible, y consideró que el
oxígeno era el elemento más abundante en la corteza terrestre. Por otra parte, le
pareció lógico calcular la abundancia relativa de los elementos teniendo en
consideración su peso, lo que resulta singularmente desfavorable para el hidrógeno.
Se redactaron entonces listas de abundancia, que variaban ligeramente de un autor
a otro, pero que revelaban una jerarquía puesta de manifiesto por la tabla I, en la que
el hidrógeno ocupa la novena posición.
Fuera del mundo de los químicos, este elemento apenas llamó la atención de
nadie, pues durante mucho tiempo no sirvió para ningún fin práctico. Encontró a lo
sumo una aplicación en aeronáutica, donde su empleo tuvo a veces consecuencias
trágicas; solamente los cohetes provocarán una verdadera industria del hidrógeno.
Tabla I
Oxígeno 46,6%
Silicio 27,7%
Aluminio 8,1%
Hierro 5,0%
Calcio 3,6%
Sodio 2,8%
Potasio 2,6%
Magnesio 2,1%
Hidrógeno 1,0%
Otros elementos 0,5%
Composición de la masa terrestre
Por lo tanto, el hidrógeno se consideró durante mucho tiempo como un elemento
poco importante, hasta que el hombre comprendió que su planeta natal representaba
una muestra muy deficiente de la constitución del cosmos. La Tierra, efectivamente,
está compuesta ante todo de oxígeno y metales, y, de una manera general, los planetas
nos aparecen como relicarios de elementos pesados. Pero su masa, en realidad, es

ebookelo.com - Página 25
ínfima en el inmenso cosmos, a cuya escala se llega a conclusiones diametralmente
opuestas: todos los elementos pesados solamente forman una pequeñísima fracción
de su materia, pues los átomos de hidrógeno únicamente ya son mucho más
numerosos que todos los demás átomos reunidos.
Las pruebas de este predominio del hidrógeno en todo el Universo no harán más
que acumularse.

El reino del hidrógeno


En primer lugar, si nuestra mirada se dirige hacia la materia concentrada en las
estrellas, su composición pronto disipa las últimas dudas.
A mediados del siglo XIX, Kirchhoff y Bunsen analizaron su radiación, revelando
que las estrellas poseían los mismos elementos que la Tierra. O sea que el Universo
se componía de materiales conocidos.
Al estudiar la luz del Sol y las estrellas, el físico identifica así a numerosos
elementos. Mas no tarda en descubrir que uno de ellos se queda con la mayor parte y
que éste es precisamente el hidrógeno. Los estudios relativos a la composición de las
estrellas progresan y revelan que en promedio, el 90% de su substancia es hidrógeno,
proporción que incluso es mucho más elevada en las estrellas llamadas jóvenes.
El físico consigue resultados no menos instructivos al estudiar los chorros
cósmicos que bombardean la alta atmósfera, o la materia, que los ingenios espaciales
encuentran en el medio que antes se conocía por el nombre de vacío interplanetario.
Encuentran especialmente protones, es decir, núcleos de hidrógeno. En 1961, y a más
de 100 000 km de la Tierra, el Explorer X señala la presencia de 6 a 20 protones por
cm3 y la prospección se amplía a millones de kilómetros con las sondas planetarias.
Finalmente, la radioastronomía revela la presencia de inmensas nubes de
hidrógeno neutro en los espacios interplanetarios. Esto constituye un hecho notable,
pues antes el astrónomo solamente distinguía los objetos luminosos. Las nubes del
espacio solamente se descubrían en casos excepcionales, cuando reflejaban o
absorbían la luz. La radioastronomía detectará directamente las nubes neutras, pues
un conjunto de átomos de hidrógeno emite ondas hertzianas.
Van de Hulst ya lo previó en 1945. En esta época, el joven físico holandés
observó que, pese a su aparente simplicidad, el átomo de hidrógeno posee una
arquitectura sutil: el electrón y el núcleo giran sobre sí mismos, de tal manera, que su
rotación puede no efectuarse en el mismo sentido. Esta diferencia corresponde a dos

ebookelo.com - Página 26
«estados» posibles del átomo en los que, a consecuencia de los acoplamientos, la
energía no es exactamente la misma; así, se emite una radiación cuando el electrón
invierte su sentido de rotación y el cálculo nos enseña que la misma corresponde a la
longitud de onda de 21 cm.
Pero ¿por qué se invierte la rotación del electrón? Aquí reside el mayor interés del
trabajo realizado por Van de Hulst, pues el físico holandés demostró que en el
espacio, esta inversión se efectúa espontáneamente. Es un fenómeno raro, que sucede
en promedio a un átomo de hidrógeno cada once millones de años, pero que basta
para que una nube formada por trillones de átomos se convierta estadísticamente en
una fuente permanente de emisión…
Para resumir, el físico holandés llegó a las conclusiones siguientes: basta escuchar
el Universo con receptores de radio sobre la longitud de 21 cm para «oír» las nubes
de hidrógeno o, dicho de otro modo, para detectar las formaciones que el ojo humano
no puede percibir.
La experiencia acude puntualmente a su cita con la teoría. El 25 de marzo de
1951, se captan en Harvard las emisiones del hidrógeno interestelar; el mismo día en
que, por una sorprendente coincidencia, Van de Hulst fue a pronunciar una
conferencia en aquella docta universidad. Y al poco tiempo, los aparatos puestos a la
escucha del cosmos sobre 21 cm descubrirían inmensas nubes de hidrógeno, en
regiones donde antes no se creía que hubiese algo.
Entonces el hombre comprende que su Universo está formado esencialmente de
hidrógeno.
Y, hecho característico, los nuevos manuales de astronomía principian por un
detallado estudio sobre el átomo de esta substancia fundamental.

El tronco común
No es sin duda por casualidad que el elemento más sencillo represente la materia
primordial del Universo; así, el hidrógeno se presenta como el intermediario natural
entre el mundo de los átomos y el de las partículas llamadas elementales.
A partir de 1933, el hombre sabe que todos los elementos están formados a base
de tres tipos de partículas. En los átomos, los electrones giran alrededor del núcleo,
compuesto de cierto número de protones y neutrones.
El protón (protón = primero) es la partícula pesada fundamental. Posee una carga
positiva y su masa equivale a 1836,10 electrones. El protón ya fue entrevisto en 1886

ebookelo.com - Página 27
por Goldstein en los tubos de descargas, y su existencia fue demostrada por
Thomson, que en 1916 descompuso el hidrógeno en electrones y protones. Pero el
protón no se puso a la cabeza de un gran movimiento técnico como el electrón. Desde
luego, es objeto de explotación, pero sus aplicaciones son limitadas. Solamente unos
cuantos especialistas conocen el microscopio protónico o el magnetómetro de
protones…
El neutrón, por último, está desprovisto de carga, como su nombre indica. Un
poco más pesado que el protón —su masa equivale a 1836,63 electrones— pasa en
1945 al primer plano con la «reacción en cadena» que efectúa en el uranio. En estado
libre, sin embargo, no es una partícula estable. Su «vida» sólo tiene una duración de
unos diez minutos; después de este plazo se descompone engendrando un protón y un
electrón. Y por este motivo no se encuentran nubes de neutrones en los espacios
interestelares.
Electrón, protón y neutrón: el físico ha descubierto la pasmosa trilogía de la
materia, cuya «fabricación» entrevé a partir de tres partículas fundamentales, según
un mecanismo que será familiar para los niños de la Edad Atómica. Descubren que el
numero de protones constituye el «número atómico» del elemento, que se emplea
conjuntamente con el nombre del mismo. El número total de protones y neutrones
que componen un núcleo es, por lo demás, su «número de masa» y se adquiere la
costumbre de designar a los diversos tipos de núcleo seguidos por el número de masa:
así, cuando se habla del uranio 238, hay que entender que el núcleo posee 238
partículas, 92 de las cuales son protones (puesto que el uranio es el elemento número
92) y por lo tanto, 146 neutrones.
Todos los elementos tienen núcleos compuestos, excepto aquéllos cuyo número
de masa es 1. Y este elemento es precisamente el hidrógeno, construido no sobre un
núcleo verdadero, sino sobre una partícula. Pero téngase en cuenta que, en la génesis
de los elementos, el hecho de que una simple partícula pueda representar el papel de
núcleo es significativo, pues deja entrever el proceso que el médico inglés Prout ya
imaginó en 1815, al emitir la hipótesis de que todos los elementos eran
«apilamientos» de hidrógeno. El hidrógeno, elemento número 1, es, en efecto, el
primer peldaño de la «materia organizada».
Se trata de una organización sencillísima, pues un átomo de hidrógeno se reduce a
una partícula que gira alrededor de otra. Cuando está ionizado —o sea, cuando una
excitación cualquiera le ha arrancado su electrón— deja de existir, liberando
partículas elementales desconocidas. Así, la materia denominada hidrógeno
plasmificado no es más que una colección caótica de protones y electrones errantes.
En realidad, basta con calentar el hidrógeno molecular en las condiciones
terrestres, para convertirlo en atómico y una nueva elevación de temperatura lo
plasmifica. Inversamente, las bajas temperaturas permiten que los protones recojan a
los electrones, y así nacen átomos de hidrógeno a partir del plasma…
Mediante esta transformación, el hidrógeno aparece como una verdadera placa

ebookelo.com - Página 28
giratoria en la evolución de la materia. Podemos medir ahora el camino recorrido por
el hombre. En la Antigüedad, cuando se basaba en los datos que le facilitaban los
sentidos, tuvo gran dificultad para llegar hasta el átomo. Pero después, para
comprender la prodigiosa aventura del cosmos, tuvo que ver en el átomo una gran
encrucijada, pues la materia no empezó con él. Para la materia cósmica, el átomo
representa una «opción» después de un tronco común particular. Y el hecho de
comprobar que el hidrógeno continúa dominando en el Universo equivale a decir que
hoy la materia aún continúa, principalmente en el estado de partículas: una pequeña
fracción ha tomado el camino que desde las partículas elementales conduce hasta los
elementos.

¿Por qué esta trilogía?


Así pues, ¿qué son estas partículas?
Existen en el Universo en cantidades fabulosas. Pero ¿no resultan extrañas sus
masas y desconcertantes sus características? ¿Por qué el electrón, partícula «ligera»,
es negativo o, mejor dicho, por qué en nuestra materia dicha partícula posee una
carga negativa? En el año 1932, dirigiendo rayos de gran energía contra una placa de
plomo, Anderson consiguió crear junto a un electrón negativo una partícula
semejante, pero de signo contrario; ahora bien, este electrón positivo no existe en las
arquitecturas naturales de la materia, que solamente han retenido al electrón negativo
como compañero del protón y el neutrón.
¿A qué se debe semejante preferencia?
Y estas partículas, consideradas elementales, ¿son verdaderamente fundamentales
las tres? ¿No habría que admitir, por el contrario, que solamente lo son una o dos de
ellas?
Sentimos tanto o más la tentación de creerlo, cuanto que se ha podido demostrar
la conversión protón-neutrón. En los núcleos atómicos los neutrones pueden
constituir componentes permanentes, a pesar de su vida bastante corta, porque, en
realidad, los «cambios de identidad» entre protones y neutrones parecen ser
continuos. Por lo demás, un electrón y un protón pueden dar origen a un neutrón, e
invirtiendo la oración por pasiva, un protón se convierte a veces en neutrón
expulsando a un electrón positivo.
Así, el físico tiene que reconocer que protones y neutrones constituyen dos
variedades de un mismo ser que recibe el nombre de nucleón y se presenta como la

ebookelo.com - Página 29
partícula pesada fundamental, adquiriendo, según las circunstancias, las
características de un protón o un neutrón.
Sin embargo, en la etapa del Universo primitivo, las partículas aún no están
asociadas y, por lo tanto, todos los nucleones son protones, pues el neutrón no puede
subsistir en estado libre. Y aquí surge la imagen de una nube primitiva, que consistía
en una serie de electrones y protones. Pero éstos ¿de dónde procedían?
El hombre se plantea esta cuestión, pero, al llegar aquí, la ciencia hace una pausa.

La gran pausa
La verdad es que transcurren varios decenios después del descubrimiento de las tres
partículas fundamentales. La técnica se desarrolla a pasos agigantados, mientras que
en el planeta surge una verdadera industria en torno a la investigación científica. Se
crean medios enormes: los aceleradores animan a las partículas de energías
considerables para arrancarles el secreto de sus caprichosos movimientos; en una
palabra, para descubrir el secreto de la materia a través de las extraordinarias
concepciones masa-energía cuya ecuación general ya dio Einstein en 1905.
Pero el físico está aterrado: la teoría de las partículas no progresa. En vez de
aclararse, incluso tendrá que confesar que se complica, pues una realidad se
impondrá: pronto parecerá una caricatura tratar de imaginar toda la historia de la
materia a base de tres partículas.
Se registra, en efecto, la existencia de otras partículas elementales muy efímeras,
los mesones, cuyas masas están a mitad de camino entre el electrón y el protón (meso
= intermedio). Su lista aumenta con rapidez. Después se descubre la existencia de
partículas neutras, de masa casi nula: los neutrinos. En cambio, con los hiperones, el
físico descubre unas partículas más pesadas que el neutrón. Por último aprenderá a
asociar una «antipartícula» a cada partícula, al contacto de la cual ésta se aniquila…
Mientras los físicos se encuentran ante una selva virgen de partículas elementales,
el enigma continúa sin resolver: ¿Por qué solamente los tres actores llamados
neutrón, protón y electrón fueron llamados a constituir toda nuestra materia, entre la
multitud de partículas citadas?
El problema se complica aún con otro enigma, que se plantea asimismo en el
terreno astronómico.

ebookelo.com - Página 30
La medición del espacio
Otra preocupación se asocia a la cuestión del origen de las partículas: admitiendo que
las partículas forman el Universo, se trata de saber hasta dónde se extiende este
Universo y desde cuándo existe. Esto da origen a la magnífica ofensiva del hombre
para conocer el cosmos en que vive.
Y este movimiento presenta un notable paralelismo con el descubrimiento de la
materia.
Los griegos pudieron determinar el radio de la Tierra según el método descubierto
por Eratóstenes y calcular también la distancia a que se encontraba la Luna.
Pero a pesar de la idea ingeniosa de Aristarco, que propuso efectuar una
triangulación cuando la Luna estuviese en cuarto creciente, no fue posible calcular de
ninguna manera la distancia de la Tierra al Sol. La indecisión de las medidas
efectuadas hacía atribuir al Sol una distancia veinte veces superior a la de la Luna, o
sea, apenas 8 000 000 de km. Y esta situación impidió que se tuviese un verdadero
conocimiento del sistema solar. La idea de Heráclito, que creía en la rotación de la
Tierra, no se tomó en consideración y los sabios se atuvieron a la concepción
geocéntrica de Tolomeo, que estaba aún en boga cuando Galileo descubrió el
firmamento en 1610.
Hubo que esperar a entonces para que triunfasen las ideas de Copérnico: como el
astrónomo polaco ya había afirmado en 1543, hubo que admitir que la Tierra gira
alrededor del Sol, como los demás planetas. Pero reina una «incertidumbre» de varios
millones de kilómetros sobre la distancia Tierra-Sol. Esta medida básica en el sistema
solar no es fácil de conocer, pues la mecánica celeste sólo permite establecer
relaciones.
Sin embargo, un fenómeno notable permitió efectuar mediciones absolutas. Se
trata del paso de Venus por delante del Sol: en 1678, el astrónomo inglés Halley
demuestra que, teniendo en cuenta el tiempo de la ocultación, es posible deducir las
distancias Tierra-Venus y Venus-Sol.
Por desgracia, estos pasos obedecen a una curiosa ley. Tienen lugar por
«dobletes» de ocho años, separados por un intervalo de más de ciento cinco años.
Así pues, en el siglo XVIII Venus efectuó dos pasos, en 1761 y 1769,
respectivamente, que fueron esperados con la mayor paciencia. Halley, que vino al
mundo en 1656, sabía que no podría observarlos, pero preparó el terreno para sus
sucesores. Estos dos pasos de Venus ante el Sol fueron estudiados detenidamente, en
especial el segundo, que fue observado por 34 grupos de astrónomos distribuidos por
toda la superficie del globo.
La suerte que corrieron estos grupos fue muy diversa. Son legendarias las
desdichas del infortunado Legentil, que habiendo escogido Pondichery para observar
el paso de 1761, llegó allí con retraso a causa de la guerra con los ingleses,

ebookelo.com - Página 31
decidiendo quedarse en aquellos parajes y ocupar los ocho años de espera estudiando
el sistema astronómico de los brahamanes, hasta el paso del 3 de junio de 1769. Para
colmo de desdichas, el día tan esperado hubo una tempestad, que le impidió efectuar
observaciones. De regreso a Francia, después de escapar con vida a dos naufragios, el
infortunado astrónomo descubrió que no solamente su nombre había caído en el
olvido después de tan larga ausencia, sino que su lugar estaba ocupado por otro, tanto
en la Academia como en su propia familia, encontrándose incluso con la
imposibilidad de heredar de sí mismo.
En el océano Pacífico, en cambio, la misión británica fue muy afortunada. La
Real Academia Británica envió al Endeavor, bajo el mando de Cook, a Tahití,
entonces llamada isla del Rey Jorge. Con los astrónomos se embarcaron naturalistas y
entre todos crearon en la punta más extrema de la isla un «Fuerte Venus», donde
compartieron su tiempo entre los encantos de la paradisíaca isla y una labor científica
efectuada en excelentes condiciones.

La unidad astronómica
Finalmente, después de confrontar las observaciones hechas en todo el mundo aquel
memorable 3 de junio de 1769, se establece la distancia Tierra-Sol en 147 000 000 de
km. Teniendo en cuenta lo que hoy sabemos, se observará que esta medida tenía una
notable precisión, pues el resultado nos hacía pasar de una ignorancia prácticamente
completa a un orden de magnitud excelente (el margen de error era inferior a 2%).
Desde luego, esta primera estimación se fue mejorando poco a poco: el paso de Venus
de 1874 dio la cifra de 148 000 000 de km y después se utilizaron otros métodos.
Pero únicamente fue un perfeccionamiento: el hecho memorable se efectuó en 1769,
cuando fue determinada científicamente por primera vez la unidad astronómica, o
nombre aplicado a la distancia media Tierra-Sol. El Instituto de Francia conmemoró
este descubrimiento acuñando una medalla en la que se ve a la diosa Venus de la
mitología pasando frente al carro de Apolo, con la leyenda: «Quo distent spatio
sidera juncia docent». (Ambos nos enseñan conjuntamente lo que distan los astros
del espacio).
Esta unidad astronómica servirá de base para medir, el cosmos.
A principios del siglo XIX se hace el catastro del sistema solar. Más allá de éste,
reina la más completa ignorancia. Ya ha pasado el tiempo en que se veía en las
estrellas a simples luminares puestos a muy poca distancia de la Tierra. A fines del

ebookelo.com - Página 32
siglo XVI, el infortunado Giordano Bruno ya tuvo la intuición de que las estrellas eran
soles lejanísimos en el Universo. Pero fue imposible calcular sus distancias.

La distancia de las estrellas


En 1838, Bessel midió en Koenigsberg la primera distancia estelar. El sabio extrapoló
a escala cósmica una observación que nos es familiar cuando nos desplazamos a
través de un paisaje: los objetos más próximos parecen moverse sobre el fondo de la
escena.
Así fue como Bessel, después de poner la mira en la estrella 61 del Cisne, señaló
sus distintas posiciones en la bóveda celeste con seis meses de intervalo y procedió a
una triangulación, tomando como base el diámetro de la órbita terrestre. Finalmente,
el astrónomo llegó a la conclusión de que un observador situado cerca de la estrella
vería el radio de la órbita terrestre desde un ángulo igual a 0,31", al que denominó su
«paralaje». Conociendo la distancia Tierra-Sol, podía deducirse la distancia a que se
encontraba el astro. Con los instrumentos de que disponía, Bessel no pudo efectuar
una medición exacta (hoy atribuimos a la paralaje de 61 Cygni un valor de 0,294").
Pero su método era el correcto.
Al año siguiente, y mientras estudiaba el firmamento austral desde el observatorio
de El Cabo, Henderson aplica este método a la estrella Alfa del Centauro. En 1840,
Struve mide la distancia de la rutilante Vega desde Pulkovo. Y los resultados afluyen
por docenas a finales del siglo XIX, en espera de que se recurra sistemáticamente a las
técnicas fotográficas merced a las cuales los catálogos estelares del siglo XX
consignarán primero centenares y después millares de distancias estelares.
La enormidad de estas distancias no podía por menos de conducir a los
astrónomos a medirlas con unidades que guardasen relación con ellas. Así, adoptan el
año luz y el parsec. Como indica su nombre, el año luz es la distancia recorrida por la
luz en un año[8]. Y parsec es la abreviación de «paralaje segundo»; o sea, la distancia
a que tendríamos que alejarnos para ver el radio de la órbita terrestre desde un ángulo
de 1". Esta unidad fue sugerida a los matemáticos por la técnica de la medición; el
parsec equivale a 3,26 años luz.

ebookelo.com - Página 33
La ilusión de las constelaciones
Son raras las estrellas cuya distancia sea inferior a 10 años luz: su número es apenas
de una docena. Y una sola es visible a simple vista en el hemisferio Norte. Se trata de
Sirio, la estrella más brillante del firmamento (seirios = brillante), una de las primeras
conocidas en la historia de la civilización. En el Egipto antiguo, la aparición de Sirio
anunciaba la crecida del Nilo. Por este motivo, se consideraba a esta estrella como un
perro guardián cuya misión consistía en avisar. Se festejaba su aparición en un
período del año que ha conservado el nombre de canícula. Y este nombre de «Can»
pasó a la constelación cuyo astro más rutilante es Sirio (alpha Canis).
Estrella de los filósofos, que imaginaron a nuestro mundo visto por los habitantes
de su sistema, Sirio, que se encuentra a 8,7 años luz, fue tradicionalmente
considerada como la gran estrella vecina del Sol. Las estrellas más próximas,
efectivamente, son astros muy poco luminosos, con excepción de la magnífica Alfa
del Centauro, que se encuentra únicamente a 4,3 años luz y cuyas características son
mucho más parecidas a las del Sol. Pero la constelación del Centauro sólo es visible
desde el hemisferio austral; hay que descender hasta la latitud de Angola para
distinguirla.
Entre las mayores luminarias de nuestro cielo, el astrónomo sitúa a Fomalhaut a
22 años luz, Vega a 27, Arturo a 35 y Régulo a 75. Las dos hermosas estrellas de
Orión, Betelgeuse y Rigel, están situadas respectivamente a 500 y 800 años luz.
Estas medidas sistemáticas revelan el carácter a menudo aleatorio de las
constelaciones o agrupamientos de estrellas, en los que antaño el hombre quiso ver
formas de objetos y seres que le eran familiares. Los astros que aparecían en la
bóveda celeste se consideraban situados todos a la misma distancia. Pero la medida
de su respectivo alejamiento introduce la tercera dimensión en este cuadro y destruye
las leyendas.
Leo especialmente se convierte en un puro efecto de perspectiva: la estrella
Epsilon de esta constelación está a más de 1600 años luz, mientras que Delta, la
estrella del lomo, está a 85. Finalmente Denébola, de donde parte el rabo del felino,
está solamente a 43 años luz. Por lo tanto, no existe ningún vínculo verdadero entre
estos astros. Es más: la estrella Vindematrix, catalogada en la constelación de Virgo,
está más cerca de la estrella Delta que Denébola.
Además de una proximidad casi siempre ilusoria, hacía falta también mucha
imaginación para ver verdaderamente a un león en una configuración caprichosa de
estrellas. Mas lo que resulta verdaderamente erróneo es que hoy aún se continúe
hablando de personas «nacidas bajo el signo de Leo», atribuyendo con toda seriedad
a este animal los rasgos de su carácter.

ebookelo.com - Página 34
4. El cielo en relieve
En este dibujo de las constelaciones circumpolares se indican las distancias estelares más conocidas. La
flecha señala la nebulosa de Andrómeda. Comparando su distancia con la que se encuentra el Japón de un
habitante de París, estas estrellas representarían diversos puntos de la capital de Francia…

Las constelaciones, en realidad, cambian de sentido, para convertirse en puntos de


referencia y dividir a la esfera celeste en 88 departamentos, correspondientes a otras
tantas «direcciones» del cosmos observado desde la Tierra.

La luminosidad de las estrellas


Tomando a la órbita terrestre por base, las medidas no pueden alcanzar más que hasta
algunos centenares de años luz. Para ir más lejos, el astrónomo imagina otros medios

ebookelo.com - Página 35
y estudia el brillo de las estrellas.
La observación visual distingue desde antiguo seis categorías entre las estrellas
descubiertas a simple vista. Las más brillantes se llaman «de primera magnitud». En
la época de la fotometría, los astrónomos efectúan mediciones físicas en vez de una
simple apreciación, conviniendo en que el brillo es 2,5 veces más débil a cada nueva
categoría que se aumenta. Así han creado una escala de magnitudes que admite cifras
decimales y por otra parte cifras negativas para las estrellas muy brillantes.
Pero el brillo de una estrella tanto depende de su verdadera luminosidad como de
su distancia. Era imposible desglosar estos dos factores cuando no podían calcularse
las distancias. La medición de las distancias sí lo permite, proporcionando así una
información de importancia primordial, al darnos a conocer la luminosidad intrínseca
de las diversas estrellas.
La luminosidad, naturalmente, se compara con la del Sol, que nos hemos
acostumbrado a tomar por unidad de luminosidad estelar[9]. Así, se calcula en 23 la
luminosidad de Sirio y en 110 la de Arturo. Muy cerca de Alfa del Centauro, Próxima
(que, como su nombre indica, es la estrella más próxima conocida) tiene una
luminosidad de 0,000 07.
O bien, los astrónomos adoptan el lenguaje de las «magnitudes absolutas»,
designando por este nombre a la magnitud que tendrían las estrellas si todas se
observasen desde una distancia de 10 parsecs.
Nuestro Sol aparecería entonces como una pequeña estrella cuya magnitud sería
de 4,7 (estrella llamada de quinta magnitud). Ésta es, pues, su magnitud absoluta.
Sirio tendría la cifra de 1,3. La magnitud absoluta de Vega sería de 0,5. La de una
estrella dos veces y media más luminosa, como Capella, será de −0,5. Pero éste no es
el récord: hoy se atribuyen magnitudes absolutas de −6,5 y −7 a Rigel y Deneb,
respectivamente, exponentes de una luminosidad de 40 000 y 60 000 para cada
estrella[10].

El cielo en relieve
Después de calcular las magnitudes absolutas de las estrellas cuya distancia aprendió
a medir, el astrónomo descubre que hay «tipos» de estrellas: los astros del mismo
color, en efecto, poseen magnitudes absolutas comparables. Y esta correlación revela
la distancia de las estrellas más lejanas. Si admitimos que el color se relaciona con la
magnitud absoluta, la magnitud aparente determinará el alejamiento. El astrónomo se

ebookelo.com - Página 36
comporta como un navegante que observase faros de distintos colores, sabiendo que a
cada color corresponde una potencia luminosa determinada: así, la apreciación del
brillo le informa sobre la distancia.
Esta técnica es muy delicada. La clasificación de las estrellas no tarda en ofrecer
espinosos problemas. Pero el principio empleado permite tomar por referencia
algunas estrellas muy luminosas y después colecciones enteras de estrellas. Y los
astrónomos imaginan otros métodos que utilizan principalmente las estrellas variables
(cefeidas), en las que creen ver una relación entre período y luminosidad.
Descubren entonces que el Sol forma parte de una inmensa familia que tiene la
forma de una gigantesca lenteja y que tal vez contiene cien mil millones de estrellas.
En el cielo nocturno, su perspectiva constituye el majestuoso camino blanco (el
camino de Santiago) que en la Antigüedad se comparó a miles de gotas de leche. Así,
los antiguos astrónomos le dieron el nombre de Galaxia (galacta = leche) o Vía
Láctea.
Tanto los físicos como los astrónomos afirmaron repetidamente que las manchas
que aparecían en algunos lugares del firmamento y que recibían el nombre de
nebulosas, podrían ser otras tantas Vías Lácteas. Abbe defendió en particular esta
tesis con la mayor energía. Por desgracia, no pudo sostenerla con pruebas.
Durante los primeros lustros del siglo XX, aún solía afirmarse que nuestra Galaxia
constituía todo el Universo, y se suscitaron apasionadas controversias sobre la
existencia de «algo» fuera de la Galaxia.

5. El norte cósmico

En nuestras latitudes, esta imagen del firmamento septentrional en el mes de mayo a las 23 h (o en abril a 1 h, o
en marzo a 3 h), confunde casi la Vía Láctea con el horizonte y permite una fácil localización de las
constelaciones.

El norte cósmico está ante el observador, indicado por Casiopea. Al este está el Águila y al oeste, Taurus y
Orión. El borde de la Galaxia más próximo al Sol está en la dirección del Auriga.

ebookelo.com - Página 37
Fue entonces cuando la astronomía conoció su más impresionante desarrollo.
Durante muchos decenios, la eficacia de los grandes instrumentos ópticos da motivo a
enconadas polémicas; muchas veces se les comparó con muestras de anteojeros.
Pero los norteamericanos dan el paso decisivo. Después de construir un anteojo
gigante, con una abertura de 102 cm (Yerkes, 1897), se instala en 1917 un telescopio
de 257 cm en el Monte Wilson. Por medio de este telescopio —Abbe había muerto un
año antes—, Hubble descubrió que la mancha observada en la constelación de
Andrómeda no era una nube de gases: el nuevo instrumento determinaba sin
posibilidad de duda que estaba constituida por millones de estrellas.
El desconcierto que produce este descubrimiento es considerable. Lo que se
entrevé en aquella «nebulosa de Andrómeda» es otra galaxia[11] vecina de la nuestra.
Al poco tiempo, se descubren galaxias a millones. Se inicia entonces la carrera
mundial de los instrumentos gigantes: una veintena de grandes telescopios se
construyen entre 1920 y 1960. El récord se lo lleva el instrumento de Monte Palomar
(1948), con sus 508 cm de abertura.
Después de hacer el catastro del sistema solar y de la Galaxia, el hombre descubre
toda la inmensidad del Universo: el alcance de los telescopios se cifra en centenares
de millones y en miles de millones de años luz.
Ciertamente, durante mucho tiempo será difícil apreciar con exactitud el
alejamiento a que se encuentran las galaxias. Así, entre 1950 y 1960, estas distancias
tienen que duplicarse por dos veces.
Entretanto, el «modelo» del Universo —o sea, su imagen tridimensional—
empieza a precisarse y puede levantarse, un mapa, tomando por referencia el plano de
nuestra Galaxia. Esta posee un diámetro que hoy se calcula en 100 000 años luz y,
partiendo del centro o núcleo de la misma, el Sol se encuentra a las dos terceras
partes de un radio que apuntase desde el Auriga a Orión. Podemos decir, pues, que al
mirar a Betelgeuse, nos volvemos aproximadamente hacia el «borde» de la Galaxia
más próximo al Sol.
El centro se encuentra evidentemente en la dirección opuesta, hacia Sagitario. La
majestuosa Antares del Escorpión proporciona un cómodo punto de referencia, no
muy alejado de la dirección citada y que se caracteriza por una extraordinaria
abundancia de estrellas en la bóveda celeste.
Los astrónomos se han acostumbrado a definir un «norte cósmico» proyectando la
dirección de la Polar sobre el plano galáctico (lo que generaliza nuestro norte
clásico); entonces, el radio sobre el que se encuentra el Sol forma con ella un ángulo
aproximado de 57° (fig. 6)[ver].
Las figuras 7[ver] y 8[ver] indican la fisonomía del Universo con tal orientación a
dos escalas.
Alejándonos de nuestra Galaxia por el lado sur, descubrimos así dos pequeñas
galaxias satélites: las nubes de Magallanes. Sólo visibles desde las regiones australes,

ebookelo.com - Página 38
fueron percibidas por los navegantes portugueses, como su nombre indica. Sus
diámetros son de 30 000 y 40 000 años luz y unos «puentes» de hidrógeno deben
unirlas a nuestra galaxia.

6. Nuestra Galaxia
El eje horizontal que sirve de referencia para medir los grados en la Vía Láctea refleja la orientación anterior de
un observador que, de pie en nuestra Galaxia, estuviese vuelto hacia el norte.

Por el contrario, nuestra vecina la nebulosa de Andrómeda se encuentra en la


dirección norte (acompañada por dos nebulosas satélites), a unos 2 200 000 años luz
ligeramente por encima del plano galáctico.
A una distancia comparable y no lejos de ella, se encuentra en el Triángulo la
galaxia M 33[12].
Hay que alejarse después hasta 9 000 000 de años luz para encontrar en la Osa
Mayor la magnífica galaxia M 81, cuyo aspecto recuerda mucho a la nebulosa de
Andrómeda.
Más lejos aún hay una quincena de galaxias. Después se encuentra el gigantesco
cúmulo de Virgo, cuyo centro está a 35 millones de años luz. Está compuesto por
unas 3000 galaxias; sin duda la nuestra y sus vecinas se separaron de él.
Viene después una extraordinaria extensión casi desértica, en la que apenas se
encuentran algunos pequeños grupos.
Debemos trasladarnos a 90 000 000 de años luz para encontrar en la dirección de
Perseo, un enjambre comparable al de Virgo: en sus proximidades descubrimos
además otra colección de pequeños cúmulos.
Estas dos familias constituyen las dos únicas grandes aglomeraciones de galaxias

ebookelo.com - Página 39
situadas a menos de 100 000 000 de años luz. Después, entre 100 y 150 000 000 de
años luz, vemos por una parte a siete pequeños grupos y por otra el gran enjambre de
Coma, en la Cabellera de Berenice. Y entre 150 y 250 000 000 de años luz, se
encuentra el enorme cúmulo de Hércules.
A esta escala, por desgracia, y con más dificultad que en la escala galáctea, es
difícil trazar un mapa del firmamento. El hombre del siglo XX sólo consigue situarse
confusamente por lo que a las galaxias lejanas se refiere.
Y de todos modos, sus más potentes telescopios no le revelan los límites del
Universo. Aunque lleguen cada vez más lejos, siempre descubren nuevas galaxias en
el límite de la visión telescópica.
¿Es finito el Universo?
Sí, responden los matemáticos, que han tenido el atrevimiento de calcular su masa
total, basándose en consideraciones teóricas.
Sí, afirman como un eco los astrónomos: el Universo es finito y realiza una
impresionante evolución, que demuestra su expansión.

¿Expansión del Universo?


Al analizar la luz procedente de las galaxias más próximas, los astrónomos, en efecto,
han hallado «espectros»; es decir, colecciones de bandas luminosas debidas a los
distintos elementos y comparables a las del Sol o las estrellas próximas. Esto
demuestra una innegable uniformidad de la materia no sólo dentro de la Galaxia, sino
en todo el cosmos.
En 1929, Hubble hace un sorprendente descubrimiento. Las bandas de absorción
de las galaxias más lejanas le parecen sistemáticamente corridas hacia el rojo. Todas
las longitudes de onda de las radiaciones están aumentadas[13] y lo están tanto más
cuanto mayor sea la distancia a que se encuentre la galaxia observada.
Hubble dispone de un precioso colaborador: Humason, que se dedicaba a
apacentar asnos en el Monte Wilson antes de entrar a trabajar en el Observatorio,
donde demuestra una paciencia prodigiosa al tomar fotografías en «pose» que a veces
duran incluso una semana.
Por este procedimiento, Humason y Hubble ya llevaban estudiadas en 1936 más
de 150 galaxias. Una ley parece dibujarse: el corrimiento de las bandas hacia el rojo
es proporcional al alejamiento.
La interpretación que dan la mayoría de astrónomos a este hecho es inmediata: lo

ebookelo.com - Página 40
mismo que en acústica un sonido se hace más grave cuando la fuente emisora se
aleja, el desplazamiento de las bandas luminosas hacia las grandes longitudes de onda
debe interpretarse como un alejamiento de las fuentes luminosas.
Es el clásico efecto Doppler-Fizeau, que relaciona la velocidad de una fuente de
emisión con la longitud de onda aparente de sus señales. Por ejemplo, si
abandonásemos la Tierra a bordo de una astronave muy veloz, las estaciones de
radiodifusión no ocuparían ya en el cuadrante de un receptor sus lugares
acostumbrados. Sin embargo, las identificaríamos merced a sus números de
referencia y el corrimiento revelaría nuestra velocidad. La espectroscopia ofrece
recursos análogos y podemos considerar a los distintos elementos como colecciones
de emisoras.

Una dilatación gigantesca


Por lo tanto, los astrónomos ven en este «corrimiento hacia el rojo» la prueba de la
fuga de las galaxias lejanas. Y como el fenómeno se manifiesta en todas las
direcciones del espacio, habrá que concluir que en el Universo tiene lugar una
gigantesca dilatación[14].
Pero el fenómeno resulta impresionante cuando los instrumentos sondean las más
lejanas fronteras del espacio, pues el análisis espectrográfico continúa demostrando
una proporcionalidad rigurosa entre la distancia y el corrimiento de las rayas del
espectro, hasta tal punto, que se acabará calculando las distancias de las galaxias
mediante un simple examen de sus espectros, basando los cálculos en una velocidad
de 24 km/s para una distancia de un millón de años luz. Esto equivale a decir que una
galaxia que se encuentre a 500 millones de años luz huye de nosotros a 12 000 km/s,
alcanzándose la velocidad de 120 000 km/s a 5000 millones de años luz.
Así, en 1962, Minkowski, sucesor de Humason, atribuye 135 000 km/s a la
galaxia «3 C 295»[15], que estudia en el Monte Palomar, o sea, el 45% de la velocidad
de la luz. ¡El doble ultravioleta del oxígeno (0,37 micrones) aparece corrido al verde
(0,54 micrones)!
Pero este proceso no puede proseguir indefinidamente. La velocidad de la luz
representa para el físico un límite que ningún objeto material puede alcanzar[16].
Admitiendo la hipótesis de una recesión siempre proporcional al alejamiento, esta
velocidad de la luz se alcanzaría a una distancia de 13 000 millones de años luz. O

ebookelo.com - Página 41
sea, que a dicha distancia el Universo ya no podría existir; por lo tanto, éste debió de
nacer hace 13 000 millones de años, de una explosión gigantesca que proyectó en el
espacio la materia de un núcleo inicial, cuyo radio sería de 2000 millones de años luz.
¿Podemos admitir la realidad de semejante expansión? No hay unanimidad de
pareceres sobre el problema. Algunos científicos consideran temerario basarse en una
sola prueba para afirmar la existencia de un fenómeno tan fantástico. ¿Y puede
afirmarse que el efecto Doppler indica obligatoriamente una expansión del Universo?
Durante varios decenios, los partidarios y los adversarios de la expansión se
enzarzan en reñida controversia.
Los primeros llevan la voz cantante durante la época de la radioastronomía, en
que los partidarios de un Universo estático[17] ven disminuir sus efectivos.
Se registra el efecto Doppler en la longitud de onda de 21 cm, que permite
escuchar las nubes de hidrógeno interestelar, lo mismo que en el caso de las ondas
lumínicas. Mejor aún: los corrimientos en la longitud de onda corresponden a las
diferencias registradas en los casos de objetos cuyas distintas velocidades se conocen.
Además, dejando aparte las observaciones físicas, ¿no fue prevista la expansión
por los matemáticos, que demostraron la inestabilidad de un Universo estático?

El signo de interrogación
Sin embargo, no se ha llegado a la unanimidad. Muchos astrónomos se muestran
refractarios a la nueva teoría e incluso exponen nuevas hipótesis, observando que la
radiación luminosa no es más que una lluvia de fotones. Y en los largos recorridos
cósmicos, las colisiones que sufren los fotones podrían representar un factor natural
de pérdida de energía[18].
El astrónomo intenta hallar una respuesta aumentando el alcance de sus
instrumentos. Los mejores instrumentos ópticos alcanzan normalmente hasta mil
millones de años luz, y de 5 a 7 000 millones en circunstancias excepcionales.
Mientras no se disponga de lentes mayores, lo cual es dudoso, se puede exigir más a
los radiotelescopios, en cuyo caso la tarea de escrutar el espacio se convierte también
en un viaje por el tiempo. Al sondear el Universo a 10 000 o 15 000 millones de años
luz, un radiotelescopio observará unos sucesos que tuvieron lugar igual número de
años antes.
Si la expansión tuvo un «comienzo», el hombre tiene la posibilidad de revivirlo
gracias a estos medios.

ebookelo.com - Página 42
En Sugar Grove, los norteamericanos trabajaron durante un tiempo en la
construcción de un inmenso radiotelescopio de 176 m, del que esperaban un alcance
de 30 000 millones de años luz. Merced a él, los astrofísicos confiaban en ver «los
tiempos en que nuestro Universo aún no existía». Pero la construcción de este aparato
tropezó con graves dificultades mecánicas y se terminó por abandonar este proyecto,
arguyendo que se podrán obtener informaciones equivalentes con colectores
múltiples. No se ha perdido, pues, la gran esperanza de remontarnos hasta sus
mismos orígenes.
En espera de alcanzar este objetivo, el astrónomo trata de cribar las informaciones
obtenidas con los aparatos existentes, que ya le proporcionan preciosas indicaciones.
A menos que se basen los cálculos en una transformación continua de la radiación
en materia —tesis que los ingenios espaciales no corroboran[19]—, los partidarios de
la expansión se ven obligados a admitir que el Universo primitivo fue muy denso: por
lo tanto, tendríamos que hallar concentraciones de materia cada vez más importantes
cuanto más lejos nos remontásemos en lo pasado; es decir, al registrar más
profundamente el espacio. ¿Confirman los sondeos efectuados este punto de vista?
En 1961, el astrofísico inglés Ryle publicó los resultados de los pacientes análisis
efectuados en Cambridge con el radiotelescopio Mullard: este gigantesco canal
parabólico de 442 m, fijo en el suelo, focaliza la radiación hacia una antena montada
sobre un raíl. Los datos son transmitidos por un telescritor a una calculadora
electrónica.
Ahora bien, Ryle estima que la densidad de las fuentes aumenta a medida que nos
remontamos en el tiempo, y, por extrapolación, el astrofísico deduce que nuestro
Universo nació de una explosión gigantesca, que tuvo lugar hace 13 000 millones de
años.
Sin embargo, se le puede hacer una objeción: ¿No sería posible que la radiación
más intensa descubierta en lo pasado, procediese de galaxias que en su juventud
tuvieron mayor actividad, sin que esto quisiera decir que estuviesen más
concentradas?
Así se acumulan los indicios a favor de la expansión, sin que se haya alcanzado
todavía una certidumbre.

El sentido de la evolución
Pero quizá este gran debate en torno a la expansión fuese en cierto modo un problema

ebookelo.com - Página 43
mal planteado.
Fuese cual fuere el punto de vista adoptado, resulta característico que todas las
opiniones concuerden para ratificar una evolución de nuestro Universo a partir de la
época considerada como principio de su expansión.
Actualmente, vemos en efecto millones de astros en el cielo, y descubrimos una
materia en la que domina el hidrógeno a la escala cósmica, pero junto al cual han
surgido otros elementos, dotados de núcleos más complejos. Así la materia dio origen
a diversos tipos de asociación a partir de un estado inicial particular; vivió una
extraordinaria novela, de la que nació nuestro mundo actual.
¿Por qué y cómo?
Comprender el Universo, a decir verdad, es ante todo imaginarse esta evolución.
Es descubrir por qué procesos las partículas fundamentales originaron galaxias,
estrellas, un Sol, una Tierra y unos hombres que hoy reconstruyen esta prodigiosa
evolución, preguntándose de dónde procedían estas partículas y el cortejo de
entidades —espacio, tiempo, masa— de las que ellas ya eran tributarias.
Sí, es en las partículas donde hay que buscar los secretos del Universo.
Remontándonos en pensamiento a los tiempos en que este Universo no era más
que una inmensa nube de hidrógeno, es decir, una colección de protones y electrones,
veremos que todo el destino del cosmos prodigioso estaba inscrito en potencia en
aquellas partículas.
Partículas que hoy componen nuestro cuerpo, la Tierra y el cielo y que vivieron
escenas que asumieron los marcos más diversos. Téngase en cuenta que su papel no
fue el de simples agentes pasivos: no eran «granos de materia», sino verdaderos
individuos cuyas características gobernarían toda la cibernética cósmica.
Ésta será en el terreno filosófico la verdadera revolución del siglo XX.
Al principio, en efecto, el hombre entrevió el mundo atómico a partir de una
división cada vez mayor de la materia que percibía por sus sentidos. Le dominaba la
tendencia instintiva a considerar las moléculas como modelos reducidos, pues los
objetos verdaderos eran los que percibía a su propia escala. Y solía imaginarse como
unos gigantes a los demiurgos del cosmos. Así, después de descubrir el átomo, el
hombre lo miró de arriba abajo con un talante algo desdeñoso, viendo en aquellas
partículas, simples bolitas microscópicas cuya única importancia radicaba en su
número. ¿No tenían que reunirse en grandes cantidades para formar el mejor objeto o
provocar el fenómeno más insignificante?
Sin embargo, hay que adoptar la actitud opuesta, viendo en realidad en el mundo
atómico al verdadero agente creador de todo nuestro Universo.
Si intentamos trazar su historia, no podremos comparar las partículas con ladrillos
o con muebles colocados en el marco de las grandes estructuras, a medida que el
cosmos se iba organizando.
Estas estructuras, efectivamente, no existían de antemano. Al seguir la evolución
del Universo, descubriremos en cambio que en todas sus etapas fueron creadas por

ebookelo.com - Página 44
obra de las partículas. No podemos hablar, pues, de un Universo ocupado por las
partículas, sino de un Universo construido y formado por ellas, pues las propiedades
de estas partículas elementales condicionaron su fisonomía, y su acción dio origen a
una materia cada vez más y más organizada.
Nos daremos cuenta de ello pasando revista a las «fuerzas» que les eran propias.
En primer lugar, cada partícula poseía lo que llamamos una masa. De dicha
entidad se originaría una fuerza de atracción universal: la gravitación.
Sabemos además que los electrones y los protones poseían cargas eléctricas. La
electricidad nos coloca en presencia de una fuerza que presenta dos aspectos: si bien
la gravitación ejerce siempre una atracción, las fuerzas eléctricas solamente atraen las
partículas de signo contrario, rechazando las cargas del mismo signo.
Finalmente, trabaremos conocimiento con otra fuerza muy especial, que sólo se
ejerce entre las partículas pesadas.
Con el conocimiento de estos datos, comprenderemos que el Universo estaba
llamado a evolucionar siguiendo una línea directriz que daría por resultado el
nacimiento de astros y la aparición, en la Tierra, de una substancia soberanamente
organizada: la materia biológica.
El punto de arranque fueron las partículas. El de llegada será el hombre.
Éstos son los dos extremos de una cadena, cuyos eslabones descubriremos al
revivir la novela de la materia.

ebookelo.com - Página 45
3

La obra de la gravitación
La característica primordial de las partículas es la atracción que ejercen sus masas. Se
trata de una acción insignificante cuando el número de partículas es reducido, pero se
manifestará importante cuando éstas sean muy numerosas.
Éste es el sentido de la fuerza que conocemos con el nombre de gravitación.
Representó un papel decisivo durante la etapa de un Universo primitivo, reducido aún
a una vasta nube de hidrógeno que ocupaba el espacio, o sea, una colección
compuesta quizá por 1060 protones y otros tantos electrones.
En esta inmensa formación, las primeras grandes transformaciones topológicas se
realizaron por los efectos de la gravitación: la atracción universal será la responsable
de la organización macroscópica del cosmos.

1.— La atracción universal


Fuerza astronómica, la gravitación presenta la ventaja, para nosotros, de ser captada
por nuestros sentidos gracias a un ejemplo concreto. El peso, o sea, la gravitación del
astro llamado Tierra, gobierna todos los fenómenos de que el hombre es testigo.
Su vida transcurre bajo el signo constante de la gravedad: los mecanismos de la
gravitación universal, sin embargo, no le fueron familiares desde el principio.
Verdad es que en todas las épocas, los fenómenos relacionados con el peso
parecieron naturales. Desde que la Tierra sustenta al hombre sobre su superficie, éste
vio a todos los cuerpos atraídos hacia su centro y se acostumbró a medir las masas,
indirectamente, a través de dicha atracción: incluso hoy en día, el ama de casa hace
pesar lo que compra, pese a que adquiere masas.
También resulta significativo el hecho de que, durante generaciones, la física
incipiente denominase de manera indistinta kilogramo a la unidad de masa —el litro
de agua— y el peso que éste tenía en París, creando una confusión que solamente
cesó en época reciente, con la adopción de un sistema racional en que el kilo gramo
se reserva únicamente para las masas.
Esta confusión entre masa y peso traduce perfectamente un estado de ánimo.
Muchas veces es necesario reflexionar un momento para descubrir, con la maza o el

ebookelo.com - Página 46
ariete, el factor inercia que, en el marco terrestre, revela una masa sin tener que
acudir a su peso. Independientemente de todo peso, una masa, en efecto, se
manifiesta por la resistencia física que opone a los cambios de velocidad.
A este respecto, la era espacial nos ofrece ya las situaciones que permiten
distinguir masa y peso. Un objeto transportado a cualquier lugar del Universo
contiene siempre la misma cantidad de materia: la masa, por consiguiente, será la
magnitud invariable que permite medir dicha cantidad. En cambio, el peso de un
cuerpo refleja las condiciones a que está sometido. En la superficie de la Luna, por
ejemplo, la atracción ejercida por el astro corresponde únicamente a una sexta parte
de nuestra gravedad.
Lo que equivale a decir que la elevación de un objeto, en la Luna, exige un
esfuerzo seis veces menor. En cambio, la energía necesaria para crear una velocidad
será exactamente la misma. Si levantamos una esfera metálica, nos sorprenderemos
ante su liviandad y nos parecerá levantar una bola de corcho. Pero al lanzarla con el
mismo movimiento que en la Tierra, encontráremos que es tal como la conocíamos. Y
en una pista lunar, un ciclista pesará seis veces menos, pero sufrirá los efectos de la
misma fuerza centrífuga que experimentaría en la Tierra y, por lo tanto, deberá
efectuar los virajes muy inclinado…
Por último, cuando una astronave efectúa un viaje en caída libre por el espacio,
adquiere la misma aceleración que los cuerpos que transporta, y, por lo tanto, la
diferencia será nula. El resultado de ello, a bordo, será una ausencia de peso y, por lo
tanto, una cápsula espacial se nos presenta como un laboratorio ideal para estudiar el
fenómeno masa.
En el interior de uno de estos ingenios, los objetos no caen al soltarlos; el lápiz
abandonado permanece encima del papel como sostenido por una mano invisible,
dispuesto a trabajar de nuevo; el agua no se vierte de la botella inclinada y la
progresión normal es imposible, al no existir adherencia contra el suelo. Y los
proyectiles describen líneas rectas, rebotando en las paredes como las bolas en las
bandas de una mesa de billar. La ausencia de gravedad pone entonces de manifiesto la
inercia. Levantar un objeto no exige ningún esfuerzo. Levantarlo o más bien moverlo
con rapidez en una dirección determinada, requiere un esfuerzo tanto mayor cuanto
más importante sea su masa. Titov «dejaba» su cámara en el aire, anclada por su
inercia.
Pero esta creación de medios desprovistos de gravedad es extremadamente
reciente. El destino común de los hombres, en cambio, fue siempre el de no poder
imaginarse masas desprovistas de peso, por haber vivido encadenados
constantemente a su planeta por la gravitación.

ebookelo.com - Página 47
Un ejemplo demasiado magistral
Y el peso era un caso anómalo de la gravitación.
Del uno al otro confín de la Tierra, sus variaciones —0,5% entre los polos y el
ecuador— escapan a la apreciación. Hay que esperar al siglo XX para que el hombre
compruebe, durante competiciones deportivas excepcionales, que un peso cambia
ligeramente en valor según el lugar.
Por lo demás, el carácter «universal» de la gravitación no se demuestra con el
peso, pues está disimulado por la disimetría de las masas que intervienen. La
atracción mutua de dos cuerpos, en efecto, depende del producto de sus masas. Pero
al ser la gravitación una fuerza débil, este producto solamente adquiere valor
importante cuando una de las dos masas es la Tierra. Si soltamos dos piedras juntas,
tendrán tendencia a acercarse, al caer hacia el suelo, pero su atracción mutua será tan
insignificante que el fenómeno escapa a la observación y, en apariencia, cada piedra
describirá su trayectoria propia como si la otra no existiese.
Así, al tener conocimiento del mundo, el hombre tardará mucho tiempo en
relacionar la gravedad o peso de los cuerpos con la masa de su planeta.
Por lo demás, al principiar el siglo XVI aún no había dado la vuelta al mundo. Los
periplos de Piteas lo llenaron de asombro, en otras épocas: el viajero marsellés
alcanzó una región donde «el Sol no desaparecía del horizonte». Pero el hombre vivía
como un provinciano, sin tener una visión general de su planeta, imaginando un cielo
sostenido por columnas por encima de una Tierra plana.
Durante mucho tiempo, esta ilusión de un «arriba» y un «abajo» absolutos se
opone a la representación esférica de la Tierra, preconizada por Aristóteles: si la
Tierra fuese redonda, afirman gravemente los escolásticos, los habitantes de los
antípodas estarían cabeza abajo y los océanos se derramarían en el vacío…
Pero, finalmente, después de medir su planeta y empezar a considerarlo como un
astro, el hombre comprende que la gravedad es una fuerza que atrae los objetos hacia
el centro de la Tierra. Mas entonces cree que en las entrañas del planeta existe un
poder misterioso.
Hace falta la intuición de un Newton para generalizar la fuerza de gravedad,
convirtiéndola en gravitación universal y para comprender que el poder de atracción
de la Tierra debe atribuirse únicamente a su cantidad de materia.
Cuenta la leyenda que el ilustre físico tuvo esta revelación al pie de un manzano
de su aldea natal. Quizá esto no sea una fábula; la propia madre de Newton refirió
esta anécdota a Voltaire, dándola por auténtica. Y hasta que una tempestad lo
destruyó, en 1812, el árbol de Woolsthrope fue un centro memorable de
peregrinación…
Al observar la caída de la manzana, Newton presintió que era atraída por la Tierra
en virtud de una ley general que impulsa a todos los cuerpos del Universo a atraerse,

ebookelo.com - Página 48
con una fuerza que está en relación con su masa. Y el físico enunció entonces la ley
de la gravitación, diciendo que la fuerza de atracción entre dos masas varía
inversamente al cuadrado de la distancia: cuando el alejamiento es doble o triple, la
fuerza de atracción es cuatro o nueve veces menor.
Semejante fuerza de atracción dará órbitas elípticas a los planetas, admitiendo al
Sol como centro, y las leyes que Kepler dedujo de la observación casi un siglo antes,
encontraron su justificación científica. Había nacido la mecánica celeste.

La constante de gravitación
Pero ¿cómo calcular la intensidad del «poder gravífico»? ¿Qué atracción recíproca
ejercerán dos masas de 1 kilogramo que disten 1 metro? Su valor será la «constante
de atracción universal». En tiempos de Newton, esta constante era desconocida,
desde luego, y durante mucho tiempo fue muy difícil precisarla.
No se trata, en particular, de deducirla del peso de nuestros objetos, pues la masa
de la Tierra aún no se ha calculado.
Para proceder a mediciones «absolutas» hay que utilizar masas conocidas y
estudiar su atracción recíproca en el laboratorio. Teniendo en cuenta que se trata de
fuerzas levísimas, estas experiencias son muy delicadas. Pero Cavendish las realiza a
fines del siglo XVIII, empleando una varilla horizontal, móvil alrededor de su centro y
a cuyos extremos se hallan suspendidas bolas de plomo. Puestas delante de unas
esferas de platino, la torsión de la varilla indica su atracción recíproca. Así consigue
demostrar Cavendish que la atracción es algo propio de todas las masas y calcula la
constante de gravitación, sacando la conclusión de que dos masas de 150 kg, cuyos
centros respectivos disten 10 cm, se atraerán con la fuerza que la Tierra ejerce sobre
un milímetro cúbico de agua. Y este débil valor explica muy bien que no podamos
percibir la mutua atracción que se ejerce en las masas.
Conocida la constante de gravitación, se puede calcular la de la Tierra (que es
aproximadamente de 6·1024 kg), y de una manera general la de los cuerpos celestes
cuya gravedad puede medirse. Esto se aplica, especialmente a los astros dotados de
satélites. Así se calculan las masas del Sol y de los planetas superiores. Más adelante,
este método se aplicó a las estrellas que poseen compañeros. Poco a poco, se fueron
pesando todos los astros y la precisión de los cálculos absolutos era la misma que la
constante de gravitación, conocida durante mucho tiempo de forma harto sumaria.
Heyl reanudó en 1930 los experimentos de Cavendish, pero sólo consiguió una

ebookelo.com - Página 49
precisión de una milésima…

Los experimentos de Eötvös


Todos los cuerpos se atraen entre sí.
El hecho resulta extraordinario, y los físicos se hacen esta pregunta: ¿Debe
atribuirse esta atracción a las masas respectivas, independientemente de las
substancias que las constituyen? ¿O, dicho de otro modo, a igualdad de masa, la
gravitación actuará de la misma manera sobre todas las partículas? Si existiesen
diferencias, una bola de cobre no debería tener el mismo peso que una bola de plomo
de la misma masa, puesto que en el cobre ordinario, los neutrones aseguran el 54,6%
de la masa contra el 60,4% en el caso del plomo (un núcleo de cobre contiene 29
protones y 34 neutrones, mientras que en un núcleo de plomo ordinario, 82 protones
están unidos a 126 neutrones).

ebookelo.com - Página 50
7. Las cercanías de nuestra Galaxia
Se conserva la misma orientación, de las figuras 5[ver] y 6[ver], pero las dimensiones se han reducido en la
proporción de 20.

Pero la realidad desmiente semejante suposición. El barón húngaro Roland von


Eötvös realizó unos experimentos extremadamente minuciosos de 1890 a 1909, a fin
de comparar el peso y las masas respectivas de numerosos objetos, mediante una
técnica muy sutil. En las condiciones terrestres ordinarias, en efecto, todos los objetos
se hallan sometidos a dos acciones. Su peso es una fuerza dirigida hacia el centro de
la Tierra. Pero además, al hallarse nuestro planeta animado de un movimiento de
rotación, todos los objetos situados en su superficie sufren los efectos de una fuerza
centrífuga que hace intervenir a su masa. Por último, ambas fuerzas se equilibran en
una componente vectorial y la plomada señala no la vertical geométrica, sino la
resultante que, en nuestras latitudes, forma con ella un ángulo de casi 6'.

ebookelo.com - Página 51
8. Nuestro universo local
Una nueva reducción (en una proporción próxima a 150) ofrece una imagen del Universo hasta varios centenares
de millones de años luz. El cuadradito central indicado por una flecha contiene la carta precedente.

Por lo tanto, si masa y peso no estuviesen en la misma relación para los cuerpos
constituidos por diversas substancias, fuerza centrífuga y peso no tendrían la misma
importancia relativa. Suspendidos de un hilo, estos cuerpos deberían adquirir
direcciones ligeramente distintas. Sin embargo, Eötvös no señala la menor diferencia.
Sus experimentos se repiten en 1960 en la universidad de Princeton con una precisión
mil veces superior (mediciones a la diez milmillonésima), pero el resultado también
es negativo.
Por consiguiente, el poder de gravitación nos aparece completamente relacionado
con el factor masa, y esto hizo que Einstein relacionase la entidad masa con una
estructura del espacio. Pero nuestra finalidad no consiste en exponer el origen de la
gravitación ni plantear el problema de las posibles variaciones de la constante
representada por la atracción universal, según las regiones y las épocas.
Mencionamos únicamente el hecho de que las partículas del Universo primitivo se
atraían. Y se trata de comprender las consecuencias que esta atracción tendría en la
evolución del Universo.

ebookelo.com - Página 52
2.— Nacimiento de las galaxias
Los físicos descubrieron la gravitación en una época en que se ignoraba la verdadera
naturaleza de la materia y especialmente la existencia de las partículas. Y se inauguró
una manera de pensar, que veía los problemas de la gravitación a la escala de los
cuerpos celestes.
Así, nuestra mecánica se aplica a unos mundos que ya han adquirido cohesión[20],
y los asimila a objetos compactos que evolucionan en un medio que se supone vacío.
Semejante modelo refleja, ciertamente, la situación actual: los astros que nos son
familiares son estables, y, en el sistema solar, la materia distribuida por el espacio es
relativamente poco abundante, por lo que su gravitación apenas tiene importancia
comparada con la de los astros.
En una carta del sistema solar, el astrónomo podrá entonces razonar como si las
masas de los astros estuviesen concentradas en el centro de los mismos, y estudiar la
atracción mutua de las masas, sin ocuparse de los astros, cuya existencia ya da por
sentada. En cierto modo, la gravitación queda reducida al rango de agente de la
circulación, pues fija las órbitas.
Sin embargo, tuvo ocasión de manifestarse de manera muy distinta en el Universo
primitivo, mediante una labor mucho más importante, pues en los primeros tiempos
intervino para provocar, a partir del caos inicial, la formación y la transformación de
objetos y después para garantizar su cohesión.
Es preciso observar que el término objeto debe entenderse en un sentido muy
general. Desde luego, la Tierra es un objeto, y a causa de una estructura superficial
sólida su cohesión no parece deber ya nada a la gravitación, que asegura únicamente
la retención de una atmósfera. Pero téngase también en cuenta que los planetas son
«objetos secundarios», cuyo nacimiento acaecerá en el regazo de las estrellas, o sea,
de objetos primarios gaseosos. El problema cosmogónico, pues, se plantea de manera
muy diferente al remontarnos en el tiempo: se trata de considerar de qué manera las
fuerzas de la gravitación pudieron asegurar la existencia de astros gaseosos…

Un objeto gaseoso

Nada nos impide concebir la cohesión por efecto de la gravedad de un objeto


gaseoso. Podemos suponer que, mientras continuaban girando en todos sentidos, las

ebookelo.com - Página 53
partículas o los átomos de hidrógeno que ocupaban un determinado volumen de
espacio se apresaron mutuamente bajo el efecto de su recíproca atracción, con el
resultado de que ya no pudieron abandonar aquellas regiones.
Pero entonces interviene un factor distinto a la gravedad. La gravedad de un astro
indica la atracción ejercida por su masa y tiene un sentido estático. Pero cuando algo
desee evadirse de su superficie, tendrá que efectuar un trabajo que, desde luego,
dependerá de la gravedad, pero también de la manera como ésta varíe con la
distancia.
Imaginemos, por ejemplo, dos astros de diferente volumen, en cuya superficie la
gravedad fuese idéntica. Para que la gravedad disminuya en 75%, es necesario
alejarse, en ambos casos, hasta una altitud igual al radio del astro.
En consecuencia, la distancia a recorrer será más larga para el astro menos denso,
que, al tener un volumen mayor, tendrá también un radio mayor. Y por consiguiente,
será preciso emplear una energía más considerable para vencer una misma fracción
de la gravedad. Así, la energía total que permita alejarse indefinidamente —y que
recibe el nombre clásico de energía de escape— no será la misma.
Las operaciones espaciales nos han familiarizado con semejante situación, al
hablarnos de la «velocidad de escape o de liberación» de un astro. Esta velocidad, por
definición, es la que hay que imprimir a una masa desde la superficie del astro, para
asegurarle la energía de escape bajo una forma cinética. Y este concepto nos
proporciona un lenguaje particularmente apropiado para discutir los problemas
cosmogónicos.
Es notable, en efecto, la relación que existe entre la astronáutica o ciencia que
trata de los cuerpos celestes artificiales y la cosmogonía, que estudia la evolución de
los objetos que poblaron naturalmente el espacio.
Recordará el lector que en astronáutica nunca interviene la masa de nuestro
planeta, cuyo valor sólo es conocido por los especialistas. En cambio, suele citarse a
menudo la velocidad de escape desde la superficie de la Tierra, que equivale a
11,2 km/s.
Así, discutiremos la cohesión de un astro —o, más generalmente, de un objeto
gaseoso— comparando su velocidad de escape con la velocidad de las partículas que
constituyen su periferia.
Por ejemplo, la velocidad de escape del Sol es de 618 km/s. Semejante velocidad
retiene fácilmente los elementos componentes de su superficie, que son átomos de
hidrógeno dotados de una velocidad de 12 km/s, y retiene asimismo la atmósfera del
astro, en la que la velocidad de las partículas alcanza por lo general 100 km/s. Si la
velocidad de escapé del Sol fuese diez veces menor, su cohesión estaría asegurada,
pero perdería su fotosfera y, por lo tanto, estaría condenado a una rápida
evaporación…

ebookelo.com - Página 54
Matemáticas y velocidad de escape
Como la gravedad, la velocidad de escape de un astro depende de su masa. Pero ya lo
hemos señalado: a igualdad de gravedad, la velocidad de escape será mayor para un
objeto de menor densidad.
Teniendo en cuenta la ley de la atracción universal, podemos deducir que la
gravedad de un astro aumenta como su masa y que es inversamente proporcional al
cuadrado de su radio. La velocidad de escape, en cambio, aumenta solamente con la
raíz cuadrada de la masa y es inversamente proporcional a la raíz cuadrada del radio.
Así, todas las «combinaciones» serán posibles, ateniéndonos a las diferentes
densidades de los cuerpos celestes.
Por ejemplo, suponiendo un planeta que tuviese un radio doble del de la Tierra y
una masa cuádruple, las consideraciones precedentes nos demostrarían que, en su
superficie, la gravedad sería la misma que en la Tierra: en este astro hipotético, un
litro de agua pesaría 9,8 newtons[21], y, después de caer durante un segundo, un
objeto tendría una velocidad de 9,8 m/s, como en la Tierra. En cambio, la velocidad
de escape ascendería a 15,8 km/s. Y la gravedad continuaría siendo la misma en un
planeta que tuviese nueve veces la masa de la Tierra con un radio triple del de ésta,
pero la velocidad de escape alcanzaría entonces 19,4 km/s.
Inversamente, los astros tendrían la misma velocidad de escape que la Tierra, pero
gravedades menores, si se aumentasen la masa y el radio en la misma proporción.
Vamos a multiplicarlos por 10, es decir, vamos a imaginar un planeta con una masa
diez veces superior a la de la Tierra, pero con una densidad cien veces inferior. En
este planeta de corcho, los pesos de los objetos son diez veces menores, pero para
lanzar satélites, los cohetes tendrán que crear las mismas velocidades que en la
Tierra.
Y al multiplicar masa y radio por 100, nada nos impide imaginar un mundo
gaseoso en el que la velocidad de escape sea igualmente 11,2 km/s, pero cuya
gravedad sea solamente la centésima parte de la terrestre. Con coeficientes más
elevados, la gravedad cada vez será menor, mientras que la velocidad de escape
conservará el mismo valor.
Estas consideraciones son de importancia capital. Nos proporcionan la clave de
los problemas cosmogónicos, si queremos vislumbrar la acción de la gravitación en
los tiempos del Universo primitivo. Es preciso tener en cuenta, en efecto, que por
débil que sea la densidad de una formación gaseosa, su velocidad de escape puede
ser suficiente para asegurar su cohesión, a condición de que el volumen sea
suficientemente importante.
Por este motivo, en la nube inicial, en la que el hidrógeno tenía una densidad
débil, los primeros objetos fueron enormes concentraciones de gases, precursoras de
las galaxias.

ebookelo.com - Página 55
Se desgarra la nube primitiva
En esta nube no tardarán en producirse desgarrones, pues, en efecto, es inestable y su
gravitación origina contracciones locales, que por su parte crean también una tensión
interna. Así, correrá la misma suerte que una tela demasiado tirante: un proceso de
desgarramiento será inevitable.
Y estos trastornos aumentan en progresión geométrica. La materia que bordea un
desgarrón cesa de estar tirante y se contrae, produciendo concentraciones que crean a
su vez desequilibrios, mientras los desgarrones se generalizan para condenar
progresivamente la nube primitiva a una fragmentación a todo lo largo y lo ancho. De
este proceso nacen gigantescas condensaciones, cuya gravitación asegura la cohesión.
La masa de estas condensaciones se cifra en cantidades aterradoras: miles de
millones de veces la masa solar. Sus dimensiones se expresan por cientos de miles de
años luz, y constituyen agrupaciones informes, en las que sólo se cuentan unos
cuantos átomos de hidrógeno por centímetro cúbico. Durante esta etapa aún no hay
astros, pero la inmensa nebulosa primitiva ha sufrido una transformación, dando
origen a millones de capas que evolucionarán de manera independiente. Ya han
adquirido su unidad; a causa de las elevadas velocidades de escape que les confiere la
gravitación, a partir de entonces la materia ya no podrá evadirse de la formación en la
que está prisionera y en cuyo interior la gravitación se ejercerá de una manera
autónoma.

Antiazar
Este autodesgarramiento de la nebulosa primitiva no tuvo testigos y durante mucho
tiempo se consideró difícil reconstruir esta primera etapa de nuestro Universo.
Sin embargo, el hombre encuentra su recuerdo escrutando el cielo. Lo descubre
en el carácter «asociativo» de las galaxias, que representan hoy la etapa evolucionada
de las formaciones primitivas. La aparición de astros, desde luego, modificó
entretanto su aspecto y su naturaleza, pero ejerció poca influencia en el propio
escenario, pues nuestras galaxias actuales señalan bastante bien los emplazamientos
de las formaciones primitivas, cuya evolución estelar quedó paralizada.
Pero un hecho salta a la vista. El Universo actual nos aparece poblado
principalmente de conjuntos de galaxias que presentan un flagrante carácter gregario,

ebookelo.com - Página 56
pues nuestra propia Galaxia forma parte de un grupo local.
La carta del cielo, a decir verdad, sería muy distinta si el reparto de las galaxias
hubiese obedecido al azar, o sea, si las diversas galaxias hubiesen sido
completamente independientes.
Éste es, en efecto, el sentido físico del término azar, que la historia del cosmos
nos permitirá evocar en otras ocasiones. Por definición, el azar caracteriza a una serie
de sucesos sin relación, desvinculados, semejantes a las suertes sucesivas de la ruleta,
en la que una jugada no depende para nada de las precedentes. Al no existir ningún
número favorecido, cualquier pretensión de calcular el que saldrá o de adivinarlo
gracias a una intuición determinada, debe considerarse como absurda. Los números
premiados nos proporcionan el tipo mismo de una serie aleatoria, que no se halla
regida por ninguna ley y sólo nos permite hacer consideraciones estadísticas,
valederas cada vez que un proceso físico asegure la independencia de los
acontecimientos.
Pero esto no es todo. La existencia o la ausencia de estos rasgos estadísticos nos
permitirá decir si existe azar o intervención: si en la ruleta vemos salir un mismo
número diez veces consecutivas, podremos gritar que hay tongo.
Del mismo modo, al considerar una colección de objetos dispersos en un lugar
determinado, el cálculo tiene en cuenta las estructuras permitidas por el azar —
tenemos un ejemplo notable de ello en las moléculas de un gas— y las que implican
cualquier vínculo entre dichos objetos, a la manera del gregarismo que reúne a las
vacas en un prado.
La génesis de las formaciones primitivas nos pone frente a una acción de este
tipo: hubo dependencia en el poblamiento del espacio. En cierto modo, podemos
hablar de reacción en cadena, pues la menor condensación de la nebulosa inicial tenía
que producir otras en sus proximidades, a consecuencia de la ruptura del equilibrio de
gravedad.
Y hoy tenemos la prueba de este proceso escrutando el firmamento.
Comprobaremos que las galaxias presentan un carácter sorprendentemente asociativo,
lo que se comprende si admitimos que nacieron por racimos.
No se trata de una ilusión. Las condiciones de estos agrupamientos fueron
minuciosamente estudiadas por los matemáticos Kutz y Muldeis, entre otros, que
sentaron las bases de un método que puede resumirse de la manera siguiente:
La población media en la región del cielo accesible a nuestros instrumentos es de
cien galaxias en un cubo cuya arista fuese igual a 20 000 000 de años luz. Entonces
sería posible proponer poblaciones-modelo, si la distribución de las galaxias
obedeciese al azar. En rigor, las podría crear una sencilla ruleta que, como es sabido,
cuenta con 37 números. Si convenimos ver en ellos las matrículas de otros tantos
cubos-testigo, bastaría con efectuar 3700 tiradas para que cada número apareciese
cien veces por término medio: las salidas reales nos informarían sobre la población de
37 cubos cósmicos.

ebookelo.com - Página 57
Los matemáticos dicen que entonces la distribución sería «gaussiana», con una
gran abundancia de poblaciones próximas a ciento, ya que los números muy altos o
muy bajos son extremadamente improbables. En particular, sería inconcebible un
cubo cósmico que contuviese menos de diez galaxias, admitiendo que las
formaciones primitivas se hubiesen encontrado repartidas al azar en el espacio.
Pero la realidad nos muestra numerosos cubos cósmicos que tienen cero galaxias,
mientras que otros las contienen a millares. Lo cual equivale a decir que este
desequilibrio es tan flagrante que ya no permite abrigar ninguna duda; las galaxias no
se distribuyeron al azar por el espacio, sino que una ley de asociación dirigió su
reparto.
Los matemáticos se han esforzado por descubrir esta ley, considerando hasta qué
punto habría que alterar el azar para explicar el hecho de que en las proximidades de
una galaxia, las probabilidades de presencia sean más grandes.
Para esto, han procedido por etapas, exigiendo a las ruletas una primera tirada,
para indicar en principio un punto. Una segunda tirada proporciona una cifra
determinada, indicando el número de galaxias que constituyen un cúmulo y cuyo
centro será dicho punto. Una tercera operación, finalmente, indica la distribución de
las galaxias en el cúmulo.
Así fue como el astrónomo Shane pudo obtener en 1955 unos modelos muy
parecidos a las cartas celestes del Observatorio de Lick.
De este modo se tuvieron los primeros indicios que permitieron reconstruir la
fragmentación de la nube primitiva, a partir del aspecto que ofrece el Universo actual
y a costa de muchísima paciencia.

Una contracción lenta


Al fragmentarse la nebulosa primitiva, pues, nacieron distintas formaciones. Fueron
los primeros objetos del Universo, aplicando el término objeto a cualquier materia
dotada de cierta autonomía, a consecuencia de una vinculación exclusiva entre sus
partes componentes.
Estas distintas formaciones están consolidadas por su propia gravitación. Y
además, la gravitación de los cuerpos exteriores actúa globalmente sobre ellas, de
manera que el astrónomo estudia su movimiento teniendo en cuenta el
desplazamiento del centro. De este modo, y a través de las peripecias de sus sucesivas
transformaciones, las formaciones describirán órbitas y terminarán convirtiéndose en

ebookelo.com - Página 58
satélites unas de otras.
Pero los elementos que constituyen una formación ignoran estos movimientos,
para conocer esencialmente las fuerzas que actúan en el ámbito del objeto, Y
entonces aparece una nueva acción de la gravitación. La gravitación aseguró la
cohesión de la nebulosa; por lo tanto, su papel no será solamente estático.
La gravitación engendra una fuerza de atracción dirigida hacia el centro: por
consiguiente, así que empezó a dibujarse, la formación tuvo tendencia a replegarse
sobre sí misma según un mecanismo que prolongaba la condensación.
Se inicia de esta forma una grandiosa evolución. La gravitación tiende a provocar
la contracción progresiva de esta pregalaxia, pues la materia periférica está atraída
hacia el interior, mientras la masa de la formación aumenta con la materia, que,
esparcida aún por el espacio, tiende a caer bajo los efectos de su gravitación, Y este
doble movimiento tiene por resultado aumentar la densidad de nuestro objeto, cuya
autonomía gravífica se acentuará así por sí misma, pues una densidad más elevada
acarrea un aumento del poder gravífico: la cohesión de la formación aún quedará más
sólidamente asegurada y su contracción se amplificará.
Sin embargo, si tratamos de conocer el ritmo inicial con que se desarrolla
semejante movimiento, nos sorprenderá su lentitud casi increíble.
No obstante, la razón de esto es muy sencilla. Como hemos dicho, la cohesión se
estudia con las velocidades de escape. En cambio, para apreciar la concentración de
un objeto gaseoso hay que volver a la gravedad, que condiciona la velocidad de caída
de los cuerpos. Y como sabemos, las velocidades de escape pueden ser elevadas en el
caso de formaciones gaseosas de muy poca densidad, si son suficientemente vastas.
Pero se caracterizan por gravedades insignificantes.
Por ejemplo, imaginemos una formación cuya masa sea 300 000 millones de
veces la de nuestro Sol y que se presente bajo la forma de una esfera en un radio de
250 000 años luz.
El cálculo le asigna una velocidad de escape próxima a los 100 km/s, que
garantiza perfectamente su autonomía.
En cambio, podemos calcular que en su superficie la gravedad será inferior a una
milésima de la milmillonésima parte de la gravedad terrestre (10−12 g). Las partículas
que ocupasen las regiones periféricas «caerían» con extremada lentitud: durante el
primer día de caída, solamente recorrerán 3 cm en dirección al centro, o sea, una
distancia irrisoria teniendo en cuenta las dimensiones de la nebulosa. Aunque este
proceso se desarrollase sin trabas, el radio de nuestra formación no habría disminuido
ni 20% en cien millones de años.
Tal es la extraordinaria majestad de un fenómeno para el que un millón de años
—período enorme a escala humana— es algo irrisorio. Sin embargo, el millón de
años es la unidad de tiempo apropiada para seguir la evolución del objeto que para
nosotros aún no es más que una galaxia en potencia.
Pero precisamente a causa de su lentitud, esta contracción no puede considerarse

ebookelo.com - Página 59
centrípeta: la materia no se precipita hacia el interior, pues la atracción que
experimenta tiene únicamente por efecto provocar un movimiento de conjunto de las
partículas que parecerá casi insignificante con respecto a la velocidad de agitación, de
manera que la contracción constituirá un telón de fondo y ambos fenómenos se
combinarán para dar a la formación un aspecto que irá esbozándose paulatinamente.

3.— Hacia la protoestrella


La evolución de la formación aludida es lentísima. Sin embargo, su contracción
general tiene una consecuencia: aumenta progresivamente su densidad.
Y esta situación tendrá por sí misma una repercusión directa, pues existe, como
sabemos, una relación entre la densidad de un gas difundido por el espacio y la
dimensión de los objetos que, en su seno, pueden aspirar a una cohesión a causa de su
gravitación intrínseca.
Cuando la formación adquirió su autonomía, separándose de la nube principal,
constituía el objeto tipo cuya talla correspondía a la densidad de la capa de hidrógeno
en la que se originó. Pero a medida que su densidad aumente, el grado de autonomía
disminuirá.
Esto equivale a decir que al contraerse, la nebulosa se convierte en el lugar más
apropiado para que se registren «condensaciones» gravíficas, que tenderán a
manifestarse en sus distintas partes. Y al aumentar aún más la densidad, sectores
enteros podrán convertirse en otros tantos candidatos a la autonomía. Así se inicia
una reacción en cadena y los fenómenos gravíficos engendran un verdadero mundo
de muñecas japonesas. Aparecen en la formación nubes de densidad apreciable, que
se desplazan creando corrientes. Terminarán interpenetrándose y creando torbellinos.
Al aumentar la densidad, las partículas acaban por constituir ovillos que la
materia ya no puede atravesar libremente y entonces se produce un cambio
importante.
La formación primitiva ofrecía espacios tan grandes a las partículas, aisladas o en
forma de átomos de hidrógeno, que las mismas circulaban sin obstáculos, como
automóviles en una red de carreteras en la que hubiese muy pocos vehículos: esto
permitiría que los coches cruzasen las intersecciones sin reducir siquiera la velocidad.
Pero cuando la circulación se hace más densa, los embotellamientos obligan a los
vehículos a disminuir su marcha en las zonas congestionadas, donde terminan
acumulándose. Y cuando se llega a la etapa del embotellamiento, la densidad

ebookelo.com - Página 60
aumenta vertiginosamente, pues los nuevos vehículos quedan prisioneros de la
maraña.
Así, cuando se alcanza una densidad suficiente, aparecen bolas en el corazón de la
nebulosa, en las que la contracción actuará en menor escala.
Y con ellas nace el concepto de la temperatura, pues se puede invocar a la
velocidad relativa media de los protones. Si ésta es de 1 km/s, el hidrógeno estará
ipso facto a una temperatura de 150 K, y se calcula que para esta temperatura, si la
densidad alcanza solamente 30 protones por cm3, la gravitación asegurará la cohesión
de una esfera que tenga una masa mil veces superior a la del Sol. Para 1000 átomos
por cm3, bastarán cien masas solares y solamente harán falta diez cuando la densidad
alcance 10 000 átomos por cm3.

Hacia las protoestrellas


En el terreno «fértil» de la nebulosa, un nuevo fenómeno se sobrepone entonces a su
lentísima evolución. En las pelotas que aparecen aquí y allá, actúan las fuerzas de
gravitación a fin de provocar una contracción.
Y cuanto mayor sea la densidad de una población, más elevada será la gravedad
que origine y, por lo tanto, más enérgica su contracción.
La consecuencia resultará entonces fatal. La formación en contracción lentísima
será la sede de regiones que se contraerán deprisa y en cuyo interior habrá sectores
que se contraerán todavía con mucha mayor rapidez. Este último fenómeno terminará
por imponerse, aspirando en cierto modo la materia de la nebulosa. O sea, que el
hidrógeno se condensará en bolas cuya contracción se autoacelerará y que ya
podemos denominar protoestrellas: ni siquiera harán falta unos cuantos millones de
años para que su contracción alcance un ritmo vertiginoso, pues las bolas, cada vez
más densas, se enriquecerán con una aportación progresivamente importante de
materia captada al medio ambiente.
¿Hasta dónde llegará este proceso?
Adquirirá una amplitud extraordinaria. En los medios fértiles de la formación —
que ahora ya merecerá el nombre de galaxia—, hemos mencionado la presencia de
unas docenas de átomos por centímetro cúbico, pero en estas bolas en contracción,
los habrá a millares, a millones y a billones por la misma unidad de espacio.
Al tener mayor densidad, estas bolas verán aumentar su fuerza de gravitación y,

ebookelo.com - Página 61
por lo tanto, atraerán con más energía al hidrógeno del medio ambiente, adquiriendo
una masa más importante mientras su contracción se acentúa constantemente.
Al llegar a esta etapa aparecerán los fenómenos decisivos en la evolución de la
materia, al surgir el fenómeno estelar.

ebookelo.com - Página 62
4

Se encienden las estrellas


La continuación de estos acontecimientos se resume en una pregunta: ¿Qué sucede en
una bola de hidrógeno sometida a una contracción cada vez más energética?
Su temperatura aumenta: a medida que se eleva la densidad, crece la velocidad de
llegada de la materia exterior y la caída hacia las regiones centrales se precipita. Las
colisiones aisladas se multiplican, a medida que el medio se hace más denso. Así, la
energía gravífica se convierte en energía calorífica. Al continuar elevándose la
temperatura, la bola en contracción se volverá luminosa. ¿Dará origen este proceso a
una estrella?
Desde hace un siglo nos planteamos esta pregunta. Hace cien años, las distancias
de las estrellas empezaron a ser conocidas y se trataba de explicar la fantástica
energía que irradiaban. Se vislumbraba ya la vida de una estrella, desde su nacimiento
a su muerte, como una inmensa contracción, y una explicación se ofreció a los
investigadores: esta contracción era tal vez la causa de la radiación.
Esta hipótesis fue expuesta por Helmholtz, quien se lanzó al asalto del cielo
armado con su física mecánica.
Por desgracia, el cálculo aportó un resultado decepcionante. Admitiendo
semejante fuente de energía, la irradiación solamente hubiera durado un tiempo
irrisorio: unos cuantos millones de años a lo sumo. A la escala cósmica, esto sería un
fuego de virutas, pues la vida de las estrellás se cifra en miles de millones de años.
Sin embargo, este fuego de virutas representa un papel primordial. Permitirá la
entrada en escena del gran protagonista de la actividad estelar: la energía nuclear.
Aparecerán fenómenos de una naturaleza completamente nueva. Después de la
organización topológica provocada por la gravitación, esta fuerza preludia la
conquista de los elementos. Se iniciará con la fusión del hidrógeno y el nacimiento de
los primeros núcleos compuestos.

La energía nuclear
¿Qué es la energía nuclear?
En el siglo XX, este término es una innovación. En realidad, la energía nuclear es

ebookelo.com - Página 63
el corolario lógico del descubrimiento del neutrón. Después de comprender en 1933
que los núcleos atómicos están compuestos de neutrones y protones, el físico no sabe
cómo explicar su cohesión.
Por aquel entonces, efectivamente, no conoce más que dos fuerzas: la gravitación
y la electricidad. Pero la gravitación es una fuerza astronómica que sólo se pone de
manifiesto en presencia de masas considerables: en un núcleo, la gravitación de las
partículas es ínfima. Por lo que a las fuerzas eléctricas se refiere, actúan solamente
sobre partículas cargadas. Por lo tanto, no tienen el menor efecto sobre los neutrones.
Y por lo que toca a los protones, la situación aún es peor, pues en este caso las
fuerzas eléctricas ejercen repulsión. ¡Así, los neutrones no deberían tener ningún
motivo para permanecer en los núcleos, mientras que los protones deberían tener sus
buenas razones para no quedarse en ellos! La verdad es que la existencia de edificios
compuestos de neutrones y protones sólo podría concebirse admitiendo que exista
una fuerza de atracción entre todas estas partículas tomadas dos a dos.
Este acontecimiento es memorable y hace época en la historia de la física. Induce
a que se tome en consideración una fuerza de una naturaleza nueva, cuya realidad ya
no podrá ponerse en duda y cuyas características tratan de esclarecer Wigner, Bartlett,
Heisenberg, Majorana. Yukawa sugiere la función de donde puede derivarse y toda la
mecánica de los núcleos será revisada a la luz de esta fuerza o energía nuclear. Sin
embargo, este término se presta a malentendidos. Esta energía asegura efectivamente
la cohesión de los núcleos y «actúa» cuando éstos sufren modificaciones. Sin
embargo, no está unida al núcleo, sino a las partículas que lo componen.
Y si volvemos al Universo primitivo, deberemos ver la situación desde este
ángulo, pues los núcleos aún no existen. No hay más que partículas, basándose en las
cuales la energía nuclear engendrará precisamente a los núcleos, provocando una
selección fundamental.
Téngase en cuenta, en efecto, que esta energía nuclear únicamente actúa sobre las
partículas pesadas, haciendo caso omiso de los electrones, de manera que durante
miles de millones de años, éstos permanecerán al margen de la gran evolución
cósmica, figurando en el Universo únicamente como partículas errantes, que sólo
participarán de manera excepcional en las reacciones nucleares. Los electrones, desde
luego, «neutralizarán» de manera permanente a la materia. En las zonas tranquilas del
espacio, girarán alrededor de los protones o los núcleos. En el seno de las estrellas,
vagarán desordenadamente, pero a causa de las atracciones y repulsiones eléctricas,
cada volumen contendrá siempre aproximadamente tantos electrones como protones:
así, y a gran escala la materia será neutra o, al menos, los campos eléctricos serán
débiles.
En todo caso, el electrón será el perro fiel que siga al protón sin representar
apenas ningún papel. Haremos caso omiso de su existencia, prácticamente, durante
los grandes capítulos dedicados al nacimiento de los elementos.

ebookelo.com - Página 64
Victoria sobre la electricidad
Por lo tanto, la energía nuclear actuará sobre los protones del Universo primitivo.
Será una fuerza atractiva.
Al ser portadores de cargas eléctricas del mismo signo, dos protones tendrán
tendencia a separarse.
Así ¿qué fuerza triunfará?
A decir verdad, éste es el lugar de extendernos en una disquisición harto sutil.
Cuando dos protones estén casi en contacto, no es posible la duda: triunfará la
energía nuclear, pues su intensidad es elevadísima con relación a la energía eléctrica.
Sin embargo, la energía nuclear ofrece una característica particularísima: su radio
de acción es extremadamente reducido.
La ley de la electricidad es la misma de la gravitación: la energía disminuye con
el cuadrado de la distancia, o sea, que a distancias 5 ó 10 veces mayores, se hará 25 ó
100 veces menor. La energía eléctrica, pues, disminuye con mucha rapidez, pero en
teoría nunca llega a ser nula, pues la disminución debe considerarse regular. Con la
energía nuclear sucede lo contrario: su intensidad es considerable a distancias
cortísimas —en la práctica, hasta 2 milmillonésimas de micrón—, pero cesa
completamente más allá de este límite, obedeciendo así a una ley matemática en
extremo desconcertante que constituye un dato más que añadir al estudio de las
propiedades fundamentales de las partículas.
Según hemos precisado, toda la evolución del Universo dependerá de las
características de las partículas elementales. Ya hemos atribuido las condensaciones
del Universo primitivo a sus masas.
La energía nuclear es local: en el marco del Universo primitivo, interviene
únicamente cuando encuentra protones próximos. En la nebulosa primordial, los
protones se hallaban sin duda demasiado dispersos para que pudiesen encontrarse.
Pero incluso cuando la gravitación concentró al hidrógeno en bolas, la repulsión
eléctrica de los protones se opuso a su acercamiento. Esto impidió actuar a la energía
nuclear, incluso a las temperaturas en que era posible la conversión del hidrógeno en
plasma.
No olvidemos que la trayectoria de un protón evita a los demás protones, a causa
de la energía eléctrica. Incluso en el caso particular en que su velocidad relativa haga
que un protón se dirija en línea recta hacia otro, no habrá choque, pues la velocidad
disminuirá, frenada por la electricidad y después el protón emprenderá el camino de
regreso, como un móvil que vuelve a descender después de haber ascendido por una
pendiente.
Ésta sería la imagen que tendríamos de los fenómenos, si nos fuese posible por un
momento meternos en un protón. Podemos compararlo a una bola que rueda por un
terreno accidentado, en el que los demás protones están rodeados de montañas que su
energía no le permite franquear.

ebookelo.com - Página 65
Al menos, ésta es la situación existente en el caso de temperaturas cifradas en
millares o incluso en docenas de millares de grados.
Pero las condiciones cambian cuando, en el corazón de la protoestrella, la
temperatura alcanza un valor elevado. Es entonces cuando descubrimos el papel
decisivo representado por el fuego de virutas de la contracción.
La temperatura de un gas, en efecto, indica la energía de sus partículas y, si es
suficientemente elevada, los protones se acercan hasta distancias que permiten ejercer
su poderoso efecto de atracción a las energías nucleares. En la comparación anterior,
debemos considerar a la montaña que protege a cada protón como un volcán: así que
un protón incidente llegue al cono interior, «caerá» realmente, adquiriendo una
energía de caída considerable. La energía nuclear «actúa», proporcionando a nuestras
partículas una fuerza de unión de la que nacerá el primer conjunto complejo.
Así aparece una reacción nuclear de fusión en una masa de hidrógeno cuando ésta
alcanza una temperatura de millones de grados. Pero lo importante es observar que
esta reacción se realiza espontáneamente. Por lo tanto, será natural en un momento
dado de la evolución de la protoestrella, en el que una elevación regular de la
temperatura será la consecuencia del proceso de contracción; las partículas adquirirán
velocidades cada vez mayores en las regiones centrales. De esta forma, llegará un
momento en que se iniciarán reacciones nucleares. Entonces el objeto cambiará de
naturaleza, convirtiéndose en una auténtica estrella.

La cadena de las reacciones termonucleares


La fusión de los protones representa un punto de arranque; ya es un fenómeno de
cierta complejidad, pues cuando las partículas se encuentren a una distancia que
permita a la energía nuclear unirlas, el resultado no será un par de protones.
Incluso en este caso, el destino del cosmos depende de la mecánica de las
partículas, que nos enseña que un edificio formado por dos protones no puede ser
estable. Sufrirá una transformación casi instantánea: uno de los protones se convertirá
en neutrón, mientras serán expulsados un electrón positivo (que se aniquilará al
chocar con el primer electrón negativo que encuentre) y un neutrino (que se escapará
de la estrella)[22].
Finalmente, debemos tener en cuenta que la reunión de dos protones crea la
pareja protón-neutrón, comúnmente llamada deuterón, o núcleo del deuterio.
Es un «isótopo» del hidrógeno. Los físicos llaman isótopos, como sabe el lector, a

ebookelo.com - Página 66
los núcleos que poseen el mismo número de protones, unidos a un número distinto de
neutrones. Combinado con el oxígeno, el deuterio da el agua pesada. En la actualidad,
todas las aguas terrestres contienen una pequeña cantidad de agua pesada, resto del
acontecimiento nuclear número uno, que aconteció en la época en que el cosmos
primitivo vio fusionar, a sus protones para convertirse en deuterones.
Ésta es, en efecto, la primera actividad cósmica nuclear: en las entrañas de una
estrella joven, el hidrógeno empieza a convertirse en deuterio.
Debemos percatarnos, sin embargo, de la extraordinaria lentitud de esta reacción,
estudiada por Bethe y Crichfield: suponiendo una temperatura de diez millones de
grados, estos físicos calculan su tiempo teórico en 40 000 millones de años. Este
plazo fabuloso nos demuestra cuán estériles son los intentos por explotar
industrialmente esta fusión. (Aunque en realidad, las bombas H y las pilas
termonucleares utilizan como materia prima no el hidrógeno ordinario, sino sus
isótopos). A la escala cósmica, esta lentitud de la transmutación del hidrógeno en
deuterio será una garantía de la longevidad de las estrellas, en las que sucederán otras
reacciones nucleares.

Hacia el helio
El deuterio, en efecto, es una materia prima nuclear mucho más activa que el
hidrógeno: bastan unos cuantos millones de grados para asegurar su fusión casi
inmediata y la unión de dos deuterones dará origen a un bloque de 2 protones y 2
neutrones, que será el helión o núcleo del helio. (Ésta es precisamente la reacción que
se trata de explotar en las técnicas de la energía H).
Pero los deuterones que aparecen en una estrella joven no se someten a este
proceso. Teniendo en cuenta la parsimonia con que han sido producidos, tienen
probabilidades infinitamente mayores de encontrar no a sus semejantes sino a
protones, que los acapararán en cuanto aparezcan. A temperaturas elevadas, los
protones penetrarán en los deuterones, produciendo en este caso una reacción nuclear
muy rápida. ¡A diez millones de grados, su tiempo medio será únicamente de
veinticinco segundos! Dicho de otro modo, el deuterio no tiene tiempo de acumularse
en el corazón de una estrella, pues resulta consumido casi en el mismo instante de su
creación, dando origen a un núcleo de helio 3[E1], o sea, un edificio que posee 2
protones y 1 neutrón.
Este helio 3 fue durante mucho tiempo un desconocido para el físico. Hace veinte

ebookelo.com - Página 67
años, su existencia ni siquiera se sospechaba, y se daba al helio, conocido únicamente
bajo la forma de helio 4, como ejemplo de elemento desprovisto de isótopo. Desde
entonces, se ha descubierto que el 10% de los núcleos de helio interplanetario
parecen ser en realidad helio 3.
Su actividad nuclear es muy característica: el helio 3, prácticamente, no puede
actuar sobre los protones ni sobre los deuterotones. En cambio reacciona sobre sí
mismo, de manera que asistimos a una nueva fusión: el encuentro de los núcleos de
helio 3 se traducirá por la aparición de un núcleo de helio 4 (helio ordinario), o
helión, con expulsión de 2 protones libres.

9. La fusión del hidrógeno


Esquema de la reacción termonuclear fundamental: dos pares de protones engendran dos deuterones que, por
captura de nuevos protones, se convierten a su vez en dos núcleos de helio 3. De la fusión de estos últimos
nace el helio 4, mientras se liberan dos protones.

Esta última reacción se efectúa también a 10 000 000 de grados y dura


aproximadamente la misma cifra de años. A la escala cósmica, esto es muy poco
comparado con la fusión de hidrógeno en deuterio, de manera que el ciclo termina
con el primer acto y podrá decirse que lo gobierna todo: una vez formado, el deuterio
se convierte en un helio 3, que se transforma a su vez en helio 4.

ebookelo.com - Página 68
Éste es el sentido de la obra en tres actos que, cuando la estrella haya alcanzado
su régimen permanente, permitirá que su hidrógeno se convierta lentamente en helio.

La energía liberada
Esta transformación se inició con la contracción de la protoestrella y se mantendrá a
sí misma mediante la energía que crea. A cada etapa, en efecto, la acción nuclear se
caracteriza por una liberación de energía.
Con excepción de su desesperante lentitud, el primer acto es el menos interesante:
la formación de un deuterón solamente proporciona 0,16 MeV[23]. Pero en el segundo
acto, su transformación en helio 3 libera 5,56 MeV. Así, la creación de la pareja de
helio 3 que permitirá representar el tercer acto, ya nos asegura 11,32 MeV. Y este
tercer acto es el más energético, pues la fusión de dos núcleos de helio 3 libera
12,85 MeV.
Así, pues, este ciclo proporciona aproximadamente 24 MeV cada vez que 4
protones se convierten en 1 helión.
En realidad, este esquema no es el único posible. Las acciones y reacciones
mutuas que se desarrollan en el interior de una estrella pronto adquirirán un carácter
de extremada complejidad y sería pueril querer explicar el funcionamiento de una
estrella.
Téngase en cuenta que si los núcleos de helio 3 se fusionan, actúan igualmente
sobre el helio 4, y las posibilidades de esta relación serán tanto mayores cuanto más
cantidad exista de helio 4. El drama se convierte entonces en una obra en cinco actos:
con el helio 4, el helio 3 engendra berilio, que se convierte en litio por absorción de
un electrón. Y el litio, al captar un protón, da nacimiento a dos heliones.
Podemos imaginar también una variante, pues el berilio puede captar un protón.
Se convierte entonces en boro y este elemento sufre una transformación, de la que
nacen dos heliones.
En todos estos casos, la materia prima y el resultado son los mismos: las
reacciones nucleares consumen hidrógeno para crear en definitiva al helio. Pero la
fabricación de productos intermedios distintos cambia el comportamiento de la
estrella. Y además, la energía creada en ella no es idéntica, pues según el proceso, una
proporción variable resulta substraída al astro por esos elfos particulares que son los
neutrinos, creados por las diferentes reacciones. Si se suprime la energía que éstos
evacúan directamente fuera de la estrella, resultará que la conversión de 4 protones en

ebookelo.com - Página 69
1 helión proporciona a la masa estelar una energía de 20 a 25 MeV.

Automantenimiento de las fusiones


Sea ello lo que fuere, se trata de un valor enorme; significa que la fusión de cada
gramo de hidrógeno libera de 115 000 a 145 000 millones de calorías. Recuérdese
que la combustión de 1 gramo de hidrógeno —es decir, su combinación química con
8 gramos de oxígeno— únicamente proporciona 29 000 calorías.
Así se comprenderá lo que puede esperarse de la fusión del hidrógeno en el
corazón de una estrella joven, incluso a un ritmo lentísimo.
El fuego de virutas de la contracción nuclear representó el papel de cerilla para
desencadenar las reacciones termonucleares; por lo que respecta al astro, que
funcionará durante muchísimo tiempo, hará el papel de motor de arranque. Pero una
vez iniciadas las reacciones la energía que éstas liberan trastorna el planteamiento del
problema: en una masa de dimensiones suficientes, esta energía mantendrá la
temperatura propia para que continúen efectuándose las fusiones. Entonces podrá
cesar la contracción, pues las reacciones termonucleares ya habrán asegurado las
condiciones necesarias para su propia perpetuación.

La masa crítica de una estrella


Para que esto suceda, es necesario que se haya formado una masa muy importante,
pues así lo exigen diversas consideraciones térmicas imperativas.
No es posible asignar una «temperatura inicial» propiamente dicha a las
reacciones termonucleares, pues su velocidad aumenta únicamente con la
temperatura. Sin embargo, hay que admitir que no adquieren amplitud alguna si no
disponen de una temperatura de millones de grados.
Resulta inconcebible imaginar que semejante temperatura pueda mantenerse en la

ebookelo.com - Página 70
superficie de un astro. A causa de la radiación intensa que el mismo crearía, el calor
se disiparía con rapidez por el espacio, pues según la ley de Stefan, la disipación de
energía por una superficie «perfectamente emisiva», crece con la cuarta potencia de
la temperatura absoluta. Y en estas condiciones la potencia irradiada ascendería a
miles de millones de kilovatios por centímetro cuadrado a 1 000 000 de grados. A
10 000 000 de grados, se cifraría en decenas de miles de millones de kilovatios.
Desde luego, los físicos contemporáneos saben —por las explosiones atómicas—
que la ley de Stefan tiene que revisarse, a temperaturas elevadas. Pero ello no impide
que la potencia disipada se sitúe de todos modos a niveles elevadísimos, aunque sea
imposible que la superficie de una estrella se halle a una temperatura de varios
millones de grados.
En realidad, la temperatura propia de las reacciones termonucleares quedará
asegurada en una estrella, si una masa lo bastante importante desempeña el cometido
de amortiguador térmico entre un núcleo activo, a millones de grados, y una zona
superficial a varios miles de grados y que irradia moderadamente la energía, a fin de
que su disipación en el espacio corresponda al ritmo de su producción en el interior
de la estrella.
Al llegar este momento se alcanza un equilibrio energético. De su estado
transitorio de contracción, la estrella pasa a un régimen permanente, que podrá
subsistir durante miles de millones de años. Y este equilibrio térmico se
complementará con un equilibrio mecánico, que significará una disminución regular
de la presión entre el núcleo y la superficie. La presión del plasma que constituye la
estrella actúa a la manera de un resorte, que contrarresta la gravitación. La estrella
adquiere entonces una estructura en la que el equilibrio de cada una de sus capas está
asegurado, bajo los efectos contrarios de la presión y la gravedad.
Y cuando la masa sea mayor, no solamente el aislamiento térmico del astro estará
mejor asegurado, sino que la relación entre la superficie y el volumen disminuirá.
Recuérdese que las pérdidas de energía son proporcionales a la superficie, mientras
que las regiones productoras se desarrollan con el volumen.
Finalmente, podremos hablar de una masa estelar mínima, que asegura el
mantenimiento de reacciones termonucleares a las zonas centrales. El cálculo nos
enseña que para una masa de 1029 kg (1/20 de la masa del Sol), se desarrollarán con
extremada lentitud. Así puede definirse la gama de las estrellas más ligeras.
En la práctica, esta masa de funcionamiento quedará ampliamente rebasada por
las estrellas primarias, que nacen precisamente en las regiones fértiles de inmensas
nebulosas. Pero esto aún no es todo: una vez encendida, la estrella puede continuar
adquiriendo materia, atraída ésta por su campo gravitatorio, lo que provoca una
intensificación de su actividad termonuclear.
¿Hasta dónde crecerá esta masa? Una estrella está obligada a tener una masa
mínima para funcionar. También tropieza con un límite superior, igualmente impuesto
por factores mecánicos y nucleares a la vez.

ebookelo.com - Página 71
El efecto de bañera
En primer lugar, la masa quedará limitada a causa de la rotación, pues la contracción
de una estrella joven se traduce siempre por la aparición de un movimiento de
rotación.
La razón es fácil de comprender. Basta para ello examinar un hecho de la vida
corriente. Una bañera contiene agua aparentemente inmóvil. Destapamos el conducto
de desagüe para que empiece a vaciarse y, sean cuales fueren las condiciones
iniciales, comprobamos que el líquido forma un remolino al salir por aquél.
Esto es una consecuencia de lo que los físicos llaman «la conservación del
momento cinético». El impulso o momento cinético de una masa en rotación
alrededor de un eje indica el producto de su velocidad por su distancia a dicho eje. Es
constante en ausencia de intervenciones exteriores. Esto quiere decir que si la
distancia disminuye, la velocidad aumenta, como indica la técnica de los patinadores
que, al girar sobre sí mismos, pueden aumentar su velocidad pegando los brazos al
cuerpo.
Y esta aceleración alcanzará una amplitud considerable cuando la contracción
adquiera grandes proporciones: como la inmovilidad absoluta no existe, siempre
aparecerá una rotación que permitirá una contracción suficiente. Y esto es
precisamente lo que ocurre al formarse una estrella en una zona agitada, a partir de
una bola de hidrógeno cuyo radio puede cifrarse en meses luz, pero que al final de su
contracción será únicamente de algunos segundos luz, o sea, que el coeficiente de
contracción se elevará a varios millones. Aunque la bola inicial girase muy
lentamente (menos de una milésima de vuelta al año), podemos deducir que al
término de su contracción, la velocidad teórica será de una vuelta cada pocas horas.
Así la materia de una protoestrella en contracción se comportará como el agua
que sale por el desagüe de una bañera. La rotación de las estrellas jóvenes dependerá
de la agitación local de la nube que las ha engendrado y será siempre apreciable. Y
resulta característico que las observaciones hechas en estrellas jóvenes revelen la
existencia de velocidades de rotación elevadas. Los astrónomos ven en estas
velocidades una prueba indirecta del nacimiento de las estrellas en el seno de medios
«turbulentos».
Esta rotación de una estrella en contracción origina una fuerza centrífuga
considerable, cuya acción puede calcularse. En el caso de una estrella joven, por
ejemplo, que tuviese las características de nuestro Sol y girase sobre sí misma en dos
horas cuarenta y seis minutos, podemos calcular que la fuerza centrífuga equilibraría
a la gravedad en el ecuador. En este momento, el equilibrio interno de la estrella se
alteraría y el astro sufriría una gigantesca hemorragia por su ecuador.
Esto nos permite deducir que, desde el punto de vista mecánico, una masa estelar
no puede crecer indefinidamente, pues tarde o temprano llegaría un momento en que
la fuerza centrífuga contrarrestaría la gravitación en el ecuador.

ebookelo.com - Página 72
Al hallarse hundida en un medio fértil, la estrella podrá continuar atrayendo
materia por sus polos y expulsándola por el ecuador, a la mañera de una verdadera
rueda de fuegos de artificio. Hay que fijarse en este mecanismo, pues ya nos permite
entrever por qué las estrellas mostrarán tendencia a hallarse rodeadas de discos…

La presión de radiación
Existe otro factor que tiende a expulsar al espacio la materia de la estrella: su propia
radiación. Cualquier clase de radiación, en efecto, ejerce una presión sobre las
superficies que encuentra a su paso.
Es así como el físico pone de manifiesto la presión de radiación del Sol. Para ello
emplea unos pequeños molinetes llamados radiómetros, provistos de aspas con una
cara negra que absorbe la radiación solar y otra cara, brillante, que la refleja. A causa
de esta disimetría, el molinete gira al hallarse expuesto a la luz.
Se atribuye a esta presión de radiación el hecho de que las colas de los cometas
estén orientadas en dirección opuesta al Sol.
A decir verdad, esta presión es debilísima en el sistema solar. Su efecto sobre una
vela apenas sería sensible; sin embargo, la alejaría lentamente del Sol (se ha
propuesto este procedimiento para navegar con baratura por los espacios
interplanetarios). Y aunque nos aproximásemos a 500 000 km del astro central, la
presión de radiación no pasaría de ser una brisa ligera, que a lo sumo se transformaría
en un vientecillo en la misma atmósfera del Sol.
Pero en el caso de una estrella mucho más luminosa, las condiciones cambian y la
presión de radiación puede originar un verdadero huracán que impulse hacia el
espacio la materia de las capas superficiales del astro.
Por ello, cuando se enciende una estrella debemos suponer que, dejando aparte
los problemas de rotación, la radiación acabaría por oponerse a la llegada de materia
exterior, e incluso si la masa agrupada fuese demasiado grande, una parte de la misma
sería expulsada.
Estos dos factores que limitan la masa no actúan de la misma manera. La fuerza
centrífuga tiene esencialmente un carácter ecuatorial: es cierto que limita la masa de
la estrella, pero a costa de una corriente entre los polos y el ecuador, que puede ser
continua. La presión de radiación, en cambio, es «isotrópica»: si una estrella no
girase, la radiación ejercería su efecto repulsivo de la misma manera en todas
direcciones.

ebookelo.com - Página 73
Teniendo en cuenta esta diferencia, podemos sacar la conclusión de que, según la
importancia relativa de la rotación, las estructuras de las zonas estelares no serán las
mismas, observación que adquirirá toda su importancia con la evolución de la materia
dejada alrededor de las estrellas.
Tengamos en cuenta de momento que los efectos conjugados de esta presión de
radiación y de la fuerza centrífuga, impedirán prácticamente la existencia de estrellas
cuya masa sea superior a 1032 kg.

Calibre de las estrellas


Las estrellas nos aparecerán, pues, como objetos calibrados, cuyas masas se hallarán
prácticamente comprendidas entre 1029 y 1032 kg. Este último límite no es
imperativo, desde luego, pero sólo le rebasan algunas estrellas muy inestables. En
realidad, el cálculo de las masas estelares revelará la existencia de una notable
concentración en los alrededores inmediatos de la masa solar, cuyo valor es muy
próximo a 2·1030 kg.
Esta situación permite que las estrellas se distribuyan en una gama
extraordinariamente estrecha en la escala de las masas. Nos daremos plena cuenta de
ello mediante una graduación logarítmica.
Nuestro Universo, efectivamente, se caracteriza por una gran dispersión en las
masas de sus objetos: esto se debe al número enorme de partículas que lo constituyen,
cuyas masas están representadas por números extraordinariamente pequeños,
calculados con nuestras unidades ordinarias.
Por ejemplo, la masa de un protón es de 1,67·10−27 kg, y la de un electrón de
9,11·10−31 kg. Estos valores, evidentemente, no nos dicen nada y aun los
comprenderíamos menos tratando de explicarlos mediante representaciones
decimales, que harían aparecer 26 ó 30 ceros después de la coma. Por esto hay que
recurrir, como sabemos, a una unidad atómica apropiada.
En cambio, para el mundo de las estrellas, es natural que se tome como referencia
la masa solar.
Pero para comparar unas masas cuyo orden de magnitud no sea el mismo, el
verdadero problema consiste en situar dichos órdenes de magnitud en relación unos
con otros. De aquí el interés de una escala que no tenga en consideración unos
valores como 10−27 ó 1029, sino sencillamente −27 ó +29; es decir, lo que los

ebookelo.com - Página 74
matemáticos llaman el logaritmo decimal del número.
En esta escala, en que el 0 corresponde por definición a 1 kg, veremos a los
asteroides y los planetas extendidos en amplias fajas, prácticamente entre el 0 y el 29.
Los cúmulos globulares y las galaxias se sitúan por encima del 35. Las estrellas, en
cambio, se concentran en las inmediaciones del 30.
Así podremos ver en el fenómeno estrella un verdadero «fenómeno trampa». En
los procesos de contracción, una masa comprendida entre «la banda 29-32» estaba
inevitablemente llamada a dar origen a un reactor termonuclear. Y el resultado de ello
es un seguro de paro en la escala de las densidades.
La densidad de una estrella es siempre elevada respecto al medio interestelar, en
el que se cuentan solamente unos cuantos átomos o decenas de átomos por centímetro
cúbico. Pero en el Sol su número es de 1027 e incluso más. En realidad, las
densidades estelares son muy variables: la velocidad de escape, en efecto, se divide
solamente por 10 para una densidad un millón de veces menor. De ello se deduce que
en el interior de una estrella ordinaria, las partículas distarán mucho de estar juntas.
Podríamos decir que incluso a este grado de concentración, ocupan un volumen casi
despreciable con relación al vacío que dejan a su alrededor, pero la presión reinante
en la estrella bloquea la contracción. Esta presión, sin embargo, es una consecuencia
de la temperatura, que está mantenida por reacciones termonucleares.
A falta de estas reacciones; es decir, en el caso de una masa inferior al nivel
estelar, la trampa se frustra en ambos casos.
Cuando ha podido asegurarse la reunión de semejante masa y si nada contrarresta
su contracción gravitatoria, podrá darnos los «objetos hiperdensos» de
Ambartsumian. Estos objetos se caracterizan por un estado de la materia en que las
partículas están casi juntas, pues el citado astrofísico admitió la posible existencia de
un magma compacto de electrones y protones, cuya densidad sería diez millones de
veces superior a la del agua.
Aún se puede ir más lejos e imaginar que bajo una presión suficiente, los
electrones pueden ser «devorados» por los protones, dando origen a una materia
neutrónica. Y el mismo Ambartsumian sugiere una posible fusión de los neutrones en
hiperones, considerando que comparada con el agua, la densidad de un objeto
hipérico podría ser cien billones de veces superior…
Lo expuesto pondrá de relieve la carrera hacia la hiperdensidad, ley común de
todos los grandes objetos celestes, desde el momento en que un factor antagónico no
aparezca para contrarrestar la gravitación. En cuanto el efecto antagónico
desaparezca, la carrera continuará.
En realidad, allí donde existan tales objetos hiperdensos, su elevadísima gravedad
tendría unas consecuencias evidentes: les conferiría un extraordinario poder de
atracción. Sumidos en el seno de una nube de materia, estos objetos representarían el
papel de verdaderos aspiradores, atrayendo la materia con gran energía. En la génesis
de las estrellas, se les podría considerar como «gérmenes» y los astrofísicos admiten

ebookelo.com - Página 75
su aparición espontánea en el interior de las nubes de materia, así que éstas adquieren
cierta densidad. Estos objetos hiperdensos representan callejones sin salida en la
evolución de la materia. En cambio, desempeñarán una misión activa al servir como
puntos de fijación a cuyo alrededor se formarán estrellas, en un medio fértil.

El hombre ve nacer estrellas


De esta forma nace el objeto designado por el hombre con la denominación de
estrella. Su naturaleza intrigó a generaciones enteras de físicos, pues les parecía
inconcebible que existiese una energía capaz de asegurar tan intensa radiación
durante millones de años.
Sólo en fecha muy reciente el hombre pensó en la energía atómica para explicar
las estrellas.
Hay que esperar al año 1915 para encontrar la primera interpretación. Langevin
aplicó la ecuación de Einstein a la fabricación de un átomo de helio a partir de 4
átomos de hidrógeno, y Jean Perrin emitió la hipótesis de que esta transformación
podría ser la causa de las prodigiosas energías estelares. Esto asestó el golpe de
muerte a todo un mundo de leyendas.
En otros tiempos, la estrella era para el poeta un puntito luminoso, un tenue
mensaje de vida sobre la negra bóveda celeste, una lucecita de Navidad. Los
enamorados veían en las constelaciones espléndidos joyeles. En el siglo XX, la estrella
es un reactor termonuclear; la visión de una humanidad primitiva desaparece para
siempre. Pero el poeta de la era atómica no la echa de menos, pues ve un cielo aún
más hermoso y la contemplación de las estrellas nacientes le ofrece un espectáculo
más maravilloso que todas las leyendas.
Pues el hombre puede asistir al nacimiento de una estrella.
Mientras los teóricos se dedicaban pacientemente a reconstruir la génesis de las
estrellas, los astrónomos buscaban con avidez los lugares de la Galaxia donde este
proceso aún continuaba en la actualidad.
Encontraron tres de estas zonas, en las constelaciones de Taurus, el Unicornio y
Orión, pues, por sorprendente que parezca, estas fértiles regiones estaban
concentradas en el mismo lugar del cielo, cerca de la Vía Láctea.

ebookelo.com - Página 76
Las T Tauri
Fue precisamente en la constelación de Taurus donde el astrónomo Joy descubrió en
1945, desde el observatorio de Monte Wilson, unas estrellas todavía en proceso de
contracción, a las que se aplicó el nombre de la más brillante de ellas: T Tauri.

10. Una región fértil en estrellas


En esta región del cielo que agrupa el Unicornio, Orión y el Toro los astrónomos ven nacer estrellas: la flecha
indica particularmente la posición de la capa gaseosa, en la constelación de Orión, donde aún parecen
realizarse condensaciones estelares.

Se trata de estrellas que se encendieron en época reciente y cuyo equilibrio aún no


está asegurado. Las reacciones termonucleares, en efecto, tienen cierta duración en el
tiempo. Entre el momento en que el astro alcanza una temperatura de millones de
grados y aquél en que la energía se libera bajo un régimen permanente, transcurre
cierto tiempo. Y mientras tanto, no se efectúa un equilibrio en el interior de la estrella
entre las fuerzas de contracción (gravitación) y las de expansión (fuerza centrífuga y
presión de radiación). Por consiguiente, el régimen de la estrella será oscilante, pues

ebookelo.com - Página 77
el astro ofrecerá variaciones de brillo características.
A causa de ello, la estrella T Tauri verá su magnitud aparente oscilar entre 9,5 y
13,5. Teniendo en cuenta la distancia, que es de 650 años luz, esto indica, según los
astrofísicos, una luminosidad diez veces superior que en estado de equilibrio.
Asociadas siempre con una materia interestelar muy rica, en la que pueden ser
abundantísimas, las estrellas pulsantes T Tauri se caracterizan por un elevado
contenido en litio, que refleja la juventud de sus procesos nucleares. Y su espectro es
muy característico, a causa de la mezcla de las emisiones procedentes de la estrella
con la luminosidad que la rodea.

Objetos de Herbig-Haro
Existe además, en la constelación del Unicornio, un extraordinario espectáculo que
atrae nuestras miradas: se trata de la formación llamada NGC 2264[24], cuya distancia
puede calcularse en 2000 años luz. Desde hace tiempo se sabía que esta formación
contenía estrellas muy jóvenes. Ahora bien, las observaciones efectuadas han
revelado que NGC 2264 está envuelta en una nube, cuyo diámetro tiene
aproximadamente 50 años luz y en la cual podemos asistir a la creación de nuevas
estrellas.
Los clisés tomados por Minkowski en Monte Palomar parecen mostrar
protoestrellas. Se trata de unas curiosas manchas, cuyo diámetro es solamente de unas
cuantas semanas luz; representan bolas que al parecer han llegado a la etapa de la
contracción que precede inmediatamente a la conversión en fuente luminosa. Estos
objetos fueron estudiados particularmente por dos astrónomos, George Herbig y
Guillermo Haro, y actualmente se les conoce por el nombre de «objetos de Herbig-
Haro».
En la formación NGC 2264, es característico que existan estrellas tipo T Tauri en
las proximidades de los objetos de Herbig-Haro.
Y por último, en Orión existe una nube de materia que representa un plantel de
jóvenes estrellas. Esta región fue estudiada particularmente por Parenago y Herbig.
En 1954, el segundo fue testigo de un fenómeno notable. Vio aparecer literalmente
dos nuevos objetos en la nube de Orión; según Haro, alcanzaron en tres meses la
densidad necesaria para hacer opaca una masa protoestelar.
Las fotografías tomadas con cinco años de intervalo también parecen demostrar
que durante este tiempo, los objetos de Herbig-Haro se convirtieron en estrellas T

ebookelo.com - Página 78
Tauri.
Parece realmente extraordinario que a una distancia inferior al 2% del diámetro
galáctico, el astrónomo haya conseguido descubrir verdaderos laboratorios celestes,
donde se fabrican estrellas. Su estudio es fértil en enseñanzas. En particular, el
astrónomo puede comprobar que las estrellas jóvenes se hallan animadas de
velocidades de rotación elevadas…

ebookelo.com - Página 79
5

Cibernética contra termodinámica


Por consiguiente, la gravitación encontró el terreno propicio para una nueva acción en
las galaxias que había generado, amasando gigantescas bolas de hidrógeno,
convertidas en estrellas por la fuerza nuclear. Así surgieron las fábricas donde se
elaboraría la materia del cosmos. Estos astros se hallaban dispuestos a funcionar
durante millones de años.
Mejor aún: estaban calibrados, pues el proceso de su formación reguló la masa. Y
a este proceso se añadió una sorprendente organización térmica, con la aparición de
«fuentes calientes». En el cielo negro, las estrellas se convierten en otros tantos
braseros, cuya superficie dispensará luz y calor.
Mediante la acción de mecanismos naturales, pues, la materia inicia una
sorprendente estructuración. Y no se trata más que de un comienzo. Otros procesos se
dibujarán, autores de nuevas diferenciaciones. Así el Universo se organizará cada vez
más sutilmente.
Pero semejante evolución ¿no constituye un reto a los mismos principios de la
física?
Debemos plantearnos aquí esta cuestión, pues hasta ayer mismo, la ciencia estaba
dominada por el principio riguroso de una fatal «degradación» de la energía. No
solamente este principio negaba cualquier aparición espontánea de un orden, sino que
incluso invitaba a considerar como ineluctable un crecimiento regular de la cantidad
de desorden de los sistemas. ¿Cómo es posible, en estas condiciones, comprender la
organización natural del cosmos que empezamos a vislumbrar?
A decir verdad, esta contradicción nos llevará a hacernos varias consideraciones
capitales.
Apresurémonos a precisarlo: la gran ley del Universo no será una degradación de
su substancia, sino una valoración constante de la misma.
Y no hay en esto la menor paradoja.
Ayer, el físico tenía razón al afirmar que, en nuestras técnicas terrestres, la energía
está condenada a una degradación, cuyas leyes fueron formuladas a partir de la
ciencia termodinámica.
Mas el error consistió en generalizar los resultados, pues podemos imaginarnos
situaciones diferentes, que dan lugar a conclusiones opuestas. Nos percataremos de
ello plenamente reviviendo en un primer tiempo la historia de la termodinámica.
Descubriremos así que el principio del desorden creciente se aplica sólo a casos
particulares, pero la cibernética nos invita a adoptar hoy un punto de vista más
general, que explica la aventura cósmica.
Comprenderemos entonces por qué la materia estuvo destinada a dar origen a

ebookelo.com - Página 80
asociaciones cada vez más evolucionadas.
Al principio de la cadena estaban las partículas. Al extremo opuesto
encontraremos la vida. El artífice de esta evolución será la cibernética.

1.— El reino de la entropía


La aventura termodinámica empieza el día en que los físicos estudian las relaciones
existentes entre trabajo mecánico y calor.
En la era del incipiente ferrocarril, surgen preocupaciones materiales. Se trata de
conocer el rendimiento de las locomotoras. Seguin, promotor del rail en Francia,
emprende los primeros estudios científicos sobre los motores térmicos. El calor se
consideraba hasta entonces como una substancia y el hombre comprende que es una
forma de energía.
Los físicos, ignorantes de las investigaciones emprendidas para comprender la
naturaleza de la materia, crean una ciencia del calor sin preocuparse de su naturaleza;
es decir, sin preocuparse por lo que cambia en un cuerpo cuando éste se calienta.
Los trabajos conducentes a este fin se multiplican. En Inglaterra, James Joule deja
su cervecería para realizar un experimento histórico. Calienta el agua de una tina de
madera por medio de aletas, cuyo movimiento está asegurado por el descenso de un
peso. De este modo puede calcular la energía mecánica proporcionada al agua y un
termómetro mide la elevación de su temperatura. Otros físicos sujetan con tenazas los
árboles motrices de las máquinas. De la confrontación entre el trabajo realizado y
calorías creadas surge un baremo. Siempre es el mismo, sea cual fuere el proceso de
conversión: la memoria de Helmholtz saca en 1847 las conclusiones a que da lugar
esta identidad.
Por consiguiente, los físicos hablan de un «equivalente mecánico» de la caloría,
sacando la conclusión que hoy nos parece naturalísima, a saber: trabajo y calor son
dos aspectos de una misma entidad. La ciencia que tiene por objeto su mutua
conversión recibe el nombre de termodinámica.

ebookelo.com - Página 81
La quimera
Pero muy pronto da lugar a enconadas discusiones. Los físicos comprueban que al
caer desde una altura de 1 m, un cuerpo de 3000 kg proporciona aproximadamente
7000 calorías, que hacen ascender de 8 a 15° la temperatura de un litro de agua. Sería
infinitamente seductor realizar la operación inversa; es decir, tomar como «materia
prima» un litro de agua a 15°, y extraer de él 7000 calorías para elevar 1 m una masa
de 3000 kg, o para efectuar cualquier otro trabajo: el «residuo» de la operación sería
1 litro de agua a 8°.
Semejante proceso ofrecería con poco dispendio unas energías casi ilimitadas y
sería el ideal para la propulsión de embarcaciones. Éstas únicamente tendrían que
sacar el agua del océano, que devolverían más fría e incluso solidificada. Al ritmo de
10 litros por hora, la potencia disponible debería alcanzar 1 kW si el agua fuese
devuelta en forma de hielo.
Si trabajo y calor fuesen realmente «equivalentes», esto tendría que ser posible.
Pero es una quimera, afirman los termodinámicos, que, la verdad sea dicha, han
tratado de explotar semejante posibilidad con muy poca convicción. ¡Sería demasiado
bonito para ser cierto!
Así, se considerará imposible obtener un trabajo mecánico a partir de una fuente
única.
Desde luego, 1 litro de agua a 15° contiene «en potencia» 7000 calorías, tomando
por referencia una temperatura de 8°. Pero si el medio ambiente también está a 15°,
los físicos comprueban que estas 7000 calorías no pueden «salir» del agua para
dejarla a 8°. Carnot es el primero en afirmarlo, considerando que «el calor no podría
pasar por sí mismo de un cuerpo más frío a un cuerpo más caliente». Y rápidamente
se precisa su enunciado: en un sistema aislado, dirá Clausius, ninguna cantidad de
calor puede pasar de un cuerpo a otro de temperatura superior, y en particular no
pueden aparecer diferencias de temperatura sin intervención exterior.
Hay que inclinarse, pues, ante la evidencia. Un motor térmico exige dos
temperaturas y solamente puede obtenerse una energía mecánica sacando calorías de
la fuente de calor. Una parte de ellas se cede a la fuente fría y solamente la diferencia
se transforma en trabajo.
Así, la equivalencia teórica calor-trabajo posee un extraño carácter de
irreversibilidad, que la anula. Una energía mecánica puede convertirse íntegramente
en calor. En cambio, la transformación inversa siempre será parcial, con un
rendimiento tanto más débil cuanto más próximas sean las temperaturas de las
fuentes.
No tarda en formularse una ley sencilla sobre las temperaturas absolutas,
concebida precisamente por Kelvin en 1851, al exhumar la obra de Carnot, muerto en
el olvido. En efecto, al considerar las temperaturas absolutas de las fuentes caliente y
fría, el «defecto de rendimiento» resulta igual a su mutua relación. Por consiguiente,

ebookelo.com - Página 82
si utilizásemos como fuente caliente la superficie de un mar a 27 °C, o sea, 300 K, y
como fuente fría unas aguas profundas a 4 °C, o sea, 277 K, una máquina térmica
tendría un rendimiento teórico que podría calcularse restando de la unidad la fracción
277/300: 0,076, o bien 7,6%. Este rendimiento alcanza 30% con una fuente fría a
30 °C y una fuente caliente a 400 °C (es decir, para temperaturas absolutas de 303 K
y 673 K, respectivamente). Y si la fuente caliente estuviese a 800 °C, el rendimiento
alcanzaría 60%, al continuar estando la fuente fría a 30 °C.
Sea como fuere, hay que atribuir al calor una «calidad» inferior a la energía
mecánica, lo que equivale a considerarlo como una forma degenerada de la energía.
Pero esta situación ofrece un aspecto un poco misterioso. ¿Qué significan los valores
de las calorías según las temperaturas de las fuentes?

El huevo y la tonelada de agua tibia


Precisamente para clasificar las energías caloríficas, en 1865 Clausius forjó el
concepto de entropía, que había de convertirse en la pesadilla de muchas
generaciones de estudiantes y en la manzana de la discordia de los físicos.
Del griego entropé, etimológicamente el vocablo entropía significa
«replegamiento sobre sí mismo» y, en el pensamiento de Clausius, este factor debe
caracterizar la degradación de un sistema. El físico define a la entropía como el
cociente de dividir al calor por la temperatura, o sea, a calorías por grados. Las
anteriores consideraciones relativas al rendimiento, nos harán comprender los
motivos de esta elección: los intercambios de energía se harán en las mejores
condiciones sobre la base de una entropía constante.
Por ejemplo, si una máquina térmica recibe 1200 calorías de una fuente caliente a
600 K, su variación de entropía será de −2, Clausius afirma entonces que el
rendimiento será máximo si la fuente fría registra una variación entrópica de +2. Por
lo tanto, si dicha fuente fría estuviese a 350 K, habría que cederle 700 calorías.
Finalmente, 500 calorías podrán convertirse en trabajo mecánico. O al menos, esta
cifra será un máximo: la máquina podrá trabajar en condiciones no tan buenas,
cediendo por ejemplo 800 ó 900 calorías a la fuente fría. En tal caso, la entropía del
sistema aumentará.
La entropía, por lo tanto, crece cada vez que las máquinas térmicas tienen un
rendimiento inferior al rendimiento térmico y las conversiones en calor de energías
mecánicas se nos aparecen como verdaderas pérdidas secas, que se traducen por

ebookelo.com - Página 83
súbitas elevaciones de entropía.
Podemos hacer una comparación con el valor de un terreno, según cual sea su
emplazamiento. El propietario de un solar en los Campos Elíseos podrá cambiarlo
fácilmente por un solar de la misma superficie en los arrabales, si comete la locura de
prestarse a semejante transacción. Pero le será imposible realizar la operación
inversa: únicamente podrá cambiar terrenos del mismo valor, a menos que consienta
en sufrir una nueva pérdida, cambiando por ejemplo su terreno de Belleville por otro
de superficie igual situado en el campo.
Así, a través de las peripecias que puede atravesar la energía, Clausius ve en la
entropía una magnitud que caracteriza su desvaloración. Si la entropía es constante,
las transformaciones son reversibles, como en el caso de los terrenos que poseen el
mismo valor. Pero si la entropía crece, la transformación es irreversible.
Podemos valernos también de esta otra metáfora: un huevo hervido en un poco de
agua y no en un metro cúbico de agua tibia, pese a que ésta contiene más calorías,
pero también una entropía más elevada.
La explicación es cómoda. Mas ¿podemos decir que sea satisfactoria? ¿Posee una
significación física la idea de entropía, o es un puro artificio matemático?

Orden y desorden
La entropía —y el segundo principio de la termodinámica, a menudo llamado
«principio de entropía»— fueron admitidos al principio con gran reticencia. Pero la
teoría cinética de los gases no tardó en aclarar las relaciones existentes entre calor y
energía mecánica por una nueva luz, que ya dejaba entrever el papel que
desempeñaba la temperatura absoluta en la entropía de Clausius.
Como sabemos, los elementos componentes de un gas se mueven en todas
direcciones, ya que su energía es proporcional a la temperatura absoluta. O sea, que la
energía calorífica reside en la agitación de las moléculas, mientras que la energía
mecánica indica un desplazamiento de conjunto del objeto constituido por aquélla. Y
esto quiere decir que la conversión trabajo-calor denota sencillamente un cambio de
presentación.

ebookelo.com - Página 84
11. Trabajo y calor
A la izquierda, una imagen de la energía mecánica: los elementos componentes se mueven con idéntica
velocidad en la misma dirección.
A la derecha, la energía calorífica está simbolizada por direcciones y velocidades diferentes.

Imaginemos un globo lleno de gas que choca contra un obstáculo: al


interrumpirse bruscamente su movimiento, la energía mecánica se transforma en
calor. La energía continúa siendo atributo de las moléculas, pero ha cambiado de
aspecto; la colisión ha tenido por consecuencia «dispersar» las moléculas en todas
direcciones. De la imagen de un ejército en marcha, pasamos a la de una
muchedumbre anárquica.
Y teniendo en cuenta este proceso, comprenderemos por qué es irreversible la
transformación: las moléculas son incapaces de escoger sus direcciones, por lo que un
retorno espontáneo al orden no es imaginable. Ciertamente, el azar podría hacer que
las moléculas volviesen a adquirir una misma dirección y entonces la energía
calorífica se convertiría de nuevo en energía mecánica. Pero el cálculo de
probabilidades nos demuestra que las posibilidades de que esto ocurra son tan
remotas, que resultan prácticamente inexistentes.
Éstas son las reflexiones que se imponen a los físicos de la segunda mitad del
siglo XIX, haciéndoles comprender que calor y trabajo son idénticos cuantitativa pero
no cualitativamente, pues el calor revela un estado de desorden, mientras que el
movimiento refleja un orden.

ebookelo.com - Página 85
Los arcanos de las complexiones
A los ojos de los termodinámicos, toda la diferencia se debe al hecho de que frente a
un «caso» que asegura el orden, hay millones de otros casos que se agrupan bajo las
banderas del desorden. Así, desde el momento en que las moléculas de un gas se
desplazan al azar, todos los casos tienen el mismo número de probabilidades de
realizarse, pero la relación orden-desorden es desequilibrada, siendo para el primero
de una probabilidad y para el segundo de un número de ellas extraordinariamente
elevado.
Vamos a hacer una comparación. En el bridge, todos los juegos son igualmente
probables si las cartas se reparten regularmente. De momento, pues, el reparto de
trece naipes del mismo palo que permitiera a un jugador pedir una gran baza de
salida, tiene tantas probabilidades de presentarse como otra cualquiera, o, para ser
más exactos, tiene tan pocas probabilidades como las otras, a saber, una probabilidad
solamente entre 635 013 559 600, número éste de las jugadas posibles. Y teniendo en
cuenta su valor, diremos que semejante distribución es humanamente imposible.
Cualquier otro reparto fijado de antemano, en el que hubiésemos hecho una lista
determinada de 13 naipes, lo sería igualmente.
En la práctica, sin embargo, un jugador no considera la composición de su mano,
sino su valor. Se considerará afortunado con cuatro figuras de un mismo palo, caso
que puede suceder a través de 33 000 millones de «complexiones» o colecciones de
13 cartas repartidas en un juego. Éste es el número de casos que asegura lo que se
denomina un buen juego, pues huelga decir que el número de casos que permiten
ligar un juego «cualquiera» es mucho mayor aún.
Teniendo en cuenta esto, si pasamos de los 52 naipes de la baraja del bridge a los
billones de moléculas que componen el menor volumen gaseoso, no nos costará
imaginarnos cuál es el veredicto del cálculo de probabilidades: tendremos que
representarnos la orientación común de las moléculas como un orden extraordinario,
mientras que las miríadas de cualesquiera complexiones constituirán otros tantos
casos anónimos de agitación térmica.
Boltzmann encontró una notable significación física a la entropía de Clausius,
demostrando que es el logaritmo del número de complexiones. Por lo tanto, es la
magnitud que mide la cantidad de desorden de un sistema, pues la tendencia de la
entropía a aumentar indica que las estructuras más comunes —que representan el
desorden máximo— son las más probables.

ebookelo.com - Página 86
El triunfo del cálculo de probabilidades
Este resultado parece, pues, justificar el principio de Carnot, confiriendo un sentido
de «altísima improbabilidad» a las irreversibilidades de la termodinámica.
Pero, desde luego, improbabilidad no es imposibilidad. Sin embargo, los físicos
se apresuran a observar que, en la práctica, una probabilidad extremadamente
pequeña equivale a una imposibilidad. Entretanto, todas las leyes de la física indican
lo mismo. Cuando soltamos una piedra, solamente es «muy probable» que caiga
hacia el suelo; la probabilidad de que salga disparada hacia arriba es insignificante,
pero no rigurosamente nula.
Del mismo modo, admitiendo que las moléculas de un gas vagan al azar, podrían
hacerse menos numerosas accidentalmente en un sitio, y en otro, en cambio, hacerse
más densas.
Naturalmente, pueden admitirse fluctuaciones. Pero teniendo en cuenta el número
considerable de elementos componentes, el cálculo de probabilidades indica unas
separaciones prácticamente imposibles de señalar. Una célebre comparación de Emile
Borel da su medida nivelada: esperar que se produzcan fluctuaciones de densidad que
se deben únicamente a 1/100 000, equivale a suponer que, poniendo a un millón de
monos ante sendas máquinas de escribir en las que teclearan al azar, terminasen por
producir un conjunto de textos coherentes, fiel reproducción de las obras que contiene
la Biblioteca Nacional de París.
Sin embargo, podemos admitir que en un gas habría enjambres de moléculas
dotadas de velocidades elevadas junto a otras que se desplazarían a pequeña
velocidad. En un recipiente que contuviese aire a 15°, veríamos así cómo aparece una
fuente de 10° y otra de 20°, capaz de accionar una máquina térmica. En teoría, esto
sería posible, pero semejante asimetría espontánea aún parece más improbable que la
hazaña de nuestros monos escritores.
Al llegar aquí, la ciencia probabilista desarma a sus adversarios, confiriendo el
aspecto de un verdadero dogma al segundo principio de la termodinámica.

La generalización
El nuevo concepto de la entropía es entonces objeto de una espectacular ampliación:
¿No será posible aplicar estas conclusiones a cualquier estado de la materia?

ebookelo.com - Página 87
Pronto se concibe cualquier tipo de evolución en términos de entropía.
Afirman los físicos: la entropía de un sistema aislado solamente puede
permanecer estacionaria o crecer. Cualquier «cambio real», escribe uno de ellos, hará
aumentar la entropía y, abandonado a sí mismo, un sistema tendrá tendencia a
degradarse, pues su evolución irá del orden al desorden.
Pero esto no es todo. Mediante una generalización atrevida, se nos ocurre la idea
de considerar al Universo como un sistema aislado. ¿Con qué podría efectuar
intercambio? Y a partir de entonces, su entropía no puede sino crecer de manera
ineluctable, por lo que cualquier fenómeno irreversible, es decir, cualquier evolución,
aumentará la entropía del Universo.
Así se nos impone la imagen de una degeneración sistemática. Filosóficamente,
traduce una idea que, en el fondo, parece natural al hombre. De una manera
instintiva, el hombre se ha imaginado siempre la aventura del Universo a partir de
una creación inicial de organización. Y de pronto, esta concepción recibe un
verdadero espaldarazo científico. El aumento obligatorio de la entropía, en efecto,
invita al físico a ver en el Universo en marcha una serie de acontecimientos que
alteraron progresivamente un orden primitivo, lo que equivale a situar al principio un
estado inicial de elevada organización.
Y esta teoría de la entropía resulta aún más satisfactoria en el aspecto biológico.
Si la evolución lógica del Universo consiste en un aumento sistemático de la
entropía, es decir, en una anarquía creciente, los seres vivos parecen dotados de una
facultad que Bergson considera característica: ¡fabrican entropía negativa! De
diversas maneras, crean orden. Su acción, pues, parece oponerse al mundo físico
como si la vida mostrase de una manera local y momentánea el medio de retrasar una
inevitable degradación general.

2.— Los sistemas que se determinan


En apariencia, las conclusiones de la física clásica eran irreprochables. Y en el marco
terrestre, comprobamos que la experiencia le da la razón: ningún fluido se separa
espontáneamente en dos muestras de temperaturas distintas y ninguna máquina
térmica puede funcionar sin dos fuentes de calor.
¿Y no es cierto que la deterioración es la ley implacable de la naturaleza? En
torno al hombre el metal se enmohece, las substancias se echan a perder, los
monumentos se desmoronan y todo sufre los ultrajes y el desorden del tiempo, que

ebookelo.com - Página 88
actúa para destruir y nunca para construir.
Sin embargo, descubriremos una falla capital en el razonamiento de los físicos.
Todos los ejemplos esgrimidos por ellos en aserto de sus consideraciones entrópicas
fueron escogidos entre sistemas desprovistos de determinación interna. Sus
componentes eran elementos aislados.
Nuestros gases, en efecto, están constituidos por moléculas libres de toda
influencia.
En sus hipótesis, el físico las compara a bolitas metidas en un recipiente y sobre
las que no se ejerce la fuerza de gravitación.
Evolucionan en condiciones que excluyen cualquier manifestación de la energía
nuclear (en el siglo XIX, ni siquiera se sospecha la existencia de dicha energía). Estas
moléculas, en fin, se consideran como edificios estables, eléctricamente neutros, que
chocan con las paredes y rebotan unas contra otras como simples masas.
Los elementos componentes son, pues, «independientes» y los choques, que se
consideran perfectamente elásticos, aseguran una distribución aleatoria a las
moléculas. Es la imagen perfecta de un sistema físicamente anárquico, en el que el
orden es sencillamente un caso al lado de un número astronómico de otros casos
imagen del desorden. Y como todos los casos tienen igual número de probabilidades
a causa de la agitación molecular, es inconcebible una aparición espontánea.

Una tautología
Pero semejante conclusión se impone precisamente porque el sistema es anárquico. Y
hablar de entropía en estas condiciones parecerá una redundancia: el físico expresa de
otra manera que los elementos constitutivos del sistema obedecen al azar. Y esto, a
causa de las hipótesis que él ha planteado implícitamente.
Pero podemos imaginarnos otras situaciones. Especialmente en un plasma, las
partículas no vagan ya de manera aleatoria, pues están guiadas por los campos
eléctricos. Y en un gas neutro, sabemos que la gravitación interviene a escala
cósmica.
Dicho de otro modo, el lenguaje de la entropía solamente tendrá sentido en un
«caso extremo» y parecerá casi increíble que durante un siglo, este hecho haya
escapado a la atención de los físicos. Las obras recientes sobre la entropía continúan
generalizando en su conjunto las conclusiones de la termodinámica clásica. Una de
ellas, después de recordar que la idea de entropía «plantea muchas dificultades, no

ebookelo.com - Página 89
solamente durante los estudios universitarios, sino después de ellos», aún afirma que
«todo fenómeno irreversible da lugar a una creación de entropía».
Raras son las obras que subrayan la hipótesis fundamental o en que se expone con
claridad que los cálculos de entropía únicamente son válidos para sistemas en que las
acciones recíprocas sean desestimables.

Demonio de Maxwell y leviatán cósmico


Llegados aquí, tenemos que plantearnos esta pregunta: ¿qué ocurre con un sistema
cuyos componentes estén precisamente sometidos a influencias?
Este problema ya intrigó sobremanera a Maxwell, que estaba muy preocupado a
causa de un problema que había quedado sin solución y que gozó de larga celebridad
con el nombre de «demonio de Maxwell».
El gran físico suponía dos recipientes llenos de aire y unidos por una fina tubería
que aseguraba su libre circulación. El cálculo de probabilidades nos dice que, en
promedio, pasará un número igual de moléculas en cada dirección. Pero admitamos
que el tubo de comunicación pueda ser cerrado por un obturador, accionado por un
diablillo de una agilidad maravillosa, que le permitiese abrirlo cuando se presentase
una molécula que fuese de derecha a izquierda, para cerrarlo, en cambio, ante una
molécula que se dispusiese a pasar de izquierda a derecha. Mediante este juego tan
sencillo, la presión debería aumentar regularmente en el recipiente de la izquierda, y
como la maniobra del obturador no implicaba ningún gasto de energía, asistiríamos a
la aparición de una asimetría o sea, a la creación de entropía negativa.
Por supuesto, esta metáfora del demonio de Maxwell es totalmente teórica. Pero
si tratamos de materializarla en un dispositivo concreto, veremos que la única
condición que hay que cumplir para alcanzar el mismo resultado es hacer que las
moléculas se comporten de manera contraria al sentido de su circulación.
Pero este comportamiento selectivo lo hemos descubierto precisamente en la
acción de la gravitación, que, considerada a la escala cósmica, no es un diablillo, sino
un fantástico leviatán.
De una manera general, el razonamiento entrópico tampoco tiene sentido cuando
los elementos constitutivos de un sistema cesan de ser elementos aislados y,
especialmente, cuando las fuerzas fundamentales se manifiestan.
Esto fue precisamente lo que sucedió en el Universo, desde la etapa de la nube
primitiva, en que las partículas se hallaban en condiciones que diferían

ebookelo.com - Página 90
profundamente de los gases a la escala de los recipientes terrestres. Teniendo en
cuenta las masas que intervenían, la gravitación desempeñó el papel de agente
concentrador, para dirigir al hidrógeno hacia las regiones en que ya había empezado
a acumularse de una manera fortuita. A partir de entonces, la asimetría que
denominamos orden cesaba de ser «un caso» para convertirse en el estado hacia el
que tendería el sistema, mientras todas las ideas de probabilidad se desvanecían,
teniendo en cuenta que el sistema ya no era aleatorio sino determinado.
En el ejemplo anterior, podemos considerar que incluso durante partidas de
bridge de días enteros, la probabilidad de recibir trece naipes del mismo palo es
ínfima. Todas las partidas, en efecto, son independientes y para cada una de ellas las
leyes del azar atribuyen una probabilidad insignificante a semejante distribución.
Pero no hay duda de que todo cambia si entre partida y partida, el jugador puede
conservar los naipes del mismo palo recibidos. Es más: si la posesión de estos naipes
«atrajese» este palo, nuestro jugador tendría con toda seguridad los trece del mismo
palo en mano en unas cuantas docenas de partidas.

Descubrimiento de la retroacción positiva


La formación de estrellas o de galaxias ofrece un enorme interés en el terreno teórico:
a las puertas de la historia cósmica, da un mentís al dogma del desorden en los
sistemas sometidos a interacciones; es decir, para un tipo infinitamente más amplio
que los sistemas formados por elementos aislados, que fueron los que sirvieron de
base para los razonamientos y postulados de la termodinámica.
Y al propio tiempo que se desvanece la idea de entropía, entramos en la
prodigiosa «física de los efectos» aplicable precisamente a los sistemas cuyos
elementos constitutivos experimentan interacciones. La contracción de una estrella, a
este respecto, es un magistral ejemplo del primero de estos efectos: la retroacción
positiva…
A partir del momento en que se reúne cierta masa, ésta atrae a la materia
esparcida a su alrededor, con lo que aumenta su importancia y crece su poder
gravífico, ejerciendo así una atracción cada vez más poderosa. Como su nombre
indica, se trata de una retroacción, o acción de retorno, pues el efecto estimula a la
causa. Así que esto empieza a producirse, todas las leyes del azar resultan alteradas:
el movimiento se alimenta a sí mismo con un vigor creciente y la evolución resulta
inevitable.

ebookelo.com - Página 91
Iniciado este proceso y habiendo comenzado en realidad una contracción, ésta no
hará más que desarrollarse, a igualdad de condiciones.
Teniendo en cuenta que la nube primitiva estaba condenada a condensarse, los
astrónomos suelen afirmar que era inestable. Sin embargo, este término se presta a
confusión, pues en el lenguaje corriente, el concepto de inestabilidad acostumbra
aplicarse a un equilibrio cuya ruptura está a merced del golpe más leve. Esta ruptura
se considera por lo general destructora del orden. A la escala del Universo, la
situación se invierte. La inestabilidad gravitatoria de la nube primitiva revelaba una
tendencia a engendrar objetos celestes y, por lo tanto, a evolucionar en el sentido de
un Universo organizado topológicamente.
Desde luego, es lícito considerar el caos inicial como un orden y ver en las
galaxias y estrellas la catástrofe consecuencia de su ruptura. En realidad, todos los
conceptos de orden y desorden son relativos, y afirmar que descubrimos un orden en
un sistema, significa que emitimos un juicio al atribuir este término a un caso que
distinguimos de los demás tal como hacemos cuando adquirimos un billete de lotería.
Se trata de un puro eufemismo. En cambio, una retroacción posee una existencia
intrínseca, teniendo en cuenta que determina una línea de evolución.
El Universo tenía que organizarse, puesto que su materia cayó en la red de las
retroacciones.
Esto posee una importancia fundamental. El físico tiene la costumbre de describir
al Universo empleando un lenguaje independiente de las condiciones en que las
observaciones fueron hechas. Y así pretende expresar no sus impresiones subjetivas,
sino las leyes naturales.
Einstein abordó esta tarea en el caso de las entidades primeras de la física. Pero
en la lógica de las estructuras, la retroacción nos aparece como el proceso
fundamental de la evolución, pues busca su origen en el propio sistema, que funciona
en cortocircuito.
Más aún: la retroacción positiva crea unas condiciones que acentúan su efecto. A
escala de la galaxia o de la estrella, la retroacción gravífica realizó transformaciones
que amplificaron su acción…

Crecimiento exponencial
Durante su contracción, la densidad estelar estaba «regida» por la retroacción. Su
crecimiento, por consiguiente, obedeció a una ley característica de la evolución

ebookelo.com - Página 92
natural.
El trabajo de un proceso de retroacción, efectivamente, no es como el de un
aspirador que atrae a masas iguales durante tiempos iguales, pues la potencia crece
con el efecto. Un modelo de retroacción positiva puede estar formado por una
magnitud que aumente a un ritmo proporcional a su valor: cuanto más importante sea,
más tendencia mostrará a crecer con rapidez.
Podemos establecer una comparación con un proceso monótono imaginando el
agua que sale gota a gota de una cuba agujereada: la salida será regular si el diámetro
del orificio permanece constante. En cambio, si la salida provoca un desgaste que
tenga por efecto agrandarlo, asistiremos a una retroacción positiva: un agujero mayor
permitirá que salga más cantidad de líquido, lo que a su vez acentuará el desgaste.
La diferencia en el terreno matemático es la misma que existe entre el interés
simple y el interés compuesto, diferencia que ya conocemos. A interés simple, 1
peseta puesta a 5% asegura regularmente 0,05 pesetas anuales: en veinte años se
duplica el capital. En cambio, a interés compuesto, el capital se alimenta del interés,
imagen perfecta de una retroacción positiva. Y a este mismo rédito de 5%, con una
capitalización continua, podemos calcular que al cabo del mismo plazo de veinte
años, 1 peseta se habrá convertido en 2,718 pesetas.
Este resultado es general: durante el tiempo en que un capital puesto a interés
simple se duplica, a interés compuesto se multiplica por 2,718. Y esta relación surge
cada vez que se compara un proceso de retroacción positiva con su homólogo lineal,
o sea, en la práctica con las indicaciones de un reloj, puesto que nuestro propio
concepto del tiempo reside en el cálculo de fenómenos periódicos, que en teoría
tienen que reproducirse siempre idénticos a sí mismos: en el ejemplo anterior, la
caída regular de gotas de agua refleja el principio mismo en que se basa la clepsidra.
La escala de un proceso de retroacción positiva se comprenderá así muy bien,
considerando el tiempo necesario para que la magnitud por él regida quede
multiplicada por 2,718. Y, a decir verdad, los matemáticos conocen perfectamente
este número, al que designan tradicionalmente por la letra e: Neper lo eligió como
base de sus logaritmos naturales y los estudiantes nunca dejan de sorprenderse al
verlo aparecer en múltiples problemas de análisis matemático. Pero la razón profunda
de ello hay que buscarla en el hecho de que este número e tiene un origen lógico,
pues relaciona con el tiempo los procesos regidos por retroacciones positivas.
Todos los procesos de retroacción poseen su propia escala de tiempo, la cual
depende de un factor de crecimiento en el que puede verse la réplica de un porcentaje
de interés. Así, en las etapas respectivas de la estrella y la galaxia, trabamos
conocimiento con escalas muy diferentes. La aventura cósmica permitirá que
aparezcan otras múltiples retroacciones, con los más diversos porcentajes de
crecimiento.
La correspondencia siempre será la misma. Cuando un reloj señale los instantes 0,
1, 2, la magnitud regida tendrá por valor los términos de la progresión 1, e, e2,

ebookelo.com - Página 93
obedeciendo a la ley que los matemáticos llaman exponencial, y el hecho de que la
función et sea por sí misma su derivada, revela perfectamente bien que el porcentaje
de crecimiento aumenta con la magnitud que rige.
Estas consideraciones sugieren inmediatamente una observación.
Antes vimos que las retroacciones fueron los procesos primitivos; los fenómenos
monótonos aparecerán con los sistemas más evolucionados. Así, en el ejemplo
anterior, en el que el agua caía gota a gota de una cuba, era natural que el fenómeno
ensanchase el orificio. Es la supresión del desgaste lo que exige, si no artificios, al
menos una estructura particular. Debemos, pues, preguntarnos si nuestra concepción
del tiempo, basada en una repetición regular de fenómenos, puede extrapolarse a la
etapa de un Universo primitivo, cuyas únicas «organizaciones» eran retroacciones
positivas.

Hacia la mutación
Otra reflexión se impone. A causa de su crecimiento exponencial, una magnitud
regida por un proceso de retroacción positiva acabaría teóricamente por adquirir
valores fantásticos. En la práctica, llegaría un momento en que el proceso no podría
continuar, pues su desarrollo habría cambiado la base misma del problema.
Ésta es la doble constatación que debemos hacer. No solamente una retroacción
positiva engendra una organización, sino que su propia naturaleza le impide
detenerse por sí misma. Lo cual equivale a decir que, en términos muy generales, un
proceso de retroacción positiva resulta una «mutación».
Los técnicos conocen muy bien la retroacción positiva llamada el efecto Larsen:
cuando se trata de aumentar la potencia de una instalación sonora, puede suceder que
el micrófono capte el sonido del altavoz y vuelva a inyectarlo en el amplificador. Al
principio hay silencio, pero si se origina un sonido, éste se hará cada vez más fuerte,
hasta alcanzar la saturación; el altavoz dejará oír entonces un violento y monótono
maullido, que interferirá la voz. El aparato, que al principio era un amplificador, se
transforma en un generador de silbidos…
De la misma forma, la retroacción de una estrella naciente se interrumpe al entrar
en juego la energía nuclear que enciende al astro y con la fuerza centrífuga de su
rotación; o sea, cuando aparecen factores que tienden a desintegrarlo.
Una vez encendida la estrella, el problema se presenta en un aspecto muy distinto,
pues estos factores tienden a dislocar la masa estelar, con una energía que crece con

ebookelo.com - Página 94
la materia acumulada. Finalmente, se alcanza un equilibrio cuando estos factores
contrarrestan la gravitación.

La retroacción negativa
Pero en este momento, el equilibrio está «garantizado» por otro proceso que originará
una retroacción negativa. Efectivamente, si el ritmo de las reacciones nucleares
debiese acelerarse, el excedente de energía podría provocar la desintegración de la
estrella; de ello resultaría una disminución de su temperatura central, que provocaría
a su vez una disminución en la actividad de las reacciones, lo que aseguraría una
regulación automática.
Es fácil comprender la lógica de este nuevo mecanismo.
Si un sistema está aislado en un medio anárquico, únicamente puede recibir
determinación de sí mismo. Esto es lo que significa la retroacción.
Pero podemos concebir dos tipos de retroacción. Con la retroacción positiva, el
efecto crea una causa de la misma naturaleza que actúa en el mismo sentido. Ahora
bien, nada nos impide imaginar una estructura en la que el efecto cree una causa que
actúe en sentido contrario. Esto es precisamente la retroacción llamada negativa: así
que el sistema tienda a cambiar de estado, una reacción se opondrá a este cambio.
La retroacción positiva originaba una evolución: la magnitud regida por ésta se
hallaba sometida a un modelo de ley exponencial. La retroacción negativa, en
cambio, nos proporciona una fijeza de la magnitud regida; la determinación adquiere
un aspecto pasivo al oponerse a cualquier variación fortuita de la magnitud regida. O
sea, que la retroacción negativa crea una estabilización, y volveremos a encontrarla
en numerosas etapas de la historia del cosmos.
En la etapa estelar, tenemos ya un ejemplo de ello, pues el secreto de la casi
estabilidad de numerosas estrellas que, como nuestro Sol, pueden funcionar con un
régimen casi permanente durante muchísimo tiempo, hay que buscarlo en la
retroacción negativa.
Por consiguiente, la organización de una estrella quedó finalmente asegurada
mediante dos retroacciones, la primera de las cuales originó la segunda.

ebookelo.com - Página 95
3.— La filosofía cibernética
Por lo tanto, en el Universo aparecieron retroacciones de manera natural y, bajo sus
auspicios, comenzó a organizarse.
Mas, precisamente, el proceso de estas retroacciones es el mismo que hoy
invocan los cibernéticos para gobernar, sus sistemas regidos por reglas. La
semejanza, de momento resulta sorprendente y nos abre perspectivas apasionantes.
El substantivo cibernética proviene directamente del verbo griego kubernan, que
nos ha dado gobernar pasando por el latín gubernare. Actualmente designa a la
ciencia de los medios que permiten «gobernar», en el sentido de «dirigir» o «regir»,
pues no hay que entender al término «gobernar» en el sentido limitado que tiene a
menudo. Esta palabra suele aludir casi siempre al gobierno de un país, a veces el
gobernador de una provincia y, en un sentido más restringido, a la acción de llevar un
buque al rumbo que se le ha señalado. La función es siempre la misma: del modo
como se gobierna un país, una administración o un barco, se gobierna a una máquina
o se gobierna uno mismo. Y hemos descubierto que hay magnitudes físicas que se
encuentran gobernadas, o regidas, por retroacciones naturales.
Pero ¿qué quiere decir en este caso gobernar?
Esta pregunta equivale a abordar una cuestión que será fundamental en todas las
disquisiciones sobre el azar y el antiazar. Un sistema no gobernado evoluciona por
definición de manera aleatoria, o sea, que sufre toda clase de influencias: es el
juguete del azar. En cambio, gobernar un sistema equivale a aislarlo e imponerle una
línea de evolución.
Se trata de una función que el hombre asume corrientemente mediante sus
intervenciones sobre el mundo exterior. Pero ¿merced a qué proceso? A decir verdad,
el análisis de estas intervenciones dio lugar entre los griegos a consideraciones
notablemente oportunas.

La herencia de Platón
En el Gorgias y la Política, Platón ya nos presentaba a la cibernética como el arte de
gobernar. El eximio filósofo observó que se gobierna un sistema reuniendo datos,
elaborando un programa de acción y utilizando una energía para ponerlo en práctica.
El gobierno de una nave se presentaba entonces como una aplicación típica de la

ebookelo.com - Página 96
cibernética, pues el timonel gobierna realmente la nave que le ha sido confiada; por
esto los griegos lo llamaban kybernetes. Y en la historia helénica encontramos una
tradición característica con las «cibernesias», que se celebraban todos los años en
otoño en honor de los timoneles. Según la leyenda, estas festividades fueron
instauradas por el propio Teseo, en honor de los dos nautas que lo condujeron
victoriosamente a la isla de Creta.
Más de dos milenios transcurrieron después del milagro griego, y la idea misma
de cibernética cayó en el olvido, pues el hombre tenía el privilegio, gracias a sus
músculos y sus herramientas, de gobernar el medio ambiente sin tener necesidad de
analizar la función que ejercía.
Pero en la era industrial, un descubrimiento le sorprende: la técnica crea máquinas
que se gobernarán a sí mismas merced a verdaderos órganos artificiales de los
sentidos, que guiarán su trabajo. Se trata de «captores» que miden el número de las
piezas fabricadas por una máquina-herramienta o la temperatura de un baño, a fin de
asegurar la conformidad del trabajo con un programa determinado. Lo más notable
será que esta conformidad quede sistemáticamente asegurada mediante retroacciones
negativas y con dispositivos que Watt ya imaginaba en el siglo XVIII, para mantener
constante la velocidad de su máquina de vapor.
El árbol motor de esta máquina, vertical, tenía en efecto dos varillas de las que se
hallaban suspendidas unas bolas, que se separaban por la influencia de la fuerza
centrífuga, accionando entonces una anilla que maniobraba a su vez las compuertas.
Así, el régimen se elevaba automáticamente si la velocidad tendía a disminuir por una
causa fortuita. Este principio es el mismo de nuestros «limitadores de velocidad»: la
anilla es entonces solidaria de un disco, y un freno cuya altura puede regularse,
bloquea la velocidad cuando se produce el contacto.
Una fórmula moderna para el mando de un motor eléctrico, consiste en hacer
regular por una dínamo montada en el árbol la corriente de alimentación. De esta
manera la velocidad puede mantenerse constante, sea cual fuere la carga: si ésta
aumenta, la dínamo asegurará al motor un excedente de energía. En cambio, si gira en
vacío, la dínamo evitará que se acelere reduciendo la corriente.
De una manera muy general, los técnicos crean lazos de retroacción cada vez que
desean regular algo; por ejemplo, cuando quieren mantener constante la presión en un
depósito. Un comparador calcula la diferencia existente entre el valor de consigna de
la presión, o sea, el valor ideal que ésta debería tener, y su valor efectivo, medido por
un factor. Y según el sentido de esta separación, se creará una acción antagónica. Si la
presión fuese demasiado débil, se pondría en marcha una bomba; si fuese demasiado
alta, se abriría una válvula. Del mismo modo, un lazo de retroacción puede mantener
a una célula fotoeléctrica por encima de una línea: si se desvía a la derecha, un motor
la desplazará hacia la izquierda, e inversamente.

ebookelo.com - Página 97
Cibernética artificial y cibernética natural
Con independencia de sus respectivas aplicaciones, las técnicas expuestas tuvieron
profundas repercusiones teóricas.
En otros tiempos, solamente el hombre se consideraba capaz de gobernar. En la
era de la cibernética industrial, comprende que su función puede delegarse a lazos de
servidumbre. Pero debe tener en cuenta que en la historia del Universo estos lazos
aparecieron «de manera natural» bajo los tipos de retroacción que al principio
regularon las densidades estelares, y así se gobernó el Universo, adquiriendo
determinaciones que al principio surgieron de la interacción entre las partículas y
después fueron consecuencia de las situaciones creadas.
Este continúa siendo el sentido profundo de la cibernética, cuyo objeto no es una
técnica, sino una ciencia de las estructuras. Para alcanzar una finalidad, poco importa
que la información esté captada por dispositivos eléctricos, mecánicos o neumáticos:
el verdadero problema consiste en estudiar las acciones mutuas de los sistemas o sus
reacciones sobre sí mismos, pues la cibernética se presenta como una física de los
efectos y las relaciones, mientras que antaño la física de las cosas lo refería todo al
hombre, estudiando los sistemas aislados, sin examinar cómo se comportaban
respecto a sí mismos o respecto a otros. ¡Piénsese que el Universo ha evolucionado
durante millones de años!
La cibernética rige al Universo. Ahora lo comprendemos; no esperaba al hombre
para existir y organizar el cosmos con la cooperación de los efectos naturales.
Al llegar aquí, será interesante establecer una comparación entre nuestros
limitadores de velocidad y las estrellas llamadas de Wolf-Rayet, que se caracterizan
por elevadísimas velocidades de rotación[25]. La fuerza centrífuga se conjuga con la
presión de radiación para provocar una intensa eyaculación de materia: la estrella
pierde así una fracción de su masa, hasta que el proceso cesa de ser apreciable.
Por otra parte, el técnico sabe hoy estudiar la estabilidad de sus dispositivos
reguladores, destinados a dosificar su acción teniendo en cuenta la diferencia y la
variación, a fin de no crear una acción antagónica demasiado brusca. Una retroacción
mal concebida, en efecto, puede sobrepasar el objetivo propuesto, creando una
diferencia de sentido contrario, que provocaría a su vez una reacción también
contraria. De esta forma se manifiesta el fenómeno llamado de bombeo, para el que
podemos hallar un símil en el conductor automovilista bisoño que no consigue
mantener al vehículo en línea recta: cuando el automóvil se va hacia la derecha, da un
golpe de volante demasiado violento hacia la izquierda, que exige una nueva
rectificación, hacia la derecha, también exagerada, y así sucesivamente.
Tenemos ejemplos de esto en la cibernética estelar, con categorías bien conocidas
de estrellas inestables. Lo hemos visto ya en la contracción de las estrellas nacientes
T Tauri.

ebookelo.com - Página 98
Una ciencia de las estructuras
Por este motivo nos damos cuenta del alcance que tiene la cibernética. En la época
heroica de la misma, o sea antes de 1955, la reacción de los físicos fue característica.
La mayoría de ellos sólo quería ver en la cibernética una nueva disciplina que había
que integrar en la tradicional clasificación de las ciencias, como un capítulo
suplementario de la física al que convenía aplicar el principio de la entropía.
Semejante actitud daría por resultado una variante de la degradación de la
energía: la degradación de la información. Pero el absurdo de esto salta a la vista: si
hay algo cuya «multiplicación» sea patente, es precisamente la información. El
profesor que transmite conocimientos a sus alumnos no los pierde por ello, y esto es
válido para todas las fórmulas de enseñanza como libros, películas, cintas
magnetofónicas o memorias de máquinas electrónicas.
Del mismo modo, en la época de la automatización, las máquinas cibernéticas de
nuestras fábricas pueden considerarse como generadoras de organización. Y al
estudiar el comportamiento de nuestra raposa electrónica, nos sorprendió comprobar
una creación de entropía negativa.
La verdad era que la cibernética se situaba, no entre las ciencias o las técnicas
clásicas, sino por encima de ellas, permitiendo entrever una inteléctica general y
considerando todos los tipos de relación que pueden existir entre los elementos
componentes de un sistema, sea cual fuere su número y su naturaleza, mientras que el
terreno propio de la termodinámica era el caso particular de elementos componentes
numerosísimos y muy pequeños, cuyas evoluciones no conocen la influencia de
ningún campo.
Y el principio de entropía se aplica únicamente a estos sistemas desprovistos de
interacción, siendo lo sorprendente que los termodinámicos hayan llegado a
denominarlos «perfectos». En realidad, querían decir que solamente este sistema
justificaba a la perfección las leyes sencillas formuladas sobre la base de una ausencia
de interacción, pues la relación PV-RT de los gases perfectos se estableció
principalmente al comparar a las moléculas con masas puntuales libres de toda
influencia. En realidad, de este modo perfección era sinónimo de anarquía y la
entropía actuaba entonces plenamente.
Éste es el fondo del problema: el principio de entropía no es en absoluto una
cuestión de escala o de técnica. Verdad es que las interacciones gravíficas exigieron
el marco cósmico, pero la debilidad de la fuerza de gravitación era la única
responsable. Y encontraremos un notable ejemplo de interacción molecular con la
materia biológica, acusada antaño por los físicos de «hacer trampa» con el principio
de la entropía.

ebookelo.com - Página 99
Conquistada la organización
En estas condiciones, una «lógica general de los sistemas» se nos presenta como la
tarea fundamental de una cibernética teórica. Merced a un instrumento único
representado por las matemáticas, nos permitió descubrir la sorprendente jerarquía de
los efectos, en la base de la cual debían colocarse los sistemas desprovistos de
determinación interna. Éstos, en efecto, dependen del segundo principio de la
termodinámica: su entropía sólo puede permanecer constante o ir en aumento.
Pero para los sistemas organizados, a los que las estructuras internas o externas
imponen una evolución, el concepto de entropía deja de tener sentido.
Hemos descubierto notables estructuras en el caso de las retroacciones gravíficas
que constituyen los primeros procesos organizadores, los únicos concebibles en el
estadio de un mundo primitivo.
Pero en el Universo organizado, la situación será diferente. Al aparecer sistemas
primarios, sus estructuras podrán suscitar otras, representando verdaderamente el
papel de máquinas. Las retroacciones negativas serán otros tantos muros que
limitarán los terrenos donde se desarrollarán las retroacciones positivas, creadoras de
nuevos circuitos de organizaciones. Finalmente, lo que se hará cada vez más raro será
la inorganización, pues un sistema sólo permanecerá al margen de estos circuitos
cuando las acciones exteriores no ejerzan efectos sobre él.
Éste es el caso de un gas a nuestra escala. Pero ¿hay que aplicarle solamente el
nombre de sistema? ¿Hasta qué punto una colección de moléculas constituye «algo»?
Tanto en el caso de un litro de gas o de un metro cúbico, la situación es la misma.
Ningún vínculo existe entre los elementos componentes y ya nada los une con el
exterior, pues las condiciones existentes no permiten la intervención de las fuerzas
fundamentales del Universo. Al menos, estas consideraciones exponen un punto de
vista ideal, pues en ningún caso podrían excluirse totalmente estas fuerzas. La
gravitación terrestre no hace describir a las moléculas segmentos de recta, sino arcos
de elipse, y tampoco puede prescindirse completamente de las interacciones
eléctricas.
Esta lección no debe caer en saco roto: la independencia total es una añagaza, ya
que el suceso puramente aleatorio es una ficción. El físico sabe hoy muy bien que, en
realidad, el azar perfecto no existe en un mundo en el que un análisis sutil destaca la
existencia de innumerables correlaciones, de manera que en el Universo todo actúa
sobre todo. Ninguna substancia permanece fija, ningún cuerpo puede jactarse de ser
eterno y ningún átomo conoce el reposo. Cien veces al año, las partículas cósmicas
proyectadas por la explosión de estrellas provocan mutaciones en nuestro organismo.
Y a decir verdad, la materia es teatro por doquier de un sorprendente hormigueo: las
partículas se agitan, chocan, se unen para formar edificios que a su vez se
transformarán. Los engranajes del Universo están en perpetuo movimiento.
La verdad es que desembocamos en una conclusión diametralmente opuesta a la

ebookelo.com - Página 100


física clásica. Ésta empleaba el lenguaje de la entropía y buscaba en sus gases las
leyes del cosmos. Su actitud era la misma del biólogo que pretendiese estudiar las
leyes de la vida en un cadáver. La termodinámica se ocupa de los sistemas en
descomposición, aislados de la aventura cósmica. El terreno propio de la cibernética,
en cambio, es la evolución.
A la escala del cosmos y mediante las retroacciones en cadena, una determinación
cada vez más estructurada será, en efecto, la LEY NATURAL por excelencia, pues la
retroacción positiva es el «progreso», que conduce a nuevas estructuras. Y las
retroacciones negativas aseguran su defensa, anunciando ya la fijeza de los futuros
medios interiores. Los sistemas ascenderán en la jerarquía de los efectos y deberemos
considerar el estancamiento y la degeneración como el patrimonio de una materia
abandonada.
Así hemos visto dibujarse el movimiento que no hará más que continuar y
amplificarse. Han nacido las primeras estrellas, verdaderos Estados cuyas estructuras
crearán las leyes. Y de estos objetos primarios nacerán las situaciones propicias para
una génesis de objetos secundarios. Aparecerán los planetas. La Tierra será teatro de
la extraordinaria retroacción biológica.
Bajo los auspicios de semejante determinación, el nacimiento de estrellas y de
planetas, la vida y el hombre se inscribirán en una misma estirpe…

ebookelo.com - Página 101


6

La diferenciación de las estrellas


La joven estrella, pues, es un crisol nuclear en el que el hidrógeno se convierte en
helio; o sea, que las partículas, dispersas al principio, empiezan a asociarse en
núcleos complejos. Así nacen los primeros elementos y el movimiento ya no se
interrumpirá.
No obstante, asistiremos a una sorprendente diferenciación entre las estrellas; la
evolución adquirirá aspectos muy diversos según la masa del astro.
Las estrellas están calibradas por el proceso mismo que las creó. Si hubiesen sido
demasiado ligeras, no hubieran podido albergar reacciones termonucleares en su
seno. Demasiado pesadas, se hubieran disgregado. De todos modos, este calibrado se
hizo de manera bastante burda. Una simple mirada al cielo nos bastará para saber que
las estrellas, en su conjunto, tienen aproximadamente la masa del Sol. Desde luego,
se trata de un orden de magnitud y se tendrá idea de la dispersión teniendo en cuenta
que el 99% de las estrellas catalogadas parecen tener una masa comprendida entre 0,2
y 5 masas solares. Si las estrellas cinco veces más ligeras o cinco veces más pesadas
que el Sol son raras, no por ello son inexistentes, pues hemos distribuido las masas
estelares en una gama que se extiende aproximadamente de 1029 a 1032 kg; o sea, de
0,05 a 50 masas solares.
Pero, precisamente por el hecho de que la estrella representa un objeto celeste
cuya masa es crítica, las menores diferencias de masa se traducirán por importantes
diferencias de comportamiento.

1.— La radiación de las estrellas


La «sensibilidad» de una estrella al factor masa se nos presenta como una
consecuencia lógica de su estructura, caracterizada por un aumento regular de la
temperatura, entre una superficie que está a varios miles de grados —que regula la
radiación mediante la cual el astro evacúa la energía que produce— y un núcleo
donde se realizan reacciones termonucleares a temperaturas de millones de grados.

ebookelo.com - Página 102


12.Densidades y temperaturas en el Sol
Se observará que la densidad del Sol es casi insignificante hasta una gran profundidad. El aumento de la
temperatura, en cambio, presenta una gran regularidad.

La densidad crece con la profundidad, pues la gravitación atrae hacia el centro de


la materia de la estrella, con el resultado de que la presión aumenta y las capas más
profundas tienen que soportar un peso de materia cada vez mayor.
A este respecto, resulta muy instructivo un viaje al Sol, imaginando la posibilidad
de una extraordinaria espeleología solar en que partiendo de una superficie a
5500 °C, que representaría por definición la cota 0, descendiéramos hacía el centro,
donde estaría la cota 100.
Al llegar a la cota 30, la temperatura ya rebasa 1 000 000 de grados; sin embargo,
la densidad sólo es de momento de 0,07. Teniendo en cuenta que el volumen que
hemos dejado atrás representa aproximadamente las dos terceras partes del Sol,
podemos afirmar que su masa es despreciable. Constituye una especie de colchón de
plumas.
Al llegar a la cota 50 se alcanza la densidad del agua y la temperatura es de

ebookelo.com - Página 103


2 500 000 grados.
A la cota 65, la densidad del Sol es igual a la del hierro y la temperatura
sobrepasa los 5 000 000 de grados: penetramos entonces en la zona en que empiezan
a efectuarse las reacciones termonucleares lentas.
En la cota 88 alcanzamos los 10 000 000 de grados. Por último, en el centro
mismo del Sol, la temperatura es superior a los 13 000 000 de grados y la densidad es
superior a 120. Aunque sólo representa la centésima parte de su masa, esta región del
Sol es la más importante, pues no hay duda de que en ella se producen las reacciones
más activas y es la fuente de la enorme energía que atraviesa las capas del astro para
escaparse por su superficie.
Nuestro Sol, desde luego, no es un caso típico. Este viejo astro existe desde hace
miles de millones de años y cuando nació no era siquiera una estrella de primera
generación.
Sin embargo, haciéndole unos ligeros retoques, su estructura permite entrever el
modelo de una estrella joven de la misma masa, constituida esencialmente de
hidrógeno.

Masa y temperatura
Nada nos impide imaginar otros modelos. Por ejemplo, en el caso de una masa doble,
se puede calcular un reparto distinto de las temperaturas, asignando al núcleo
16 000 000 de grados.

ebookelo.com - Página 104


13. Las diversas regiones del Sol
Solamente el núcleo del Sol es muy activo, pues la mayor parte del astro se comporta como un cojín térmico.
El círculo negro corresponde prácticamente a la imagen que daría un neutrino-telescopio, y aun así, su
aspecto distaría mucho de ser uniforme: en el centro aparecería una manchita «brillantísima», reducida casi a
un punto.

En cambio, en el caso de una estrella con la mitad de la masa solar, la temperatura


central será solamente de 10 000 000 de grados. Y desciende a 5 000 000 para un 0,1
de la masa solar.
Como ya era de esperar, la temperatura central aumenta con la masa y esta
situación provoca un crecimiento impresionante de la potencia.
El punto crítico de las reacciones termonucleares, en efecto, es la transformación
del hidrógeno en deuterio, cuya duración media hemos calculado en cuarenta mil
millones de años para una temperatura de 10 000 000 de grados. Pero cuando la
temperatura es de 15 000 000 de grados, este tiempo sólo es de ocho mil millones de
años. Y desciende a setecientos millones de años en el caso de 30 000 000 de grados.
En cambio, alcanza la cifra astronómica un billón setecientos mil millones de años en
el caso de una temperatura de 5 000 000 de grados.
Por lo tanto, las reacciones nucleares sufren una tremenda aceleración al ascender
la temperatura.

ebookelo.com - Página 105


La elevación de potencia resultante provoca un descenso de la densidad.
Efectivamente, es la fuerza nuclear la que se opone a la contracción acentuada del
astro, que provocaría la acción sin trabas de la gravitación. Cuanto más intensa es
aquélla, menos actúa ésta y la contracción queda detenida antes. Así, las estrellas
grandes son las menos compactas. Teniendo en cuenta que la densidad media del Sol
es de 1,4, podemos calcular que una estrella-modelo que tenga dos masas solares
tendrá únicamente una densidad de 1,1. Esta densidad descenderá hasta 0,5 en el caso
de cinco masas solares.
No solamente las estrellas pesadas son menos densas, sino que los contrastes son
menores en el interior del astro: la densidad disminuye con menor rapidez a medida
que nos alejamos del centro, a causa de la extensión del volumen en el que se ejercen
las reacciones termonucleares.
Un aumento de masa, pues, se traduce en un cambio en la estructura de la estrella,
mientras que la energía irradiada crece a un ritmo vertiginoso.
Ésta sería al menos la situación si debiésemos limitarnos a tener en cuenta
únicamente la fusión del hidrógeno.
Sin embargo, la elevación de la temperatura origina otros procesos, que
acelerarán aún más el despilfarro de energía de las estrellas grandes.

ebookelo.com - Página 106


14. El ciclo de Bethe
Después de absorber sucesivamente cuatro protones, un núcleo de carbono sufre una serie de conversiones
que le harán expulsar un núcleo de helio. Entonces el ciclo puede recomenzar.

El ciclo del carbono


Hemos estudiado únicamente el caso de las estrellas jóvenes, cuyos protones se unían
en deuterones.
Pero si el astro contiene un poco de carbono, el hidrógeno encuentra otro medio.
La presencia del carbono es normal en las estrellas de segunda generación, con
las que no tardaremos en trabar conocimiento. También suele suponerse que existe en
las entrañas de las estrellas primitivas, pues los núcleos resultantes de los procesos
nucleares poseen grandes energías, que les permiten desencadenar reacciones

ebookelo.com - Página 107


secundarias; por ejemplo, un núcleo de carbono puede nacer del encuentro de tres
heliones.

15. Rapidez de las reacciones nucleares


Esta gráfica indica la duración del ciclo de Bethe para las grandes estrellas, en relación con su masa.

Y el carbono alimenta un ciclo en el que cuatro protones resultan absorbidos


sucesivamente, según los procesos que exponemos a continuación:

1. Después de captar un protón, el carbono —se trata del carbono ordinario, o


carbono 12— se transforma en novecientos mil años[26] en nitrógeno 13. Pero
éste es inestable. Al cabo de siete minutos, engendra un carbono 13 con emisión
de un electrón positivo y un neutrino (partículas que corren la misma suerte que
sus homólogas, aparecidas al producirse el encuentro de dos protones).
2. Después de absorber un nuevo protón, el carbono 13 se convierte en nitrógeno
14, en ciento ochenta mil años.
3. Un tercer protón transforma a este nitrógeno 14 en oxígeno 15, en el plazo de
dieciséis millones de años. Pero aún se trata de un núcleo inestable que, en
menos de dos minutos, origina nitrógeno 15 (con nueva emisión de un electrón
positivo y un neutrino).
4. Finalmente, este nitrógeno 15, después de absorber un cuarto protón, se

ebookelo.com - Página 108


desintegra al cabo de cinco millones de años, emitiendo un helión y restituyendo
el carbono 12.

Así el carbono se encuentra regenerado, por lo que nos hallamos en presencia de


un ciclo, llamado a menudo el ciclo de Bethe, en honor del sabio que en 1938
demostró su posibilidad. En realidad lo estudiaron por separado Bethe y Weizsäcker,
mucho antes de que se descubriese el proceso protón-protón, que se conoció en 1951
merced a los trabajos de Fowler y Schatzmann. Esto explica una situación paradójica,
que hizo atribuir, durante una docena de años, el funcionamiento del Sol, y de una
manera general la génesis de las energías estelares, al ciclo de carbono. Sin embargo,
este ciclo es el proceso número 2, que sólo puede aparecer a temperaturas elevadas
con una aportación inicial de carbono, si la fusión de protones proporciona el punto
inicial.
Ambos procesos producen en realidad el mismo resultado bruto, puesto que la
materia prima es la misma, o sea, el hidrógeno, y este elemento se transforma en
helio en ambos casos.
Y tal como sucede en el ciclo protón-protón, una elevación de la temperatura da
por resultado la aceleración de todas las reacciones del ciclo de Bethe, cuya etapa
más lenta es la tercera, de manera que su velocidad rige el desarrollo del conjunto.
Ahora bien, como sabemos, a 20 000 000 de grados, el tiempo medio de este
tercer acto se produce únicamente a un millón de años, y para una temperatura de
30 000 000 de grados solamente será de cien años. O sea, que entre 15 000 000 y
30 000 000 de grados, el ciclo del carbono se hace ciento sesenta mil veces más
rápido.
Sobran comentarios ante tal resultado. En la práctica, la energía aumenta con la
a
13. potencia de la temperatura. Aún aumentan mucho más rápidamente que la que
libera la reacción protón-protón. Y esto nos hace ver la importancia que puede asumir
este ciclo a temperaturas elevadísimas, incluso teniendo en cuenta una ínfima
cantidad de carbono: a 30 000 000 de grados, el mismo átomo de carbono puede
servir diez mil veces en un millón de años.
De esta forma aparece una demarcación, alrededor de los 12 000 000 de grados.
Por debajo de los 10 000 000 de grados, podemos admitir que el rendimiento del
ciclo de carbono es insignificante: no nos movemos del terreno donde se realizan las
fusiones de protones. En cambio, por encima de los 15 000 000 de grados, domina el
ciclo del carbono.

ebookelo.com - Página 109


16. Comparación de dos ciclos nucleares fundamentales
Potencias respectivas de las fusiones de protones y del ciclo del carbono según la temperatura. Conviene
fijarse en la escala logarítmica de las ordenadas.

Nuestro Sol está en la zona intermedia en que ambos procesos se realizan


conjuntamente. Sin embargo, no olvidemos que una pequeñísima fracción de su masa
está a una temperatura superior a 10 000 000 de grados, de manera que el ciclo del
carbono únicamente será responsable de el 2% de su energía.

De uno a docenas de miles de millones

ebookelo.com - Página 110


Finalmente, para conocer la energía irradiada por una estrella —y por lo tanto su
luminosidad— según su masa, tendremos que estudiar dos regímenes,
correspondientes a los dos campos respectivos de los dos procesos nucleares.
Para las estrellas cuya masa sea inferior a un valor determinado, próximo a 1,1
masas solares, la luminosidad ya crecerá rápidamente con la masa y podemos admitir
que será cinco veces mayor cuando la masa se duplique. Pero por encima de 1,1
masas solares, encontraremos el régimen del carbono, en el que para una masa doble,
la luminosidad será quince veces mayor.
La conclusión final que sacaremos será de que entre dos estrellas-modelo que
posean 0,2 y 5 masas solares, respectivamente, la energía disipada variará en una
relación del orden del millón. Alcanzará docenas de miles de millones si tenemos en
cuenta los casos extremos (0,05-50 masas solares), relación que nos instruirá sobre la
razón profunda de la relativa homogeneidad de las masas estelares, pues las más
pequeñas variaciones de masa se traducen por diferencias de régimen enorme, con el
riesgo de provocar la extinción o en cambio la disgregación de la estrella.
Si las estrellas fueron objetos celestes fabricados en serie por un mecanismo que
les impuso masas del mismo orden, la «tolerancia» se tradujo por una increíble
dispersión.
En el terreno industrial, una dispersión de producción será siempre, y por lo
mismo, inevitable. Cuando una máquina fabrica una pieza, las especificaciones
únicamente se respetan con una precisión limitada. Las dispersiones, sin embargo,
son muy variables según el trabajo. Así, cuando una fábrica produce automóviles
cuya potencia teórica debe alcanzar los 20 CV, las potencias reales se escalonarán en
la práctica entre los 18 CV para los «terneros» y los 22 CV para los «leones», en que
las piezas ajustan de manera especialmente afortunada. Pero en otras circunstancias,
como en la fabricación de transistores, por ejemplo, una ínfima variación en las
características de las piezas puede traducirse por diferencias considerables de
rendimiento.
Ahora bien, la cibernética estelar nos pone en este último caso: unas masas que
poseen la misma magnitud pueden proporcionar a las estrellas unos regímenes
profundamente distintos; pues la observación corrobora las enseñanzas de la teoría.

La relación masa-luminosidad
Podemos admitir así que, para las estrellas jóvenes, la luminosidad variará

ebookelo.com - Página 111


aproximadamente como la 3,5 potencia de la masa, lo que pronto asignará a las
estrellas energías fabulosas. Para 5 masas solares, la luminosidad alcanzará 280
(tomando al Sol por referencia), y más allá de esta magnitud entraremos en la gama
de las estrellas pesadas, que son raras, pero cuyo gasto de energía puede ser
alucinante. ¡Por ejemplo, 50 masas solares provocarán una luminosidad cercana a un
millón!
Ésta parece ser la fisonomía de las estrellas-modelo del Universo primitivo.
Lo más notable es que aún refleja bastante bien al Universo actual, lo que se
explica por el hecho de que en muchas estrellas el hidrógeno todavía sea el elemento
dominante en una proporción grandísima.
Pero aún hay más. La relación entre la luminosidad de las estrellas y su masa fue
en realidad descubierta experimentalmente por los astrónomos, antes de que el
desarrollo de la física nuclear aportase su justificación teórica.
Sabemos, en efecto, que al principio los astrónomos pudieron medir por
triangulación la distancia de cierto número de estrellas, situadas relativamente cerca
del Sol.
El cálculo de sus masas fue menos fácil. En realidad, sólo resultó posible para las
estrellas dotadas de compañeros, pues las órbitas de éstos permitían calcular las
masas de los astros en torno a los cuales gravitaban. Lo cual es como decir que el
astrónomo estaba condenado a conocer únicamente las masas de estrellas
particulares, y aun así los cálculos adolecieron de imprecisión durante mucho tiempo.
Sin embargo, bastaron a Eddington para permitir que el ilustre astrofísico
formulase su famosa relación «masa-luminosidad», cuyo gráfico, reproducido en la
figura 17, ofrece una representación particularmente concreta. Al adoptar una escala
logarítmica para las masas de las estrellas —es decir, situando sobre las abscisas y en
direcciones iguales a los números 1, 2, 4, 8…— y adoptando asimismo una escala
logarítmica de las luminosidades, se comprobará que a una colección de estrellas hoy
bien conocidas (Krüger 60, 61 Cygni, el Sol, Sirius, Capella, Y Cygni), corresponden
puntos representativos rigurosamente alineados.

ebookelo.com - Página 112


17. Relación masa-luminosidad
Corresponde a Eddington el mérito de haber demostrado experimentalmente la importancia del factor masa
en las características estelares: para una gama de estrellas, los logaritmos de la luminosidad y la masa son
proporcionales.

Esta relación masa-luminosidad también puede ponerse de manifiesto situando


directamente sobre las ordenadas las magnitudes absolutas de las estrellas que, por
definición, proporcionan una escala logarítmica de las luminosidades. La magnitud
−10 corresponde a una luminosidad cercana a un millón, mientras que al tener
nuestro Sol una magnitud absoluta de +4,7, este nivel será el de la luminosidad 1.

El color de las estrellas

ebookelo.com - Página 113


De lo expuesto se deduce que la masa de una estrella-modelo regirá su régimen
termonuclear, que se manifestará por la luminosidad del astro. Y estos factores
determinarán por sí mismos la ley de reparto de las densidades, y por ende, el radio
de la estrella.
Como la energía termonuclear está irradiada esencialmente por las capas
exteriores del astro, habrá que concluir que la temperatura de su superficie aún estará
gobernada por la masa. Por lo que a esto se refiere, ya hemos recordado el hecho de
que la energía irradiada por un cuerpo negro —nombre que dan los físicos a una
superficie perfectamente emisiva— varía con la cuarta potencia de su temperatura
absoluta. Así, la temperatura superficial se eleva solamente de 2000 a 20 000° cuando
la energía irradiada por centímetro cuadrado es diez mil veces mayor, o sea, cuando
la masa de la estrella pasa de 0,2 a 2,4 masas solares.
Y esta temperatura impone un color característico a la estrella.
Porque, efectivamente, existe una relación entre la temperatura de un cuerpo
negro y su color, como demuestra la elevación progresiva de la temperatura de un
horno. A 600 °C, es rojo cereza. A una temperatura más elevada, se pone al rojo vivo;
su color pasa después al anaranjado, y, si se pudiese seguir aumentando la
temperatura, se verían aparecer sucesivamente todos los colores del espectro.
Del mismo modo como los ojos son el espejo del alma, el color de una estrella
será el reflejo de su actividad, gobernada también por la masa.

ebookelo.com - Página 114


18. Densidad y radio de las estrellas
La densidad media de una estrella-modelo depende únicamente de su masa, pues la distribución de las
temperaturas depende del factor masa: esta densidad decrece cuando la masa aumenta. Así, el radio de una
estrella que tenga ocho masas solares equivaldrá a 3,1 (Sol = 1), mientras que solamente hubiera sido igual a
2 si la densidad hubiese sido la misma. En esta gráfica se toma por unidad la densidad del Sol (que es de 1,4
respecto al agua).

En una colección de estrellas jóvenes de hidrógeno, distinguiremos estas grandes


categorías:

Las pequeñas estrellas tienen temperaturas superficiales bajas y, por


consiguiente, son «rojas». En esta categoría, por ejemplo, hay que situar a las
estrellas cuya masa sea inferior a 0,6 masas solares. Para este último valor, una
estrella-modelo (cuyo núcleo, densísimo, estaría a 10 500 000 grados) tendría
una temperatura superficial de 4500 grados.
Entre 0,6 y 1,1 masas solares, se puede admitir que la temperatura central pasará
de 10 500 000 a 14 500 000 grados, mientras la temperatura superficial asciende,
pasando de 4500 a 6500°. Son las estrellas «amarillas».
Entre 1,1 y 2,6 masas solares, la temperatura central oscilará entre 14 500 00 y
20 000 000 de grados. Las temperaturas de superficie irán de 6500 a 10 000°. Su
composición espectral dará un color «blanco» a la luz de estas estrellas.
Por encima de 3 masas solares, el desbordamiento de energía del astro y la
temperatura elevada de su superficie, harán que la estrella irradie una luz «azul».

ebookelo.com - Página 115


19. Masa y temperatura
Temperatura central y temperatura superficial de una estrella-modelo que estuviese constituida casi
exclusivamente de hidrógeno. Estas temperaturas únicamente dependen de la masa y ésta determina la clase de
estrella. Se estudian las estrellas cuya masa es parecida a la del Sol, pues las estrellas muy pesadas forman la clase
O, cuya «luz» es principalmente ultravioleta.

La diferencia de color de las estrellas es visible a simple vista, pero con


dificultad, pues la atmósfera terrestre absorbe las radiaciones por ambos extremos del
espectro visible, atenuando las coloraciones rojas y azules, lo que, en cambio,
refuerza el blanco. Mas en la era espacial, el cielo nos revela su verdadero rostro: los
cosmonautas quedan maravillados ante el espectáculo de las estrellas multicolores
que se destacan en un cielo negro aterciopelado, mientras los astrónomos sueñan en
las observaciones que mañana podrán efectuar en gran escala, fuera de la atmósfera
terrestre.

ebookelo.com - Página 116


20. Luminosidad de una estrella-modelo
La relación de Eddington encuentra su justificación en este gráfico que indica la luminosidad teórica de una
estrella-modelo, según cuál sea su masa. En las ordenadas, la escala es la logarítmica (los astrónomos evocan con
más frecuencia la escala de las magnitudes absolutas, dispuesta al lado). Pero en las abscisas hemos adaptado una
escala lineal para las masas: la forma de la curva pone de relieve el crecimiento vertiginoso de la luminosidad
cuando aumenta la masa.

ebookelo.com - Página 117


21. Características de estrellas-modelo inferiores a cinco masas solares
Para cada estrella-modelo, T, L, M designan, respectivamente, la temperatura de superficie (en grados C), la
luminosidad (tomando al Sol por unidad) y la magnitud absoluta; t representa el tiempo al cabo del cual se habrá
consumido el 10% del hidrógeno.

Por lo tanto, resulta aún más notable que en el siglo pasado, el padre Secchi ya se
dedicase a clasificar las estrellas según su color, echando los cimientos de una ciencia
estelar que luego había de perfeccionarse, al establecer cierto número de clases,
conocidas universalmente por las letras O, B, A, F, G, K y M[27]. Y cada una fue
dividida en subclases. Las O y B son azules, las A y F, blancas, las G, amarillas,
como nuestro Sol, y, finalmente, las K y M son estrellas rojas. En la figura 20[ver] se
indica el reparto de las estrellas jóvenes en estas diferentes clases, según cuál sea su
masa.

ebookelo.com - Página 118


El diagrama de Hertzsprung-Russell
Existe, pues, una relación entre la luminosidad y la masa. Y la masa determina
igualmente el color del astro, lo cual quiere decir que la luminosidad también
depende del color.
Y esta consideración revistió un particular interés para los astrofísicos. Téngase
en cuenta, en efecto, que la masa de una estrella no es un parámetro directamente
accesible a la observación; solamente puede obtenerse mediante el cálculo y no en
todos los casos. En cambio, los aparatos de medición aprecian fácilmente color y
luminosidad. Así se explica el favor de que goza el diagrama llamado de
Hertzsprung-Russell, base de trabajo de la astronomía estelar, cuyo principio consiste
en situar sobre las abscisas el «índice de color» de una estrella, y en las ordenadas su
luminosidad.
Su interpretación resultó a veces muy ardua, a causa de la variedad de las estrellas
actuales, algunas de las cuales pueden compararse a modelos de hidrógeno, mientras
que otras no se atienen a estas condiciones.
Pero precisamente el diagrama de Hertzsprung-Russell permite efectuar una
notable selección.
Los puntos que representan a estrellas casi totalmente constituidas de hidrógeno
se distribuyen según una línea denominada clásicamente la «serie principal», y es en
esta línea donde se encuentran, por orden de luminosidad decreciente, las clases O, B,
A, F, G, K y M. En cambio, el hecho de que una estrella se encuentre fuera de esta
línea, implicará sin duda una situación distinta[28]. Será un astro muy joven que aún
no habrá encontrado su equilibrio, o en cambio una estrella cuya juventud ya ha
pasado y que ha visto modificarse sus mecanismos…

ebookelo.com - Página 119


22. La secuencia principal
Situando en las ordenadas la luminosidad (escala logarítmica) y en las abscisas, la escala de colores de los
astrónomos, las estrellas llamadas de la serie principal se reparten según este gráfico.

2.— Las escalas del envejecimiento


Una estrella es una máquina celeste cuyo combustible forma su substancia y en la que
además el producto de la combustión no se evacúa.
De esta manera, su propio funcionamiento modifica al astro, y consume su capital

ebookelo.com - Página 120


de hidrógeno, mientras el helio se acumula.
Esta última consideración es la más importante: así que la proporción de helio
alcanza 10%, la estrella ya no puede considerarse como un astro joven y se inicia una
nueva situación.
Todas las evoluciones estelares seguirán idéntico proceso. Pero los regímenes
muy distintos instaurados en las estrellas darán lugar a escalas de tiempo de gran
dispersión.
En una pequeña estrella roja, donde las reacciones nucleares se hallan en estado
latente, los tiempos de transformación serán muy largos y la fusión completa del
hidrógeno en deuterio requeriría miles de millones de años. Así, pues, en algunos
millones de años la composición de la estrella y, por lo tanto, su modo de
funcionamiento, no variarán. En el caso de dichas estrellas, no se registra
prácticamente ninguna evolución sensible a partir del momento en que, rebasado el
estado de la formación, el astro alcanza su régimen permanente. Las estrellas
amarillas, como nuestro Sol, ya han consumido, desde luego, una parte de su
hidrógeno, pero aún pueden transcurrir períodos que van desde cinco mil millones a
quince mil millones de años antes de que la proporción de helio sea importante. Se
trata de una evolución lenta, incluso a la escala cósmica.
Esta evolución, en cambio, será sensible en el caso de las estrellas blancas, rápida
para las estrellas azules e incluso podrá revestir un ritmo impresionante, en este
último caso. La temperatura central de algunas estrellas O (varias docenas de veces la
masa solar) rebasa los 40 000 000 de grados. Estas estrellas de elevadísima
temperatura, cuyas temperaturas superficiales son de 50 000 e incluso 100 000°, ya
no emiten una luz azul ni siquiera violeta, sino esencialmente ultravioleta, e incluso
rayos X. Su energía es tal, que estas megaestrellas consumirán su hidrógeno en
algunos millones de años, o incluso mucho antes, envejeciendo así prematuramente.

El cambio en gigante roja


Vamos a ver cuáles son los resultados de este despilfarro. Desde la estabilización que
siguió a la etapa de su contracción, la estrella funcionaba en régimen permanente,
bajo los auspicios de una retroacción negativa: ante cualquier veleidad de aceleración
de las reacciones nucleares, el excedente de energía irradiada hubiera respondido con
un enfriamiento de la región central, que hubiese disminuido «automáticamente» la
potencia termonuclear.

ebookelo.com - Página 121


Pero este proceso de regulación falla si la estructura de la estrella cambia. Y esto
es precisamente lo que sucede al acumularse una cantidad apreciable de helio: este
elemento, más pesado, se concentra en el núcleo, donde aparece así un meollo en
cuyo interior la fusión de hidrógeno cesa, de lo que resulta una modificación
profunda de las condiciones de trabajo.
Las reacciones termonucleares se perpetúan alrededor de este núcleo, en una
corona cuyas dimensiones aumentarán a medida que el consumo de hidrógeno se
acentúe.
Entonces la estrella se transforma.
El núcleo central, de helio, es una materia muerta que ya no participa en la vida
del astro. Su temperatura, sin embargo, continúa siendo elevada, pues la corona
activa de hidrógeno representa a su alrededor el papel de calentador.
No solamente este núcleo no puede evacuar el calor que le transmite esta corona,
sino que la superficie de separación crea una asimetría, generadora de un verdadero
efecto de invernadero. El helio recibe de la corona una cantidad de calor que rebasa la
que puede restituir. Su temperatura, pues, ascenderá progresivamente.
Los matemáticos calculan que en una estrella que rebase un poco una masa solar
y que en su juventud haya poseído una temperatura central inferior a los 20 000 000
de grados, se alcanza un límite cuando el núcleo de helio representa el 25% de la
masa de la estrella. El aumento de temperatura que entonces se produce es
extremadamente rápido, para alcanzar 25 000 000 de grados cuando este núcleo
representa el 30% de la masa estelar, llegándose a los 30 000 000 y 35 000 000 de
grados para unos porcentajes del 37 y 43% respectivamente.
La estrella, experimenta entonces una profunda transformación. Con el efecto de
este espectacular calentamiento de su región central y de la presión resultante, se
rompe el mecanismo de la retroacción negativa y la estrella es objeto de una
extraordinaria dilatación. Su radio se duplica, se triplica, se decuplica…
Esta modificación de la estructura interna de la estrella se conjuga con un
extraordinario cambio de aspecto: la estrella se convierte en una gigante cuyo radio
podrá ser finalmente cien veces superior al del Sol, mientras la materia que compone
las capas exteriores de la nueva estrella posee una densidad muy escasa y el astro
evoluciona hacia un nuevo estado.
La cohesión se adquiere sin dificultad. En un objeto celeste de masa determinada,
la velocidad de liberación varía inversamente a la raíz cuadrada de su radio: cuando
éste se multiplica por 100, la velocidad de escape se dividirá únicamente por 10, y
por lo general será suficiente para mantener la materia estelar.
No obstante, la gravedad desciende hasta una cifra muy pequeña: en la superficie
de una gigante, alcanza la diezmilésima y hasta la cienmilésima de la gravedad
terrestre, mientras que en el caso de una estrella joven, puede alcanzar una cifra
varias decenas de veces superior a la gravedad terrestre. Lo que es como decir que la
atmósfera de estas estrellas gigantes será teatro de fenómenos que se extienden sobre

ebookelo.com - Página 122


distancias casi increíbles.
En realidad, el estado de la superficie será completamente distinto, a
consecuencia de un nuevo aspecto del equilibrio radial. Considerándola como un
reactor termonuclear cuya energía no hubiese cambiado, la estrella gigante ofrecerá
una superficie de disipación diez mil veces mayor. Entonces, cada metro cuadrado
deberá irradiar diez mil veces menos energía y, según la ley de Stefan, esto le
impondrá una temperatura diez veces menor. Por lo tanto, la temperatura superficial
será bastante baja y los astrónomos se atreverán a afirmar que se trata de una
gigantesca estrella fría, cuya luz emitida está compuesta principalmente por
radiaciones rojas. Esto explica el nombre de «gigante roja» dado a este tipo de
estrella.
De lo expuesto se deduce que al llegar a cierta fase de su evolución las estrellas
sufren una especie de «muda», hallando una nueva fórmula de equilibrio entre la
«botella termos» que constituye la materia inerte de las entrañas del astro y una
vastísima superficie, cuya irradiación ha descendido hasta una proporción
relativamente baja.
Semejante transformación parece ser una regla general, pero el momento de
ocurrir depende de la escala de vida de las estrellas.
Las estrellas azules efectúan el cambio al cabo de un tiempo cósmicamente corto:
a veces algunas docenas o solamente algunos millones de años. Y estas estrellas,
macizas en su juventud, continúan siéndolo. Dan origen a otra clase: las
supergigantes.
En las estrellas blancas, este período se alcanza al cabo de miles de millones de
años y entonces originan principalmente las gigantes ordinarias.
En el caso de las estrellas amarillas, como nuestro Sol, la duración del Universo
no suele haber sido suficiente para permitirles efectuar el cambio. Y, por supuesto, las
estrellas rojas de nuestro Universo aún están muy lejos de haberlo realizado…

3.— La lección de los cúmulos


Así descubriremos la consecuencia directa de la diversidad que reina en las escalas de
los tiempos estelares.
Una mirada al Universo actual sirve para confirmar que algunas estrellas aún se
encuentran en el estadio de su primera juventud, mientras que otras cambian, o han
cambiado. Esta situación, sin embargo, resulta alterada al extenderse los nacimientos

ebookelo.com - Página 123


en el tiempo.
Las primeras estrellas, aparecidas en los tiempos en que se dibujaron las galaxias,
pueden jactarse de una edad superior a los diez mil millones de años, pero la génesis
de estrellas continúa prácticamente durante toda la vida de nuestra Galaxia, de
manera que el astrónomo contempla hoy estrellas de todas las edades y una estrella
nacida en los últimos mil millones de años puede haber cambiado, mientras que otras
muy antiguas continúan su primera vida, situación que ha obstaculizado todas las
tentativas de clasificación, pues habrá que esperar a que se comprendan las líneas
directrices de la evolución de las estrellas y el astrónomo haya podido disponer de
series de referencia.
A este respecto, los cúmulos globulares habían de aportar preciosas enseñanzas.
Se designa con el nombre de cúmulos a los grupos de estrellas reunidas en una
misma región del cielo y que, al ser en cierto modo satélites unas de otras, pueden
considerarse como nacidas de un mismo tronco.
Este punto tiene capital importancia.
En la epopeya estelar, la masa se presenta como el principal carácter de
diferenciación. Pero no es el único. Con el tiempo, veremos modificarse la
composición del Universo y variar de aspecto la masa estelar. De aquí el interés
inmenso que ofrece una colección de estrellas nacidas de una misma materia. Y de
momento, esta condición parece cumplirse fácilmente, pues las estrellas nacieron por
racimos dentro de las condensaciones provocadas por la gravitación en el interior de
regiones celestes cada vez más densas.
Además, una simple mirada al cielo basta para ver las estrellas curiosamente
agrupadas; el término «cúmulo» surge constantemente en la descripción del cosmos.
Sin embargo, se plantea una cuestión prejudicial. Hoy vemos muchas estrellas
agrupadas en el cielo. Pero ¿se trata de enjambres «de origen»? Las estrellas recorren
distancias considerables: nuestro Sol ha efectuado ya varias veces la vuelta de la
Galaxia. En estas condiciones es lícito pensar que los enjambres de estrellas hayan
podido disociarse, mientras que se formaban otros a partir de estrellas de diferentes
orígenes.
Un estudio detallado de las «reacciones de gravitación» nos aportará la respuesta.

Reacciones de gravitación
Si consideramos dos objetos celestes, sabremos en qué condiciones la gravitación de

ebookelo.com - Página 124


uno retiene prisionero al otro. Siempre es posible definir una energía de escape fuera
de un astro; un cuerpo que tenga una energía inferior se convertirá en satélite. Ambos
objetos se desplazarán entonces por el espacio en forma de una pareja unida por los
vínculos de la gravitación universal. Ante una energía superior, en cambio, estos
objetos se comportarán como dos extraños: solamente se desviarán al pasar uno junto
al otro, antes de continuar sus respectivos caminos por el espacio.
A primera vista, un cuerpo que no posea la energía de escape, no podrá adquirirla
por sí mismo y, por consiguiente, una satelización no puede romperse. De manera
inversa, la mecánica celeste negaba antes la posibilidad de que se produjese una
satelización espontánea, pues un cuerpo que penetre en el campo de atracción de un
astro aumenta su energía propia con la que le confiere dicho campo. O sea, que en
cualquier momento el suplemento representa la energía de escape, la suma siempre le
será superior.
Sin embargo, imaginemos a un satélite que posea casi la energía de escape y
describa una órbita muy excéntrica en torno a un objeto celeste. Si la atracción
ejercida por un tercer cuerpo le comunica un suplemento de energía, nada nos impide
suponer que ésta sea superior al nivel de escape. Por lo tanto, el cuerpo intruso habrá
separado a la pareja, destruyendo una satelización.

23. Una reacción de gravitación


En este ejemplo propuesto por O. Schmidt y H. Khilmi, intervienen tres astros de masas iguales. La estrella A
describe una trayectoria relativa I (elipse que tiene un eje mayor de 200 UA y una excentricidad igual a 0,5,
lo que corresponde a un período de dos mil años), alrededor de E. Bajo la influencia de la estrella B que
sigue la trayectoria hiperbólica II, A abandona su elipse: liberada de la atracción de E, se alejará siguiendo la
trayectoria III.

Actualmente, los astrónomos saben que esto es posible. Se han efectuado


profundos estudios sobre las reacciones causadas por la gravitación, en el caso de los
asteroides atraídos al campo gravitatorio de Júpiter. En 1947, estos estudios
permitieron llegar a varias conclusiones positivas: Schmidt y Khilmi efectuaron una
demostración que en algunos casos probaba la posibilidad de rupturas de satelización;
e ilustraban su aserto con un ejemplo. Más tarde, en plena era espacial, el Ranger V

ebookelo.com - Página 125


corroboró esta afirmación. El 18 de octubre de 1962, este ingenio norteamericano fue
colocado en una órbita de gran apogeo, convirtiéndose en un satélite de la Tierra.
Pero al pasar a 483 km de la Luna recibió el «papirotazo» que lo arrancó
definitivamente a la atracción terrestre. El hombre preparó las condiciones necesarias
para una ruptura de satelización, en que la Luna representó el papel de cuerpo intruso.
Desde luego, este proceso puede acaecer en ambos sentidos. Al cambiar el signo
del tiempo, el matemático invierte la acción: un objeto extraño a la Tierra puede caer
en la trampa de su gravitación por intermedio de la Luna.
Por consiguiente, un grupo de estrellas, prisioneras de su mutua gravitación,
estará amenazado de una evolución doble. A consecuencia de una serie de
interacciones, podrá suceder que un astro del enjambre adquiera accidentalmente la
energía que permita su evasión. Entonces, lo abandonará para siempre y los
astrónomos atribuirán la «evaporación» progresiva de los cúmulos a las inevitables
reacciones de la gravitación. Pero, aceptando el caso contrario, puede admitirse que
un cúmulo capture a los astros que penetren en su dominio.

24. Distribución de las pléyades según su masa


En el cúmulo de las Pléyades, las estrellas más pesadas están más cerca del centro: se toma el radio del enjambre
como unidad de longitud.

Esto suscita la siguiente cuestión: saber si las estrellas que hoy nos aparecen
agrupadas en una región constituyen enjambres naturales que aún no se han

ebookelo.com - Página 126


evaporado, o cúmulos formados por retenciones sucesivas.
El veredicto del cálculo es categórico y revela que el tiempo de evaporación
depende en gran parte de la estructura. Los astrónomos dan el nombre de
«asociación» a los agrupamientos de estrellas poco numerosas, unidas por vínculos
muy débiles. La vida de semejantes asociaciones es breve, pues solamente dura unos
cuantos millones o incluso algunos cientos de miles de años[29].
Pero la evaporación de los verdaderos cúmulos es un fenómeno lento: los mil
millones de años son una unidad corriente para seguirlo. Los matemáticos saben
calcular los tiempos de disociación, y Spitzer ha podido demostrar que la dislocación
de un cúmulo está intensificada por el choque de nebulosas: la energía media
aumenta cuando las estrellas más ligeras sufren una expansión más rápida. En el
cúmulo de las Pléyades, es característico encontrar a las estrellas más densas cerca
del centro (fig. 24)[ver].
El proceso inverso, a saber, el aumento de la población de un cúmulo por
captación de estrellas, es de todos modos una operación incomparablemente más
lenta aún, pues solamente una aproximación muy crítica de astros exteriores puede
crear las condiciones de una captación.
Para terminar, veremos que las velocidades respectivas de estos procesos ya no
dejan lugar a dudas y nos dan la certeza de que los actuales cúmulos son naturales.
Dicho de otro modo; nos ponen en presencia de colecciones de estrellas nacidas
simultáneamente de una misma materia; la masa fue el factor esencial de
diferenciación para los representantes del cúmulo.
En términos generales, descubrimos a nuestro alrededor un Universo
relativamente joven, en el que la mayoría de los cúmulos apenas han empezado a
evaporarse. Si el equilibrio entre reacciones gravíficas se alcanzase, el carácter
gregario de los astros debería ser diez millones de veces menos marcado.
Al observar a los astros de un mismo cúmulo tendremos, pues, una imagen del
envejecimiento de las estrellas según su masa.
En cambio, al comparar a diversos cúmulos nacidos en épocas diferentes,
conoceremos la proporción de estrellas viejas según la edad. En un cúmulo muy
joven, será posible que algunas estrellas aún no hayan tenido tiempo de cambiar, o
como dicen los astrofísicos, de abandonar la serie principal.
El astrónomo Robert J. Trumpler, especializado en el estudio de los cúmulos
galácticos, estableció las bases de una interesante codificación según la cual los
cúmulos globulares, cuyas estrellas se encuentran aún en su totalidad en la etapa de
su primera vida, se hallan comprendidos en una categoría 1. En una categoría 2 se
hallan los cúmulos más viejos, que contienen a algunas gigantes. Y por último, en los
cúmulos muy antiguos, o de la categoría 3, las gigantes son numerosas.

ebookelo.com - Página 127


Las Híades
El cielo nos muestra a numerosos grupos de estrellas, situados a distancias muy
diversas, que constituyen otros tantos regímenes de la aventura cósmica.
Solamente a 130 años luz, las Híades constituyen el más próximo de estos grupos.
A decir verdad, numerosas estrellas importantes del firmamento se hallan a distancias
mucho mayores.
No siempre el hombre se dio cuenta del notable carácter que presentaba este
cúmulo tan rico en estrellas. Las Híades eran una imagen en el cielo que nadie se
molestaba en interrogar. El hombre se limitaba a trasladar a ellas sus preocupaciones
terrestres, pues según afirmaba la leyenda, las Híades eran, cinco hijas de Atlas y
Etra, inconsolables por la muerte de su hermano Hías, al que los dioses convirtieron
en astro. Esta alusión a unas estrellas que se encendieron en el cielo, no deja de ser
curiosa. La verdad es que la aparición de las Híades precedió en muchos millones de
años a la del hombre en la Tierra.
Su edad cósmica, en efecto, se calcula en 870 000 000 de años. Cuando nacieron,
el Sol y la Tierra ya existían desde hacía mucho tiempo. Nuestro planeta ya había
asistido al desarrollo de la vida, pero este gran movimiento aún no había abandonado
el regazo maternal del océano.
Según la clasificación de Trumpler, las Híades constituyen un cúmulo de segunda
categoría, al que el astrónomo otorgó la clasificación de 2 a para indicar que las
estrellas más grandes, todavía en su primera juventud, son del tipo A. Teniendo en
cuenta la edad, todas las estrellas de la clase B, y con más razón las de la clase O, ya
han experimentado el cambio…

La leyenda de las Pléyades


Más allá de las Híades se encuentra Coma, o la Cabellera de Berenice, situada a 260
años luz. Este cúmulo, que cuenta trescientos millones de años, está clasificado
dentro de la misma categoría de las Híades, con la sola diferencia de que la
proporción de estrellas A es algo más elevada.
En tercera posición encontramos al famosísimo cúmulo de las Pléyades, cuya
forma característica, al sur de la constelación de Orión, fue origen de numerosas
leyendas, pues no hay duda de que las Pléyades constituyen la agrupación celeste más

ebookelo.com - Página 128


popular.
En todas las épocas el hombre observó estas estrellas curiosamente agrupadas.
Presidían el comienzo de la jornada: hace cuatro mil años el equinoccio de primavera
pasaba exactamente por las Pléyades. En otoño, salían al anochecer y así, entre los
egipcios, noviembre fue llamado el «mes de las Pléyades». Los polinesios incluso
dividieron el año en dos partes, «Matarii I Nia» y «Matarii I Raro»; o sea, «Pléyades
encima» y «Pléyades debajo».
Seis estrellas dominan el grupo. Los griegos contaron siete y les dieron, como a
las Híades, los nombres de las hijas de Atlas, que éste tuvo de Pleyonea: Taigeto,
Merope, Alcyone, Celeno, Electra, Asterope y Maya. Afirmaban que la séptima
desapareció durante la guerra de Troya. ¿Leyenda o variación de brillo,
correspondiente a una evolución estelar natural? Obsérvese que, hace solamente tres
siglos y según astrónomos dignos de crédito como Hevelius, Taigeto era más brillante
que Maya, mientras que en la actualidad sucede lo contrario. En realidad, las
personas dotadas de muy buena vista pueden distinguir en las Pléyades diez estrellas
principales y, en ocasiones, catorce. Con unos buenos gemelos se descubren a
docenas, mientras que los instrumentos astronómicos las señalan por centenares.
Las Pléyades están situadas a unos cuatrocientos años luz y constituyen un
cúmulo joven, pues su edad se calcula en algunas decenas de millones de años tan
sólo. Las Pléyades, pues, nacieron posiblemente cuando en la Tierra reinaban los
reptiles gigantes, cuyos estúpidos ojos no descubrieron el más magnífico espectáculo
que hubiera podido captar una cámara cósmica. Las estrellas de las Pléyades aún se
encuentran en su totalidad en la etapa anterior al cambio. En realidad, se trata de un
cúmulo de la categoría 1 b. No descubrimos entre ellas supergigantes rojas, hecho
que los astrónomos interpretan considerando que al principio, el cúmulo no debió de
contener estrellas de mucha masa.
Las Pléyades constituyen el cúmulo estelar que los astrónomos han estudiado con
más apasionamiento. Y resulta característico que ya en el siglo XVIII, o sea, en una
época en que las distancias estelares eran desconocidas, Mitchell se preguntase si esta
reunión de estrellas era un simple efecto de perspectiva o, por el contrario, un
verdadero universo dentro del Universo. Y el cálculo de probabilidades ya lo hacía
inclinarse sin vacilar por la segunda hipótesis.
El propio Flammarion estudió la evolución de las Híades y las Pléyades, llegando
a la conclusión de que se trataba de «soles asociados en un destino común». Vistas
retrospectivamente, estas reflexiones aparecen proféticas en un momento en que el
astrofísico trata de leer la historia del Universo en estos modelos reducidos que son
los cúmulos estelares…

ebookelo.com - Página 129


Pasado, presente y futuro
Más allá de las Pléyades, sólo se encuentran otros tres cúmulos: Praesepe, Messier 39
y Messier 7, que están a menos de 1000 años luz. Pero más allá, los instrumentos que
escrutan la Galaxia descubren decenas de millares de cúmulos de todos los tipos. En
ellos existe un enlace muy característico entre la serie principal y la rama de las
gigantes. Algunos cúmulos presentan «agujeros». El astrofísico se halla en la
situación del zoólogo que, al estudiar una colonia de ranas, comprobase que existen
renacuajos e individuos adultos, pero no consiguiese descubrir ejemplares
intermedios, a causa de la rapidez de la transformación.
Del mismo modo, si bien la serie principal suele representarse como un lugar
geométrico de estados permanentes, el cambio de las estrellas debe considerarse
como un fenómeno «transitorio» a la escala cósmica. Y parece realizarse en un
período particularmente corto, cuando la masa es importante. Las estrellas pesadas,
que evolucionan con rapidez durante su juventud, aún son mucho más rápidas en sus
metamorfosis.

25. Diagramas estelares de tres cúmulos


En el caso del cúmulo extremadamente joven NGC 2362, el diagrama se confunde prácticamente con la secuencia
principal. Se aparta un poco de ella en las Pléyades, cuya edad se calcula en decenas de millones de años, y la
divergencia es profunda en un cúmulo viejo como M 67, en el que solamente las estrellas relativamente pequeñas
no han experimentado el cambio. (Estos diagramas teóricos no toman en consideración la diferencia de
composición de la pasta estelar, según la época en que nacieron las estrellas).

De este modo, el astrónomo contempla el pasado, el presente y el futuro de las


estrellas a través de los cúmulos.
Hoy sabemos que un microcosmos como NGC 2264 reproduce a pequeña escala
la génesis de las estrellas. Y el astrónomo descubre en NGC 2362 un ejemplo de
cúmulos de formación recentísima.
En cambio, puede contemplar el futuro del Universo al dirigir su mirada a un
cúmulo antiguo, como Messier 67. La edad de este curioso grupo, que parece un
gorro frigio situado entre la Hidra y el Cáncer y visible a simple vista a pesar de su

ebookelo.com - Página 130


distancia (2700 años luz), se calcula en seis mil millones de años. Pero no es el
decano; conocemos al viejísimo cúmulo NGC 752, relativamente próximo, pues se
encuentra a 1300 años luz, para cuya edad los astrofísicos proponen cifras increíbles.
En el caso de estos viejos cúmulos de categoría 3, la secuencia principal suele
detenerse en las estrellas de tipo F. Son numerosas las estrellas que han
experimentado el cambio y la «segunda vida» constituye la regla general.
Pero precisamente se plantea esta cuestión: ¿qué ocurre con las estrellas al llegar
a su segunda vida?, ¿cuál es el destino que las espera? Estas preguntas, a decir
verdad, nos llevarán a descubrir la prodigiosa alquimia celeste.

ebookelo.com - Página 131


7

La alquimia celeste
Con diversas variantes, la actividad de una estrella joven se limita a una
transmutación de su hidrógeno en helio. La conversión se hace con mucha rapidez en
las estrellas grandes, hasta el punto de provocar con bastante prontitud su cambio en
gigantes.
Al llegar a esta etapa, las reacciones termonucleares aún están alimentadas por la
corona de hidrógeno que rodea al núcleo central.
Pero su espesor disminuye poco a poco y llegará de manera inevitable un
momento en que la cantidad de hidrógeno ya no bastará para asegurar la actividad
estelar.

El comienzo de una inmensa partida


Esto no quiere decir que la estrella haya llegado forzosamente al término de su vida.
No ha hecho más que vivir la fase inicial de una aventura, cuyas verdaderas
dimensiones aparecerán ante nuestros ojos si consideramos que el número de
elementos simples es de un centenar y, hasta aquel momento, sólo los dos primeros
han representado un papel de importancia.
De cuando en cuando intervienen otros elementos. Partiendo del hidrógeno, el
proceso de una síntesis del helio pasa a veces por el litio, el berilio, el boro, el
carbono, el nitrógeno y el oxígeno (elementos 3, 4, 5, 6, 7 y 8). Y sabemos que los
heliones nacidos de fusiones poseen enormes energías, que les permiten provocar
ciertas reacciones nucleares. Sin embargo, la verdad es que con excepción del
hidrógeno y del helio, los demás elementos son simples comparsas.
En el monopolio nuclear, este paso de la casilla 1 a la casilla 2 solamente exige
una temperatura suficiente para que los protones puedan vencer la fuerza eléctrica.
Entonces se inician reacciones que liberan energía capaz de asegurar su perpetuación.
Ésta era la «fórmula» de la estrella.
Al extinguirse la reacción termonuclear alimentada por el hidrógeno, se diría a
primera vista que ya no existe estrella propiamente dicha. O, al menos, ya no existe
estrella después de registrarse este fenómeno. En tal caso, nos encontraríamos en

ebookelo.com - Página 132


presencia de un «objeto gaseoso» para volver en cierto modo a la etapa de la
preestrella, pero con la diferencia de que la composición sería distinta.
Sin embargo, la continuación es fácil de imaginar.
Desde que se incendió la estrella, la gravitación se tenía en jaque.
Al no existir factores antagónicos, hubiera acentuado la contracción de una
estrella naciente mediante una implacable retroacción positiva. Esta contracción se
interrumpió al desencadenarse reacciones termonucleares, cuya energía debía
contrarrestar la gravitación. Se alcanzó entonces un equilibrio, hasta que al llegar el
momento de la conversión en gigante, la fuerza nuclear hizo retroceder la gravitación.
Pero semejante dilatación tensó en cierto modo el resorte de la gravitación, creando
las condiciones que le permitieran pasar de nuevo al ataque con vigor renovado,
cuando la savia nuclear mostrase tendencia a debilitarse.
Esto es precisamente lo que ocurre al final de un agotamiento relativo del
hidrógeno.
Al poseer un núcleo de helio ya denso, la estrella se halla sometida a una nueva
contracción gravitatoria, y puede afirmarse que inicia otra vida, pues se reproducen
las condiciones exactas de un incendio estelar. Únicamente la materia prima es
distinta. Antes era hidrógeno, pero ahora lo releva el helio.

Nuevas reacciones termonucleares


Como el hidrógeno, en efecto, el helio es una materia prima termonuclear, pues las
consideraciones relativas a los protones pueden aplicarse a los heliones: si éstos son
conducidos a distancias suficientemente pequeñas, se manifestará una fuerza de
atracción entre las partículas que contienen. Y entonces se liberará una nueva energía,
pues la fusión de heliones dará origen a núcleos mayores, o sea a elementos de una
categoría más elevada.
Así descubrimos un proceso de carácter muy general, inaugurado con el
hidrógeno. Y por esta noble causa, la fusión de dicho elemento en helio merecerá
llamarse primera reacción nuclear.
Cronológicamente, no podía dejar de ser la primera en producirse en un Universo
que al principio era hidrógeno. Pero teniendo en cuenta que su núcleo posee una
carga eléctrica unitaria, el hidrógeno será además el elemento cuyas fusiones se
realizan a las temperaturas más bajas. El núcleo de helio posee una carga doble. Así,
se ejerce una fuerza de repulsión cuádruple entre dos heliones y se requieren

ebookelo.com - Página 133


100 000 000 de grados para que pueda efectuarse la fusión.
Esta temperatura se conseguirá con la segunda ofensiva de la gravitación, pues la
escala térmica de una estrella adulta ya no es la de una estrella joven. En ésta, la
gravitación se ejerce sobre un gas frío, mientras que al principio de su segunda vida
estelar, la acción gravitatoria se ejerce sobre masas de helio que ya están a
30 000 000 de grados. Es importante observar que, a igualdad de condiciones, la
gravitación comunica al helio una temperatura más elevada que al hidrógeno.
Al caer en un campo gravitatorio, los cuerpos adquieren efectivamente
velocidades independientes de su masa. Pero si se imparte una misma velocidad a un
núcleo de helio y a un núcleo de hidrógeno, aquél, cuatro veces más pesado, adquiere
una energía cuatro veces mayor, lo cual equivale a decir que la gravitación le confiere
una temperatura cuatro veces más elevada.
Por último, no debemos olvidar que al encenderse una estrella, las reacciones
termonucleares detienen la contracción y que ésta hubiera podido crear temperaturas
mucho más elevadas.
Por estos motivos, la segunda vida de la estrella se inicia con unas temperaturas
que, según las dimensiones del astro, pueden oscilar entre 50 000 000 y 200 000 000
de grados. Y que por lo tanto permiten otra serie de reacciones termonucleares
alimentadas por heliones.

Con el pie en el estribo


Estas reacciones nos harán asistir al nacimiento de una nueva gama de elementos.
Si son necesarios 100 000 000 de grados para que dos heliones se unan en un
núcleo de berilio, éste absorbe un nuevo helión, prácticamente a la nueva
temperatura. Cuando el corazón de una estrella alcance 100 000 000 de grados, tres
heliones se unirán, dando origen a un núcleo de carbono, reacción que liberará 7,6
MeV.
Y como en el caso de la fusión del hidrógeno, esta energía nuclear podrá asegurar
el mantenimiento e incluso la elevación de la temperatura central. La gravitación ha
sido de nuevo la chispa que ha encendido la estrella, que así inicia una nueva
actividad.
Después del helio, el carbono será, pues, la segunda etapa del monopolio nuclear.
Esta etapa puede observarse en el cielo. En el espectro de las estrellas gigantes,
los astrónomos señalan abundancia de carbono, y a veces se hallan concentraciones

ebookelo.com - Página 134


superficiales de este elemento excepcionalmente elevadas. Así se cambian los papeles
y, de comparsa, el carbono se convierte en protagonista. Del elemento 2 hemos
pasado al elemento 6, cuya forma normal es la de carbono 12 (el núcleo del cual
posee seis protones y seis neutrones).
Pero esto aún no es más que el principio de la segunda vida. A continuación los
acontecimientos pueden precipitarse, pues alrededor de los 120 000 000 de grados, el
helión penetra en el núcleo del carbono para transformarlo en oxígeno. Y a una
temperatura un poco más elevada, el propio oxígeno puede absorber un helión para
transformarse en neón.

La cadena heliónica
La creación de elementos se prosigue, pues, de acuerdo con una ley muy sencilla,
según la cual la absorción de un helión eleva en dos unidades el número atómico,
mientras que el número de masa aumenta por su parte en cuatro unidades.
Este proceso favorece a los elementos pares que, a partir del helio, están en
abrumadora mayoría en el Universo, especialmente en forma de isótopos, cuyo
número de masa es múltiplo de cuatro.
Tabla II
Número de masa Abundancia%
1 99,98
1. Hidrógeno
2 (1+1) 0,02
3 (2+1) 0,000 01
2. Helio
4 (2+2)* 99,999 99
6 (3+3) 7,4
3. Litio
7 (3+4) 92,6
4. Berilio 9 (4+5) 100
10 (5+5) 18,8
5. Boro
11 (5+6) 81,2
12 (6+6)* 98,9
6. Carbono
13 (6+7) 1,1
14 (7+7) 99,62
7. Nitrógeno
15 (7+8) 0,28

ebookelo.com - Página 135


16 (8+8)* 99,76
8. Oxígeno 17 (8+9) 0,04
18 (8+10) 0,2
9. Flúor 19 (9+10) 100
20 (10+10)* 99,52
10. Neón 21 (10+11) 0,27
22 (10+12) 0,21
11. Sodio 23 (11+12) 100
24 (12+12)* 78,6
12. Magnesio 25 (12+13) 10,1
26 (12+14) 113
13. Aluminio 27 (13+14) 100
28 (14+14)* 923
14. Silicio 29 (14+15) 4,7
30 (15+15) 3
Los primeros elementos y sus isótopos

Este cuadro da la abundancia relativa de los diversos isótopos de cada uno de los quince primeros elementos.
La Tierra tiene una composición sensiblemente distinta a la del Universo. Sin embargo, se admite que la
abundancia relativa de isótopos es comparable, para un elemento determinado. Los asteriscos indican los
núcleos heliónicos.

Al llegar aquí, vale la pena examinar la tabla II, que da la abundancia respectiva
de cada isótopo en la Tierra, para los primeros elementos. Podemos pensar que
corresponden a su abundancia respectiva en el Universo, que aún es muy joven, pues
el hidrógeno es diez veces más abundante que todos los demás elementos
reunidos[30]. O sea, que en promedio, el Universo apenas ha recorrido una fracción de
su primera vida.
Dejando el hidrógeno al margen, es decir, teniendo únicamente en cuenta la
«materia evolucionada», continúa siendo característico el hecho de que el helio
también sea diez veces más abundante que todos los demás elementos juntos; por lo
tanto, los elementos que intervienen en la segunda vida de una estrella sólo
representan 1% en el Universo.
Pero al llegar a esta etapa, el «deslizamiento» es muy rápido y ya no se trata de
basar los cálculos en un oxígeno que fuese diez veces menos abundante que el
carbono y después en un neón diez veces menos abundante que el oxígeno. La
situación adquiere un aspecto completamente distinto con el desarrollo de las
reacciones nucleares y, más allá del helio, en realidad nos encontramos con un
pelotón, encabezado por el oxígeno. El carbono viene después, por la sencilla razón
de que se ha transformado casi todo en oxígeno, mientras que este elemento se

ebookelo.com - Página 136


convierte a su vez en neón.
Pero esto no significa el final del movimiento. Sin embargo, el neón constituye en
cierto modo un seguro de paro, pues su núcleo es particularmente estable. Hay que
rebasar la cifra de los 200 000 000 de grados para que absorba un helión. Se convierte
entonces en magnesio, transformación que al parecer sólo puede realizarse en gran
escala en el interior de estrellas de gran tamaño. Después, y a temperaturas cada vez
más altas, aparecen los elementos siguientes, mientras el número de masa aumenta
con regularidad.
Incluso podemos asistir a la fusión directa de dos núcleos de carbono, de la que
nace un núcleo de magnesio, con liberación de 15 MeV. La velocidad de esta
reacción crece muy de prisa con la temperatura: Cameron calcula que a 500 000 000
de grados, su duración media es solamente de diez millones de años.
Se comprenderá por lo que antecede que, con la fusión del hidrógeno, la materia
estelar solamente puso el pie en el estribo nuclear, iniciando un notable proceso que
se desarrollaría vertiginosamente en las gigantes, donde la función, si no crea el
órgano, crea al menos el agente. Al mismo tiempo que se fabrican las materias primas
de reacción que exigen temperaturas cada vez más elevadas, dichas temperaturas son
creadas por la energía mayor, otorgada por la gravitación a núcleos más pesados.
Durante la primera vida de una estrella, solamente los heliones nacientes tenían
las elevadas temperaturas que les permitían realizar reacciones nucleares. Durante la
segunda vida, estas supertemperaturas serán la regla general.
Cuando efectuó el cambio, la estrella sufrió una impresionante dilatación.
Continuará siendo una gigante e incluso una supergigante durante su segunda vida, a
causa de las altas temperaturas centrales y de las presiones de radiación que crea. Con
sus 20 masas solares, Antares por ejemplo, tiene un diámetro de 450 000 000 de km
(el Sol tiene 1,4 y las estrellas jóvenes más grandes, menos de 10), lo que asigna al
brillante luminar del Escorpión una densidad media cuatro mil veces menor que el
aire.
Su antípoda celeste, Betelgeuse, es asimismo una supergigante con un diámetro
superior a los 500 000 000 de km, o sea trescientas cincuenta veces el del Sol; si
Betelgeuse ocupase el lugar de éste, englobaría la órbita de la Tierra e incluso la del
planeta Marte.

El proceso neutrónico

ebookelo.com - Página 137


Así, en el transcurso de su segunda vida, el mecanismo nuclear de las estrellas
consiste en fusiones de heliones, que crean una gama de elementos privilegiados.
Pero no es el único proceso. Y al llegar aquí, se impone la observación. En el
grupo de cabeza de los elementos evolucionados, que abundan en el Universo, al lado
de la tríada oxígeno-carbono-neón, descubrimos efectivamente un elemento «impar»:
el nitrógeno. Este elemento número 7 se inscribe fuera de la hilera heliónica; su
síntesis solamente puede admitirse suponiendo la intervención de un núcleo más
pequeño que el helión o invocando complejas transformaciones de grandes núcleos.
Efectivamente, un núcleo de nitrógeno puede crearse por penetración de un
deuterón en un núcleo de carbono, proceso que se realizará a gran escala en las
estrellas en las que el carbono existe en cantidades apreciables, mientras continúa la
fusión de los protones.
Muy raramente el hidrógeno estará fuera de acción. Al acabar su juventud, las
estrellas solamente han consumido una fracción de su capital inicial y el resto origina
numerosas reacciones secundarias.
Pero tengamos en cuenta que el ciclo de Bethe ya nos ha permitido, a una
temperatura relativamente baja, la reacción del hidrógeno con el carbono: un protón
penetra en un núcleo de carbono 12 y lo transforma en carbono 13. A 100 000 000 de
grados, el movimiento se generaliza y los protones pueden penetrar oxígeno y neón,
mientras la velocidad de las reacciones aumenta con la temperatura. Así, el oxígeno
16 se transforma en oxígeno 17 y el neón 20 se convierte en un neón 21. Y estos
recién llegados se ofrecen como cebo a los heliones. Pero, precisamente entonces,
surge una situación nueva.
Al actuar sobre un núcleo de carbono 13, un helión da origen a un núcleo de
oxígeno 16 y a un neutrón libre, reacción que libera 2,2 MeV. Del mismo modo, un
núcleo de helio crea un neón 20 con el oxígeno 17, y un neutrón libre. Y el mismo
proceso se efectúa con el neón 21, que se transforma en magnesio 24, con emisión de
un neutrón.
Dicho con otras palabras: cuando los heliones chocan con determinados núcleos
aparecen espontáneamente neutrones dentro del marco térmico de una segunda vida
estelar. Y éste no es el único proceso neutrónico. Al chocar con protones muy
rápidos, los núcleos ordinarios también se convierten en generadores de neutrones. La
penetración depende de un límite de energía para cada especie; es particularmente
bajo en el caso del nitrógeno 14 (6 MeV).
Los protones restantes se consumen entonces en bloque y resulta significativo que
en el caso de algunas gigantes, los astrofísicos no hayan podido señalar trazas
apreciables de hidrógeno.
Las condiciones estelares resultan entonces profundamente modificadas, y en las
estrellas de temperatura elevada se dibuja una nueva aventura con la aparición de
neutrones libres.

ebookelo.com - Página 138


Los crisoles estelares
Estas estrellas se convertirán en verdaderos crisoles en los que, al margen de las
fusiones, los neutrones provocan numerosas reacciones nucleares.
Se convertirán en una alquimia viviente.
Hubo un tiempo en el que, sin conocer apenas los elementos, el hombre trataba de
efectuar temerarias transmutaciones. Quería transformar el plomo en oro, con el
siguiente razonamiento: «Lo que la naturaleza hizo al principio, nosotros podemos
rehacerlo igualmente, remontándonos al procedimiento que aquélla siguió. Tal como
hacemos el pan, podemos hacer los metales». Los métodos preconizados nos parecen
hoy pueriles y la alquimia ha merecido los más severos juicios. Según dijo Fourcroy:
«Ocupó a muchos locos». Sin embargo, es significativo que Paracelso, Spinoza y
Leibniz creyesen en la transmutación de los metales.
Efectivamente, lo que la naturaleza hizo al principio, el hombre puede rehacerlo,
pero a condición de crear las condiciones requeridas. Los centenares de millones de
grados necesarios para una verdadera alquimia, se obtienen hoy en los aceleradores
de partículas. Pero estas temperaturas no pueden mantenerse normalmente en la
Tierra, donde el plomo sigue siendo plomo, pues a su formación nuestro planeta
recibió un cupo de elementos cuya fabricación ya se había realizado mucho tiempo
antes, en el seno de las estrellas. El marco terrestre no convenía a la alquimia. Al
pensar en ella, el hombre soñaba implícitamente en las estrellas, pues la alquimia
constituyó la actividad estelar fundamental.
Hemos vivido ya sus primeras etapas. Las ocasiones se multiplicarán y las
diferenciaciones alcanzarán un grado tal que hará ilusoria cualquier pretensión de
análisis: habrá prácticamente tantas evoluciones como estrellas. Solamente los
procesos pueden clasificarse. Caen dentro de los dos tipos fundamentales que las
consideraciones precedentes nos han dejado entrever.
Los proyectiles cargados —protones, heliones o cualquier clase de núcleo— son
la causa de los procesos llamados térmicos. Se les da este nombre porque estos
proyectiles solamente pueden penetrar en los núcleos si se hallan animados de
energías suficientes. Por este motivo, las reacciones dependen de la temperatura.
En cambio, los proyectiles neutros —en este caso los neutrones— no conocen
ninguna barrera eléctrica. Por lo tanto, provocan reacciones que pueden desarrollarse
a cualquier temperatura y que sintetizan numerosos elementos pesados. Este último
proceso se desarrolla en gran escala cuando la corriente neutrónica es importante,
caso en que se encuentran algunas gigantes.
En estas estrellas, mientras las reacciones termonucleares mantienen al astro en
funcionamiento, los procesos neutrónicos efectúan una labor menos rentosa pero
infinitamente más variada. Bajo sus auspicios, las estrellas producen prácticamente
todos los elementos y el caso del tecnecio es muy característico al respecto…

ebookelo.com - Página 139


La aventura del tecnecio
El tecnecio, o elemento 43, tuvo una historia muy curiosa para el químico. No existe
en la Tierra, pues, por un capricho de la mecánica nuclear, no posee ningún isótopo
estable. Por lo tanto, hubo que fabricarlo artificialmente. Perrier y Segré lo
consiguieron en 1937, bombardeando el molibdeno con núcleos de deuterio. Así
obtuvieron un metal bastante parecido al renio y al manganeso, cuyas propiedades
respondían bien a las previsiones de Mendeleyev.
Actualmente, el tecnecio se aísla a partir de las pilas atómicas. Abunda en los
residuos, en los que el tecnecio casi representa el 6% de su masa total. Se conocen 17
isótopos de este elemento. Y, como ya se preveía, son todos radiactivos: el más
estable es el tecnecio 99, cuyo período alcanza doscientos diez mil años.
Por lo expuesto se comprenderá que la detección estelar del tecnecio constituye
una prueba, pues si se encuentra este elemento en una estrella que tenga varios miles
de millones de años o solamente unos cuantos centenares de millones, podremos estar
seguros de que el propio astro lo ha fabricado.
Y precisamente los astrónomos han demostrado la existencia de una clase de
estrellas, llamadas R-S, de las que existe un representante conocido en la constelación
de Andrómeda, que poseen rayas del tecnecio de gran intensidad. Este
descubrimiento se consideró como una prueba decisiva de la alquimia estelar.

La enana blanca
Sin embargo, la segunda vida de una estrella destaca un proceso cada vez más audaz,
a medida que aumenta el peso de los elementos. Entonces, las fusiones exigen
temperaturas cada vez más elevadas.
En caso de «avería» en el régimen estelar, la gravitación, desde luego, siempre
está dispuesta a iniciar una nueva contracción, para hacer saltar la chispa que
provocará el incendio, mientras confiere a los elementos unas temperaturas en
aumento incesante.
Pero es inconcebible que este proceso continúe indefinidamente, pues las energías
liberadas por las reacciones termonucleares se hacen cada vez más débiles. La
disminución puede cifrarse. La unión de un helión con un carbono 12 libera 7,1 MeV,
y si el oxígeno 16 formado absorbe por su parte un nuevo helión, solamente se

ebookelo.com - Página 140


obtienen 4,75 MeV con la creación de un neón 20. Este libera 9,35 MeV cuando un
helión lo transforma en magnesio 24 y obtenemos 10 con la creación del silicio 28.
Ésta es, pudiéramos decir, la secuencia de las grandes reacciones que se desarrollan
en el seno de las estrellas gigantes. Las energías producidas son enormes.
Pero después del silicio, la situación cambia un poco: la aparición de azufre 32,
de argón 36 y de potasio 40 bajo el efecto de nuevos heliones, libera a cada etapa
menos de 7 MeV. Verdad es que a continuación, con el calcio 44, el titanio 48 y el
cromo 52, las reacciones son de nuevo energéticas (de 9 a 10 MeV). En cambio,
asistimos a un brusco descenso con el hierro 56 (7,66 MeV), el níquel 60 (7,06 MeV)
y el cinc 64 (3,10 MeV). En este momento, suponiendo que fuesen posibles las
reacciones de captación de heliones solamente liberarían pequeñas energías, mientras
que la penetración en los núcleos exigiría temperaturas extremadamente elevadas.
En la etapa del azufre, las reacciones termonucleares ya exigen alrededor de 1000
millones de grados; para el hierro, se requieren… ¡3000 millones de grados!
Por lo tanto, en la gama del hierro se impone una pausa.
En realidad, las estrellas de dimensiones medianas, en que la gravitación no
puede seguir el ciclo infernal de las temperaturas, hay posibilidades de conseguirlo
antes. Por lo que a esto concierne, los astrofísicos se han visto obligados a atribuir un
papel crítico al valor de 1,4 masas solares: por debajo de esta cifra, la contracción de
la estrella resulta incapaz de desencadenar reacciones termonucleares «avanzadas» y
la estrella se ve condenada a cesar en su actividad.
Aparece entonces una nueva fase de la evolución estelar. Con la extinción de las
reacciones nucleares, la gravitación ya no encuentra contrapeso. Así, la retroacción
positiva de la contracción vuelve a implantarse.
El destino de la estrella sería entonces el de una masa estelar, si la energía nuclear
no hubiese existido. La actividad que provocó esta fuerza se nos presenta como un
intermedio, que únicamente introdujo un elemento de retraso en una evolución
ineluctable. A partir de entonces, la retroacción gravífica actúa plenamente y
provocará una espantosa contracción del astro. Triturando átomos y plasma, crea una
materia «degenerada», en la que núcleos y electrones están apretujados…
El efecto de bañera vuelve a intervenir en esta suprema contracción, durante la
cual la rotación de la estrella podrá aumentar de nuevo hasta ser muy rápida, de
manera que expulsará una fracción de su masa.
El final de este proceso será la aparición de una estrella «enana», de dimensiones
reducidas y densidad considerable. Una enana muy conocida es el compañero de
Sirio, apenas mayor que la Tierra, a pesar de que su masa es el 0,98 de la masa solar.
Un centímetro cúbico de este astro tiene una masa de 1400 kg y debe de poseer un
peso verdaderamente astronómico, teniendo en cuenta la intensidad considerable de
la gravedad en la superficie de estos astros compactos. Por ejemplo, este compañero
de Sirio representa unas cincuenta mil veces la gravedad terrestre. ¡Imagínese cuál
puede ser la conjugación de estos dos factores!

ebookelo.com - Página 141


Pero este astro no posee el récord. En 1962 y en el Observatorio de Monte
Palomar, el astrónomo Willem J. Luyten, especialista en enanas, descubrió, a cosa de
cien años luz del Sol, una enana de 0,24, de la masa solar, que solamente tenía
1700 km de diámetro, o sea un volumen cuatrocientas veinte veces menor que el de la
Tierra, situación que confería al astro un peso de 187 toneladas por centímetro
cúbico.
Estas enanas son blancas. Además de su enorme gravedad, estos astros deben a su
extraordinaria densidad unas velocidades de escape elevadísimas.
De ello resulta que las masas atraídas por la estrella durante sus desplazamientos
por el espacio, inciden en su superficie con energías considerables. La velocidad
teórica de llegada es de 6600 km/s para el compañero de Sirio. Confiere a los
protones una energía de 6 MeV, o sea una temperatura «individual» superior a los
45 000 millones de grados. Y en el caso de los núcleos de carbono o de oxígeno, las
energías alcanzan 70 y 95 MeV, respectivamente. Mantienen los procesos nucleares
en una delgada capa, de manera que la estrella se reduce a una película muy activa
que rodea a una materia muerta.
Éste es el destino lógico de las estrellas, llamadas a terminar convertidas en
enanas en etapas tanto menos avanzadas cuanto más pequeñas sean sus masas, pero a
tiempo más largo.

Las dos vertientes


Las grandes estrellas pueden renovar muchas veces el ciclo de las reacciones
termonucleares. Pero ¿hasta cuándo?
Cuanto más se avanza en la gama de los elementos pesados, menores son las
energías creadas por las fusiones.
Peor aún: a partir de cierto límite, no solamente no se libera ya energía, sino que
la propia creación de elementos más pesados exige energía, con el resultado de que el
balance resulte negativo.
El fenómeno se explica por las reglas de la mecánica de las partículas.
Los elementos que constituyen un núcleo —protones y neutrones— están unidos
por una fuerza nuclear atractiva de gran intensidad, que asegura la cohesión del
núcleo. No obstante, ya hemos subrayado su carácter especial: esta energía nuclear
cesa más allá de un radio de acción fortísimo y, por consiguiente, une tan sólo cada
nucleón a sus vecinos. Se la puede comparar a una argamasa, cuya eficacia no

ebookelo.com - Página 142


aumenta con el tamaño del núcleo.
En cambio, cada protón se ve rechazado por todos los demás, originando una
fuerza de disgregación que aumenta aproximadamente con el cuadrado del número de
protones. Del helio al hierro, por lo tanto, ya resulta multiplicada por un coeficiente
superior a 500. Si los pequeños núcleos se fusionan con liberación de energía, la
estabilidad de los edificios nucleares pasa así por un, máximo, para los elementos de
número atómico medio. Más allá de esto, la fabricación de núcleos muy grandes
exige un gasto de energía para una estabilidad cada vez más precaria.
Estas consideraciones son actualmente muy clásicas. Sirven para explicar que,
más allá de los núcleos medios, ya no se puede contar con las energías de fusión.
Las etapas sucesivas de una evolución estelar, por lo tanto, pueden compararse
con la caída de un peñasco que rueda desde la cumbre de una montaña por la ladera,
detenido por rellanos sucesivos, que hunde uno tras otro. Si el peñasco es pequeño,
no llegará al fondo del valle, pues acabará su carrera en un rellano que no pueda
hundir: ésta es la imagen de la enana blanca. Si su tamaño fuese más considerable, el
peñasco llegaría con un movimiento continuado al fondo del valle: este caso
correspondería al de una estrella cuyas reacciones termonucleares de fusión se
detuviesen en la zona del hierro.
Esto permite plantearnos el siguiente problema: Si fuese de dimensiones muy
considerables, ¿qué impediría al peñasco bajar una ladera a gran velocidad y adquirir
la energía que le permitiese ascender por la vertiente opuesta? Semejante imagen
equivale a admitir en las grandes estrellas la existencia de una síntesis sistemática de
elementos muy pesados. Con partículas cargadas, semejante operación de ascenso es
indudablemente muy difícil: los grandes núcleos oponen barreras eléctricas cada vez
más elevadas. Pero ¿no podemos imaginarla mediante el proceso neutrónico?
La respuesta es afirmativa; estas perspectivas abrirán una nueva gama de
actividades a ciertas estrellas.
La primera vida se desarrolló basándose en una transmutación del hidrógeno en
helio, que aseguraba lo más esencial de la energía liberada. Los heliones rápidos
daban lugar a reacciones secundarias, pero únicamente se trataba de una actividad
marginal.
Durante la segunda vida, los heliones dominaban la escena, siendo los causantes
de una serie de nuevas fusiones que producían carbono, oxígeno y neón. Y otra forma
de actividad aparece entonces, con el proceso neutrónico. Este proceso conocerá un
intenso desarrollo en las estrellas de elevada temperatura, donde las reacciones
termonucleares originan importantes corrientes de neutrones, que crean a su vez
cantidades apreciables de elementos pesados.

ebookelo.com - Página 143


La escala nuclear
Los neutrones penetran fácilmente en los núcleos, aumentando así su número de
masa. Al propio tiempo, elevan el número atómico. Consideremos por ejemplo al
cadmio (elemento 48) que se presenta corrientemente en forma de cadmio 110, cuyo
núcleo contiene 48 protones y 62 neutrones.
La llegada de un neutrón exterior cambia su estructura 48 + 62 en 48 + 63.
Asistimos entonces a la aparición de un isótopo, el cadmio 111. Después, otros
neutrones crean las estructuras 48 + 64, 48 + 65, 48 + 66; es decir, los cadmios 112,
113 y 114. Pero entonces se alcanza el límite de estabilidad. Y bajo el efecto de un
nuevo neutrón, al cabo de dos días, la estructura 48 + 67 se convierte en 49 + 66: el
cadmio se transmuta dando origen al elemento 49, o sea el indio.
En términos generales, un neutrón se transforma en protón con emisión de un
electrón en los núcleos demasiado abundantes en neutrones. Este proceso constituye
lo que los físicos llaman la radiactividad beta (la radiación beta está representada por
los electrones). Crea una energía bastante débil (inferior a 1 MeV) y su velocidad se
mide por el «período» del elemento y representa por definición el tiempo al cabo del
cual el 50% de los núcleos habrán sufrido transmutación.

26. La escalera nuclear

Sometidos a una débil irradiación, los núcleos de una estrella caliente ascienden por la escalera nuclear según el
proceso de las desintegraciones beta (emisión de electrones), dando origen a elementos estables de números
atómicos crecientes.

Los peldaños que faltan pueden saltarse. No existe núcleo estable con 43 protones. Pero cuando se absorbe un
neutrón, el molibdeno 98 (42 protones + 56 neutrones) se transmuta en tecnecio 99 (punto T: 43 protones + 56

ebookelo.com - Página 144


neutrones), elemento radiactivo cuyo periodo rebasa doscientos mil años, y que antes de su desintegración,
puede absorber un nuevo neutrón, transformándose entonces en tecnecio 100, que se transmutará a su vez en
rutenio 100, estable. En su defecto, la desintegración beta del tecnecio 99 da el rutenio 99. Asimismo, si no
existe núcleo estable que contenga 61 neutrones, el peldaño que falta puede franquearse de dos maneras.
Debido a que el cadmio 109 (48 protones + 61 neutrones) tiene un período de 330 días, es necesaria una
corriente neutrónica bastante intensa para un recorrido horizontal más allá del punto C. De lo contrario, el
cadmio 109 absorbe un electrón (captura K) que lo transforma en plata 109.

Y el mismo proceso se repite para Z = 61 y N = 89.

El proceso r corresponde a un flujo neutrónico extremadamente intenso, que no deja tiempo a los núcleos para
que adquieran la forma de isótopos estables.

Y el movimiento continúa. El indio 115 (49 + 66) es estable. El indio 116 no lo


es: su estructura se transforma de 49 + 67 en 50 + 66; o sea, que asistimos a la
aparición del estaño 116.
Así se crean elementos de números atómicos crecientes. Y según este mecanismo,
asistiremos al ascenso por una verdadera escala nuclear.

Los rellanos mágicos


Semejante escala no es regular. Algunos peldaños, muy anchos, se franquean
lentamente. Otros, más estrechos, se pasan casi de un salto.
Téngase en cuenta que algunos núcleos son más estables; ya hemos hablado del
neón 20, que se forma con facilidad, pero cuya penetración exige proyectiles de gran
energía. Y acaso nos intrigarán las aparentes fantasías a que se entregan las energías
de fusión en la hilera del helio. ¿Cómo se comprende, pues, la estabilidad nuclear?
Solamente puede estudiarse cuando se conoce la estructura de los edificios
nucleares. Es lícito preguntarse si los protones y neutrones se mueven
desordenadamente en el núcleo, o bien se hallan sometidos a leyes, como los
electrones en un átomo. ¿Y sabemos además si los núcleos dejan alguna autonomía a
los heliones que absorben?
El secreto de toda la evolución cósmica reside en esta mecánica de los núcleos,
cuyas leyes solamente se vislumbraron en época reciente.
Fueron los trabajos del profesor Jensen y de la señora Goeppert-Mayer —que
obtuvieron en 1963 el premio Nobel de Física— los que descubrieron estos «números
mágicos», que representan el papel de números-clave en las estructuras nucleares: 2,
8, 20, 28, 50, 82, 126. En la génesis de los elementos existe una magia aritmética,

ebookelo.com - Página 145


pues la mecánica de las partículas invita a ver factores de estabilidad en dichos
números.
Un núcleo es estable cuando el número total de sus nucleones es mágico, como en
el caso del neón 20 o el silicio 28.
Pero igualmente se alcanza una estabilidad si este carácter afecta a una categoría
de nucleones; por ejemplo, si el número Z de protones (número atómico) es mágico.
En la lista de los elementos que cumplen esta condición, observamos al oxígeno (Z =
8), el calcio (Z = 20), el estaño (Z = 50) y el plomo (Z = 82). Y resulta característico
el hecho de que estos elementos presenten numerosos isótopos estables. El calcio
posee seis, mientras que los elementos vecinos —el potasio y el escandio— tienen
dos y uno, respectivamente. El estaño posee el récord con diez isótopos estables,
mientras que el indio, que lo precede, tiene sólo uno.
Los elementos que poseen un número mágico de neutrones dan lugar a
consideraciones análogas. Y se les puede atribuir una importancia particular, teniendo
en cuenta el papel estelar que desempeñan los procesos neutrónicos. Así,
descubriremos series muy características y en la gama de los núcleos dotados de 50
neutrones, hallaremos el estroncio 88, el itrio 89, el circonio 90. El bario 138 y el
lantano 139 tienen 82 neutrones. El plomo 208 y el bismuto 209 tienen 126
neutrones.
Es muy significativo que se hayan identificado ciertas estrellas que contienen
cantidades excepcionalmente elevadas de circonio (estrellas llamadas S). Incluso se
conocen estrellas de bario. Es admisible que, en su marcha hacia los elementos
pesados, los procesos neutrónicos se agotasen en cierto modo en dichos rellanos, que
constituían para ellos a modo de seguros de paro. En realidad, al llegar a esta etapa,
los factores de diferenciación se hacen muy numerosos: además de la masa de la
estrella, su temperatura y la abundancia de elementos que la constituyen, hay que
tener en cuenta su mezcla, regida por la rotación del astro. Y esta rotación es también
la causante de un campo magnético que puede acelerar a los núcleos en la superficie.
Así se provocarían reacciones termonucleares de un nuevo tipo, utilizando los
materiales creados por las acciones neutrónicas…

El reino de los núcleos pesados


Pero ¿qué sucede si el impulso nuclear es tal que en una estrella grande el proceso
neutrónico se desarrolla con intensidad creciente?

ebookelo.com - Página 146


El último seguro de paro está constituido por el plomo 208 y el bismuto 209. El
primero de estos elementos posee la particularidad de ser doblemente mágico, pues
contiene simultáneamente un número mágico de protones y un número mágico de
neutrones, lo que le confiere una importancia excepcional. En realidad, el plomo 208
es el último núcleo perfectamente estable.
Hay que tener en cuenta un nuevo factor, si observamos que el proceso neutrónico
asciende por la pendiente nuclear: los grandes núcleos se fabrican a costa de la
energía que almacenan.
Esta energía se gastará si se franquea la barrera del plomo y el bismuto. Más allá
de ella, los núcleos son de tal tamaño, que su estabilidad ya no es posible; terminarán
por desintegrarse, según el proceso llamado de la radiactividad alfa.
Sin duda resulta molesta la ambigüedad del término radiactividad. Esto es sin
duda un recuerdo de los tiempos heroicos, en que aún no se conocía la mecánica
nuclear y cuando los físicos se encontraban a menudo ante mezclas complejas, en las
cuales aparecían ambos procesos.

27. Abundancia de los elementos en el Universo según Suess y Urey

ebookelo.com - Página 147


La escala de las abundancias es logarítmica, siendo la del silicio, por definición, igual a 6. Debido a que el rodio
(peso atómico[E2] 102,91) se encuentra al nivel cero, se puede sacar la conclusión de que el Universo contiene
un átomo de rodio por 106 átomos de silicio.

La flecha señala los núcleos que tienen un peso atómico mágico de 50 nucleones. Las Y corresponden a las
gamas que abarcan núcleos que contienen un número mágico de neutrones (50, 82, 126).

Pero éstos actúan en sentido inverso. La radiactividad beta correspondía a la


subida espontánea de un elemento. La radiactividad alfa, en cambio, es una recaída:
los grandes núcleos se aligeran expulsando heliones (que constituyen los rayos alfa).
El fenómeno es el simétrico del ciclo heliónico, en el que hemos visto cómo los
núcleos ligeros absorben a los heliones. En realidad, convendría compararlo
directamente con este proceso, teniendo en cuenta que estamos en la vertiente
opuesta. Los núcleos ligeros liberan energía, adquiriendo nuevos heliones. Los
núcleos gruesos la liberan perdiendo heliones, pérdida que es espontánea más allá del
plomo.
Entonces, la pérdida de cada helión hace descender en cuatro unidades el número
de masa, y el elemento retrocede dos peldaños en la escala nuclear, pues las
velocidades de transmutación aún están caracterizadas por un «período». El proceso
continuará hasta que el núcleo vuelva a trasponer la etapa de plomo-bismuto.
Como el péndulo que retrocede después de alcanzar su punto máximo de
elevación, o como el peñasco que vuelve a caer hacia la pendiente desde la que se
había elevado, con esta radiactividad alfa, verdadera antítesis de la fusión heliónica,
asistimos a un retroceso.
Y la emisión de cada helión libera una energía comprendida generalmente entre 4
y 8 MeV, comparable a una reacción de fusión, a fin de que la estrella pueda
encontrar aún recursos para una nueva actividad en sus elementos más pesados,
conducidos progresivamente al nivel del plomo.

El proceso r
Estos elementos pesadísimos que el neutrón engendra más allá del plomo, se
disgregan lentamente. Al menos así sucede hasta el elemento 92, o sea el uranio. En
forma de uranio 238, su período es superior a los cuatro mil millones de años y tendrá
tiempo de acumularse en cantidades considerables durante la vida de una gran
estrella, para liberar muy lentamente la energía de su radiactividad.

ebookelo.com - Página 148


Pero más allá, la situación cambia, pues la estabilidad disminuye muy aprisa. El
período del curio 242 es solamente ciento sesenta y dos días. Y después habrá que
contar en horas y hasta en minutos…

28. Del uranio al plomo


Representación de las diversas transmutaciones que hacen «recaer» un núcleo de uranio 238 al nivel del
plomo 206.

Por lo visto, pues, el uranio señala el límite de los elementos pesadísimos creados
por el proceso neutrónico y resultará característico que, pese a ser radiactivo, este
elemento se haya considerado durante mucho tiempo como el último cuerpo natural.
Ésta es por lo menos la situación con el mecanismo neutrónico normal, siempre
lento, y por esta razón los físicos lo designan por el nombre de proceso s (s = slow,
lento). O bien podemos imaginar un proceso r o proceso rápido, en el que se
planteará una situación distinta: la absorción de neutrones por los núcleos se
producirá en condiciones que no les permitirán ascender tranquilamente por la escala
cósmica, según el mecanismo normal de la transmutación beta. Si los neutrones
llegan a un ritmo acelerado[31], los núcleos sufrirán verdaderas indigestiones de
neutrones. Por ejemplo, el niobio (elemento 41), que es estable con 52 neutrones,
absorberá hasta 82 (número mágico) y solamente se transmutará al recibir el
siguiente, con el que el número será 83. Los neutrones sucesivos lo transformarán en
molibdeno (Z = 42), después en tecnecio (Z = 43) y así sucesivamente, sin que
aumente el número de neutrones. Este proceso le obliga a ascender no una escalera,
sino una verdadera escala vertical. Después de largos rellanos horizontales, los
elementos desembocan bruscamente en niveles mucho más elevados, mientras que en
el proceso s se ascendía la escalera cósmica peldaño a peldaño.
Pero en la etapa de los elementos transuranianos, el proceso r cambia
profundamente las cosas, pues hace que los núcleos quemen la gama de los elementos

ebookelo.com - Página 149


radiactivos que constituían una como válvula natural después del plomo. Transforma
al uranio 238 en uranio 254 que, a su vez, se convertirá en californio 254: esto ha sido
comprobado experimentalmente, por así decir, pues el doctor Fowler, en noviembre
de 1952, señaló la presencia de californio en las cenizas de una bomba H. Este
descubrimiento quizá fue la mayor aportación científica de las experiencias atómicas.
Y con el californio aparece un fenómeno enteramente, nuevo: el núcleo alcanza
un grado tal de inestabilidad, que presenta la propiedad de ser fisionable
espontáneamente.

Estalla el polvorín
Así con el californio, el proceso r desemboca en otro medio de destrucción de los
núcleos, infinitamente más brutal, dando un final completamente distinto a la tercera
vida de la estrella, dominada por el neutrón.
Los técnicos ya están familiarizados con esta desintegración de los núcleos, o
fisión. La explotan desde hace un cuarto de siglo, después de conquistar la energía
nuclear siguiendo un orden inverso al de la naturaleza. Durante la etapa del Universo
primitivo, ésta se hallaba condenada exclusivamente a las reacciones termonucleares.
Pero en el marco terrestre, la creación de temperaturas estelares no es empresa fácil.
La fisión, en cambio, ofrecía posibilidades de explotación práctica con el uranio,
metal radiactivo y a la vez fisionable mediante reacciones en cadena.
La fisión del uranio 235 en una pila o una bomba se desencadena siempre
mediante el impacto de neutrones, dando origen a «productos de la fisión» (o sea
núcleos medianos) y a neutrones secundarios, capaces de chocar también con nuevos
núcleos.
Pero con independencia de la fisión provocada, algunos elementos transuranianos
se caracterizan por la fisión espontánea que es, como la radiactividad, una forma de
autodestrucción de los elementos pesados, pero incomparablemente más enérgica.
Cada fisión libera 200 MeV; o sea, treinta veces más que con una emisión alfa. Esto
se debe al hecho de que una fisión disminuye directamente en cien unidades el
número de masa: ya no se trata de hacer descender dos peldaños a un elemento, sino
de lanzarlo al pie de la escala, al hallarse liberada de golpe la totalidad de la energía
acumulada durante el ascenso.
Singularmente enérgica, la fisión espontánea es al propio tiempo un fenómeno de
una extremada brutalidad. Podemos evocar un período para medir la velocidad del

ebookelo.com - Página 150


proceso, como hemos hecho con los elementos radiactivos, considerando el tiempo
que tardará en fisionarse el 50% de los núcleos. Así, veremos que el californio 254
tiene solamente un período de cincuenta y cinco días. Y con el fermio 256, el período
es de tres horas.

29. Energía irradiada en neutrinos


El Sol —cuya energía total se toma por unidad— solamente evacúa por sus neutrinos el 2% de la misma. La
proporción es más elevada en las estrellas más calientes, donde la energía irradiada en forma de neutrinos
puede alcanzar cifras gigantescas, a temperaturas elevadísimas.

Lo que equivale a decir que con estos elementos espontáneamente fisionables, el


proceso neutrónico rápido encuentra una salida espectacular. Cuando aparezcan, el
californio y el fermio estallarán, creando neutrones que los elementos pesados podrán
absorber para convertirse en californio y liberando al propio tiempo una energía
capaz de acelerar el conjunto de los procesos neutrónicos. Nos hallamos entonces
ante una retroacción positiva que rige el proceso energético y esto por primera vez:
todas las reacciones nucleares de las estrellas, en efecto, habían tropezado con
reacciones negativas en las diversas etapas, reacciones creadoras de equilibrio.
Con esta retroacción positiva, el aumento de la potencia creada en el seno de la
estrella instaura una situación que tiene por consecuencia aumentarla aún más. Esto
desemboca en la explosión, pues la radiación acabará por desintegrar a la estrella, que
se convertirá en una verdadera bomba celeste. Su funcionamiento se hace
fundamentalmente distinto: cuando la temperatura se cifra en miles de millones de
grados, la parte más importante de la energía estelar se evacúa a través de los
neutrinos, como ha demostrado Hong See Chiu, físico de la NASA. ¡O sea que un
telescopio de neutrinos descubriría un brillo aún más impresionante en el astro que el
que proporciona su luz visible!

ebookelo.com - Página 151


Pero la estrella pronto cesará de existir y escupirá desordenadamente su materia al
espacio. Ésta es la razón de su trágico fin: mientras la mayoría de las estrellas acaban
su carrera convertidas en enanas blancas, a causa de una avería de alimentación en el
ascenso por la escala de los elementos pesados, o a consecuencia de un repliegue tras
la intervención de la radiactividad alfa, las estrellas que llegan al término de la escala
pagarán con su vida la fabricación del californio, fruto prohibido del árbol nuclear…

ebookelo.com - Página 152


8

La fábrica galáctica
Así, pues, las estrellas macizas envejecen más de prisa, llegan con más rapidez al
término de su vida, que puede tener dos desenlaces fundamentales.
Toda la actividad estelar no es más que un combate entre la fuerza de gravedad,
que tiende a contraer al astro, y la energía nuclear, factor expansivo y que vence
reiteradamente el freno de la gravitación.
En el caso de la enana blanca, asistimos a un triunfo gradual de la fuerza de
gravedad, que contrae la materia estelar hasta que las partículas están casi contiguas y
ninguna reacción nuclear es ya posible en el seno del astro, convertido en la tumba de
los elementos pesados que él mismo fabricó y de los que no se beneficia el Universo.
En la evolución de la materia, esta vía conduce a un callejón sin salida.
En cambio, la estrella tendrá una muerte violenta si sus reacciones nucleares se
aceleran, rompiendo el freno de la gravitación y provocando la desintegración del
astro. Semejante proceso explosivo significa el término de su vida para el astro, pero
la materia que desparrama no se pierde para el Universo. Por el contrario, se dispersa
en el espacio, donde vuelve a inyectarse en forma de una nueva semilla.
Pero ¿a qué ritmo estallan las estrellas? ¿Las ven los astrónomos?
Mucho antes de que se hubiesen analizado los mecanismos nucleares —que aún
distan mucho de comprenderse totalmente, pues hay que tener en cuenta los sutiles
arcanos y variantes de los procesos neutrónicos— los astrónomos ya habían
observado que algunas estrellas presentan un sorprendente carácter explosivo. Junto a
las «novas» —estrellas variables en las que el cibernético descubre hoy oscilaciones
de relajación— estaba representada una clase extraordinaria de estrellas: las
supernovas.
Este nombre se dio a unas estrellas cuyo brillo aumenta en un plazo brevísimo,
hasta alcanzar proporciones colosales. La variación representa a veces más de 20
magnitudes; o sea, que la luminosidad del astro se halla multiplicada por un factor de
mil millones. Ésta es la manifestación exterior de la retroacción positiva, que
transforma en bomba un reactor estelar. Durante los días que siguen a su ingreso en el
orden de las supernovas, una estrella puede liberar más energía que en diez millones
de años de funcionamiento regular. La presión de radiación creada por semejante
explosión representa un fantástico huracán que sopla a miles o a decenas de miles de
kilómetros por segundo, desparramando la materia de la estrella.

ebookelo.com - Página 153


Supernovas célebres
Tres de las supernovas observadas durante el último milenio en nuestra Galaxia son
célebres.
Una de ellas fue vista en el año 1054. Este hecho fue comunicado por el
astrónomo sueco K. Lundmark, quien descubrió el relato en unos anales chinos que
se remontaban a principios del siglo XIII y referían antiguas efemérides terrestres. El 4
de julio de dicho año 1054, apareció una estrella de un brillo extraordinario, «a
muchas pulgadas al sudeste de Tien Kuan», nombre que corresponde a la estrella Zeta
de la constelación de Taurus. Durante muchas semanas, su brillo la hizo comparable
al planeta Júpiter, para ir disminuyendo paulatinamente, cesando de ser visible dos
años después.
Pero lo extraordinario es que su emplazamiento esté señalado hoy por una
formación muy característica a la que Messier, pese a no poder establecer ninguna
relación, dio el número 1 en su censo, del que en el siglo XVIII nació el primer
catálogo de los objetos celestes: unos espesos filamentos parecidos a patas parecían
partir de una bola central, aspecto que hizo atribuir a esta formación Messier 1 el
nombre ya clásico de «nebulosa del Cangrejo».
Se encontraba en la misma región donde se vio la extraordinaria estrella de 1054.
Podemos estar seguros de que no se trata de una coincidencia, pues los medios
modernos han permitido el estudio sistemático de esta formación: con su diámetro de
6 años luz, está localizada en nuestra Galaxia, a unos 5000 años luz del Sol.
Ahora bien: los radioastrónomos han demostrado que de esta región del cielo
procede una emisión de una gran intensidad. Después de paciente estudio, resultó que
era causada, como la radiación visible al parecer, por una «radiación sincrotón» de
electrones que se desplazaban a gran velocidad en un campo magnético. La
expansión de la nebulosa del Cangrejo quedó así demostrada y se pudo calcular la
velocidad de fuga a partir del «punto central». Esta velocidad permitió situar el
principio del proceso hacia el año 1050. Ya no era posible ninguna duda: tal como
hoy la vemos, la nebulosa del Cangrejo es el espectáculo que ofrece una supernova
nueve siglos después de su explosión; la pequeña estrella de 16.a magnitud que se ve
en el centro de la formación, es probablemente el residuo de la estrella original.
Tendremos una idea de la importancia de este cataclismo observando que
únicamente la nebulosa del Cangrejo proporciona en la actualidad el 10% de la
radiación cósmica de elevada energía —radiación gamma— que recibe la Tierra: las
mediciones hechas por el satélite-observatorio Explorer XI fueron muy elocuentes
(370 fotones por segundo y por metro cuadrado procedentes de la nebulosa del
Cangrejo; en cambio, 120 de Casiopea A, 100 del Sol, 35 de Andrómeda y 12 del
centro de nuestra Galaxia).
Esto no quiere decir, naturalmente, que la explosión «acaeciera» en 1054. Por esta

ebookelo.com - Página 154


época fue vista desde la Tierra. La verdadera, explosión se registró cuando en Egipto
reinaban los primeros faraones. Pero el retroceso en el tiempo fue el mismo para
todas las etapas de un proceso que hoy nada nos impide reconstruir.
Se supone que en el momento de su explosión, la supernova de 1054 apareció
desde la Tierra como una estrella de magnitud aparente igual a −2. Teniendo en
cuenta su distancia, esto equivale a una magnitud absoluta de −13, o sea un brillo
catorce millones de veces superior al de nuestro Sol.
Pero con esto no se alcanza el límite, ni mucho menos. La estrella de 1054 se
considera hoy como una supernova pequeña, que fue ampliamente superada por la de
1572.
Una extraordinaria supernova, en efecto, apareció en el cielo pocas semanas
después del día de San Bartolomé. Era tan brillante, que se la podía ver en pleno
mediodía. Fue observada por Tycho Brahe: el famoso astrónomo danés dijo que
sobrepasaba el brillo de Venus, lo que le atribuía una magnitud aparente de −5. Sus
restos no han podido ser localizados, por lo que resulta imposible conocer su
distancia. Sin embargo, se supone que ésta era muy grande y así, la magnitud
absoluta de esta supernova de 1572 hubiera podido alcanzar −16. La variación de su
brillo pudo reconstruirse basándose en las observaciones y revela una fluctuación de
dos magnitudes cada cinco meses.
Poco después, en octubre de 1604, apareció otra supernova en la constelación de
Ofiuco, que tuvo al gran Kepler como testigo. La disminución de luminosidad era la
misma y los astrónomos modernos han descubierto una nebulosa, que sería para esta
supernova lo mismo que la del Cangrejo fue para la supernova de 1054.
Por lo tanto, desde mediados del siglo XI, han aparecido tres supernovas en
nuestra Galaxia. Analizando las crónicas chinas, los astrónomos han tratado de ir aún
más allá y otras tres supernovas parecen haberse registrado en 185, 369 y 1006. Las
radiofuentes correspondientes a los residuos de las dos primeras han sido
identificadas por Chklovsky: la supernova del año 369 estaría situada en Casiopea A,
precisamente en el lugar donde el Explorer XI señaló una fuente cósmica intensa, que
venía inmediatamente después de la nebulosa del Cangrejo.

Docenas de casos
El hecho de que solamente se hayan observado algunas supernovas en nuestra
Galaxia, demuestra la rareza del fenómeno. Estos casos constituyen una base

ebookelo.com - Página 155


insuficiente para un estudio, tanto más cuanto que solamente los conocemos a través
de algunos relatos.
Pero la astronomía moderna descubre supernovas en todo el Universo, al explorar
el conjunto de las galaxias. Desde el Observatorio de Monte Palomar, Zwicky inició
en 1936 una búsqueda sistemática de supernovas, utilizando un telescopio gran
angular que permitía observar amplias zonas del espacio. Posteriormente, se dispuso
de medios mucho más perfeccionados que permitieron que en 1962 se descubriese
una supernova al mes. Estos astros presentan la ventaja de ser visibles desde muy
lejos, pues su brillo puede ser miles de millones de veces superior al del Sol. Por lo
tanto, la presencia de una supernova en una galaxia modifica sensiblemente su
aspecto.
Semejante descubrimiento ofrece un gran interés teórico. Pone de relieve la
generalidad del proceso explosivo de ciertas estrellas y demuestra una similitud en la
evolución de la materia en el corazón de las diversas galaxias, lo que nos parece
lógico pues la misma materia se vio sujeta a una misma cibernética.
Por lo demás, la observación de las supernovas permite realizar estudios
estadísticos y revela la existencia de varios procesos, que permiten clasificar
sumariamente a las supernovas en dos tipos.
Así, la magnitud absoluta de las supernovas llamadas de tipo II se halla
comprendida entre −12 y −16 y el máximo es extraordinariamente agudo. En cambio,
es ancho para las supernovas de tipo I, cuya magnitud oscila entre −16 y −18; a una
distancia de un año luz, una estrella de este tipo tendría el brillo del Sol.
El estudio de estas supernovas permite trazar curvas de variación de brillo, que
revisten gran importancia. El aumento de brillo es extraordinariamente brusco: es
preciso comprender que vemos únicamente a las supernovas en el momento en que
una retroacción positiva de aceleración nuclear alcanza la etapa explosiva. Se rompe
entonces la reacción en cadena, y la disminución de brillo, según se ha podido
comprobar, obedece a la ley revelada por la supernova de 1572.
Ahora bien, una variación de dos magnitudes en cinco meses corresponde
sensiblemente a una reducción a la mitad del brillo en cincuenta y cinco días, o sea
una duración igual al período del californio.

Una reinyección de materia


Tres siglos parecen ser un orden de magnitud para la frecuencia de las supernovas en

ebookelo.com - Página 156


una galaxia. Desde su formación, por lo tanto, nuestra Galaxia debe de haber
presenciado la explosión de 30 000 000 de supernovas: treinta millones de veces, la
materia de una estrella ha sido dispersada por el espacio cósmico. El total de esta
suma resulta impresionante, teniendo en cuenta que las supernovas son estrellas
macizas.
Esta reinyección es excepcionalmente importante por su aspecto cualitativo. La
materia dispersada por una supernova, en efecto, no tiene la misma composición que
la galaxia original. Una estrella amarilla es un brasero de hidrógeno. Al término de un
proceso neutrónico acelerado, contiene una proyección elevada de grandes núcleos.
Por lo tanto, las supernovas desparraman por el espacio elevadas cantidades de
elementos pesados.
Este fenómeno modifica la materia esparcida por la galaxia que aún no se ha
condensado en estrella.
Al principio era el hidrógeno. Su composición cambiará poco a poco: el
hidrógeno libre será cada vez menos importante puesto que se condensará en
estrellas, mientras que los productos pesados se crearán según un proceso
acumulativo.
El hidrógeno será constantemente y con gran ventaja el elemento principal. Tenga
en cuenta el lector que las «reservas» de una galaxia media son considerables, pues se
las puede calcular en unos 100 000 millones de estrellas. Y según hemos observado,
nuestro Universo todavía es muy joven; solamente una fracción de su hidrógeno
inicial ha sido consumida. Así, debemos considerar que, gracias al fenómeno
supernova, el hidrógeno se «enriquece» solamente en elementos pesados. Pero este
hecho es en sí muy importante: este hidrógeno enriquecido proporciona la materia de
la que nacerán las nuevas estrellas.
A la manera de los seres vivientes, que se alimentarán de la carne de los otros —
el animal podrá ascender hasta funciones superiores, utilizando los compuestos
energéticos elaborados por los vegetales—, comprobamos que la substancia cósmica
puede pasar por muchas estrellas y al ser rechazada al cosmos, ofrecerse como
materia prima superior para nuevos astros…

Un nuevo factor de diferenciación


Después de muchos miles de millones de años, la materia libre de una galaxia estará
representada, pues, por un hidrógeno cargado de elementos pesados.

ebookelo.com - Página 157


El hecho de que el hidrógeno domine significa que la estrella nacida de esta
nueva substancia cósmica volverá a pasar por las mismas etapas que un astro de
primera generación. Del mismo modo como en las estrellas de hidrógeno puro,
podremos hablar de una juventud durante la cual este elemento se convierte
lentamente en helio. En este momento, las temperaturas son modestas —de
10 000 000 a 30 000 000 de grados para la mayoría de estrellas— y, como sabemos,
bajo estos niveles térmicos los núcleos pesados no pueden actuar en gran escala. Sin
embargo, absorben las partículas nacientes y su presencia en la atmósfera de la
estrella modifica ligeramente su color. El cielo actual, en el que se observan estrellas
nacidas a diferentes edades de la Galaxia, es buena prueba de ello. Sus puntos
representativos no siempre, están perfectamente alineados, en el diagrama de
Hertzsprung-Russell. Así, la línea teórica que debería representar la serie principal es
borrosa: a luminosidad igual, las estrellas más antiguas parecen ligeramente más
azules.

30. El cúmulo globular de Hércules


La flecha indica la posición de un cúmulo globular particularmente célebre en la constelación de Hércules,
cuya edad se calcula en cinco mil millones de años.

Más adelante, los elementos pesados desempeñan un papel directo en ciertas fases
de la evolución estelar.
Al margen de la diferenciación fundamental, que tenía en cuenta a las estrellas
formadas de la misma substancia y a las que su diferencia de masa solamente

ebookelo.com - Página 158


confería una luminosidad más o menos fuerte y un envejecimiento más o menos
rápido, descubriremos un nuevo parámetro de diferenciación, que se refiere a la
propia composición de la materia estelar.

Las dos poblaciones


Estas reflexiones se desprenden de las observaciones efectuadas por Baade. Al
fotografiar la nebulosa de Andrómeda con placas sensibles al rojo durante el invierno
1941-1942, el astrónomo quedó sorprendido ante la diferencia de aspecto que tenían
por una parte las estrellas que constituían los brazos de la galaxia, y por otra las que
se encontraban en el centro y las regiones comprendidas entre los brazos. Así, Baade
pronto supo distinguir dos tipos de población, hecho que constituía una lección
importante.
En nuestra Galaxia, los astrónomos tuvieron que contentarse con observar las
estrellas próximas al Sol y pensaron que éstas ofrecerían una muestra representativa
del Universo. Pero la comparación con otras regiones desmiente esta presunción. A
igualdad de edad, surgen diferencias manifiestas de composición en algunas estrellas
de la misma masa.

ebookelo.com - Página 159


31. Diagramas comparados de las cinco generaciones estelares

Como las estrellas más antiguas tienen atmósferas más pobres en metales, aparecen más azules, de manera que
los diagramas color-luminosidad de las cinco generaciones estelares de nuestro Universo no coinciden: a cada
una de ellas corresponde una pista. La generación 1 está simbolizada por el viejísimo cúmulo M 67 (diez mil
millones de años) y la pista que representa a la generación 2 está figurada por el diagrama de M 3 (seis mil
millones de años). Por lo que respecta a las generaciones 3 y 4, solamente se ha representado la parte inferior de
las pistas.

La línea punteada horizontal, al nivel de una masa solar, explica las diferencias de coloración que puede sufrir,
según su origen, una estrella que tenga la misma luminosidad que el Sol.

De aquí surgió la nueva idea de «población». Los astrónomos afirman que las
estrellas próximas al Sol, que son las que se estudiaron desde más antiguo,
representan una «población I». Y las de características diferentes se hallan
comprendidas en una «población II», constituyendo principalmente los cúmulos
globulares.
Con este nombre de cúmulos globulares, el astrónomo designa prodigiosos

ebookelo.com - Página 160


enjambres esféricos que observa a distancias comprendidas entre los 1000 y los
200 000 años luz y compuestos de un número incalculable de estrellas, que pueden ir
desde decenas a centenares de miles. El cúmulo globular de Hércules es uno de los
más célebres: se trata de una gigantesca agrupación esférica visible a simple vista en
la constelación del mismo nombre. Mejor dicho, el observador ve una mancha
brillante, que ofrece el aspecto de una estrella de 4.a magnitud, siendo necesario un
instrumento potente para distinguir el cúmulo. Entonces aparece una prodigiosa
concentración de estrellas. De manera general, la riqueza de un cúmulo se halla
directamente relacionada con su edad.
Los cúmulos globulares, en efecto, nacieron en unos tiempos en que el espacio
contenía grandes cantidades de gas libre que se reunieron en capas, que a su vez
originaron estrellas, y entonces el cúmulo globular nos aparecerá como la escala
intermedia de condensación entre galaxia y estrella. Por su masa, además, un cúmulo
globular es aproximadamente a una galaxia lo que una estrella es para el cúmulo. Así,
cuando se organizó, la Galaxia dio origen a numerosos cúmulos globulares que
contenían su materia primitiva, por lo tanto la población II será la más antigua.
La población I, en cambio, corresponde a una época más reciente, cuando la
Galaxia ya estaba organizada y su hidrógeno enriquecido con elementos pesados.
Los cúmulos originados en esta época resultaron mucho más pobres y además su
localización fue diferente. Podemos considerar que al principio la materia de nuestra
Galaxia primitiva ocupaba una esfera de grandes dimensiones, en la que nacieron los
cúmulos globulares y donde se fijaron sus órbitas. Así se explica que hoy se vean
fuera de las fronteras actuales de nuestra Galaxia. Pero estas fronteras ya estaban
prácticamente delimitadas cuando nacieron los cúmulos llamados de población I y
que hoy se encuentran totalmente en el propio interior de la Galaxia y que, por este
motivo, reciben el nombre de cúmulos galácticos.
Precisamente la materia de la región donde se encuentra el Sol se halla entroncada
ampliamente con la población I.
La observación de las estrellas de población II demuestra que la proporción de
metales depende de su edad: esto es lógico, pues dichas estrellas fabrican sus
elementos pesados. En cambio, no existe al parecer ninguna relación con las estrellas
de la población I que al principio se beneficiaron de unas reservas más o menos
importantes de elementos pesados, según la composición de su substancia.
La población II se observa casi «en estado puro» en formaciones antiquísimas,
como EGC 188 o la galaxia enana del Dragón: todas sus estrellas tienen un largo
pasado y las más pesadas experimentaron el cambio hace mucho tiempo, o sea que no
se señalan en ellas estrellas azules.
En cambio, la presencia de estrellas azules indica al astrónomo que se encuentra
ante una población I, porque las estrellas azules tienen una juventud breve, lo cual
indica que aparecieron en una época relativamente reciente, a partir de una materia

ebookelo.com - Página 161


enriquecida.

Cinco generaciones…
Por lo tanto, los modelos de estrellas actuales deben tener en cuenta la época del
nacimiento, que determinó la composición del astro.
No hay duda de que un simple reparto de las estrellas en dos poblaciones es una
caricatura; los astrónomos se han dejado llevar por casos extremos, al hacer esta
clasificación sumaria.
Por consiguiente, Parenago propuso en 1950 una clasificación más precisa, y en
1957 la Unión Astronómica Internacional dividió a las estrellas en cinco
«generaciones», correspondientes a otras tantas etapas en el enriquecimiento de la
materia galáctica. Según esta división, el Sol parece ser una estrella de tercera
generación.
Este nuevo factor acaba la dispersión estelar. Si tenemos en cuenta la extremada
sensibilidad de algunas reacciones nucleares, tendremos que admitir que mínimas
diferencias en la composición inicial de la estrella o en la mezcla de su substancia
(influencia de la rotación), podrán traducirse por opciones muy diferentes. En
condiciones críticas, los procesos nucleares ascenderán vertiginosamente. Así, se
observarán casos notables: conocemos estrellas de litio o de fósforo…
Las vías abiertas a la evolución de una estrella son innumerables, como lo serán
las que en la Tierra se ofrecerán a la gran aventura biológica.

Las emanaciones de las estrellas


La restitución a su galaxia de la materia estelar debe colocarse en un marco más
general: las corrientes de intercambio entre las estrellas y el medio ambiente revisten
diversos aspectos.

ebookelo.com - Página 162


Durante su formación y quizás en el transcurso de ciertos cambios de régimen, las
estrellas expulsan «mecánicamente» una parte de su materia. Esta eyaculación
centrífuga puede alcanzar proporciones considerables, cuando la rotación es rápida.
El factor de eyaculación es nuclear en la supernova y reviste una amplitud
anormal, que llega hasta la destrucción de la propia estrella.
Pero con independencia de estos procesos brutales, que acaecen en el nacimiento
o la destrucción de una estrella, se producen emisiones de intensidad muy diversa,
durante una vida estelar normal.
Podemos decir, en efecto, que las estrellas en funcionamiento se evaporan e
incluso parecen estar literalmente en ebullición: es el caso de la radiofuente 82, cuyas
imágenes fueron obtenidas por Sandage.
Y los astros en calma no puede considerarse que vivan en una completa autarquía.
Todas las estrellas están rodeadas de atmósferas que pueden extenderse hasta
distancias considerables. Sabemos en particular que las gigantes tienen campos
gravitatorios muy débiles, que les valen atmósferas dilatadísimas: en 500 000 km, la
densidad puede disminuir solamente a la mitad, lo que crea unas condiciones
propicias para las emisiones.
Y las estrellas de la serie principal, como nuestro Sol, lanzan vaharadas de
materia. Los aparatos interplanetarios han señalado la presencia de numerosos
«vientos» solares entre 100 000 000 y 150 000 000 de km, unos permanentes y lentos
(de 300 a 1500 km/s), y otros irregulares y rápidos, que proyectan al espacio una
materia liberada de la atracción solar.
Según los fenómenos que se desarrollan en la estrella, las eyaculaciones se
producirán, en la práctica, bajo energías muy variables. A veces el astro se comporta
como un potente acelerador y confiere una energía gigantesca a una pequeñísima
cantidad de materia, que constituirá los «rayos cósmicos».
Esta denominación consagrada por el uso es poco afortunada, pues durante
mucho tiempo ha creado confusión en las ideas. Se remonta a la época en que los
físicos no comprendían las extraordinarias excitaciones de que era objeto nuestra
Tierra y por consiguiente las atribuyeron a una misteriosa radiación procedente del
espacio.
En realidad, los rayos cósmicos consisten en una materia ordinaria (núcleos y
electrones) a la que los campos electromagnéticos confieren aceleraciones
considerables, con creación de ondas que constituyen los rayos gamma. Ya hemos
expuesto un ejemplo grandioso de este proceso con el fenómeno supernova, pues los
restos de éstas estrellas figuran hoy entre las fuentes más intensas que puede revelar
un gamma-telescopio.
Las energías pueden cifrarse en miles de millones e incluso en billones de
electronvoltios, lo que explica los fenómenos complejos que se desarrollan cuando
los núcleos tropiezan con una materia. Esto es especialmente lo que ocurre en la alta
atmósfera, donde el análisis de estos fenómenos dio ocasión al físico de descubrir el

ebookelo.com - Página 163


prodigioso mundo de las partículas elementales, a través de cascadas de
transformaciones.
En la era espacial, es posible realizar un estudio antes de que se produzcan
interacciones con el medio ambiente terrestre. Los satélites analizan la radiación
cósmica «primaria» y comparan las muestras de los núcleos con la supuesta
composición del Universo.
En su conjunto, existe una notable concordancia: Como el Universo, los rayos
cósmicos están formados en su mayor parte de protones y heliones. Todos los demás
elementos restantes no representan ni siquiera 1%. Pero surgen diferencias de detalle:
los elementos ligeros son un poco menos abundantes en los rayos cósmicos que en el
Universo, mientras que los núcleos más pesados que el oxígeno abundan más. Por
otra parte, la tríada litio-berilio-boro, que las estrellas desdeñan, a causa del callejón
sin salida en que los procesos nucleares meten a los elementos 3, 4 y 5, está bien
representada en la radiación cósmica, donde su presencia parece poder atribuirse a
reacciones nucleares.
Por medio de los núcleos de la radiación cósmica, que pueden viajar por el
espacio durante centenares de millones de años siguiendo los raíles de los campos
electromagnéticos, las estrellas exponen literalmente sus «temperaturas de punta»,
convertidas en mensajeros capaces de mantener una actividad nuclear durante mucho
tiempo.

Acoplamiento estrella-galaxia
A diversos ritmos y de una manera reiterada, las estrellas lanzan su materia al
espacio.
El movimiento no se efectúa en sentido único. Incluso después de su formación,
los astros continúan recogiendo una materia galáctica. Hasta puede suceder que
encuentren nubes de materia que desgarrarán y cuyos fragmentos arrastrarán; además,
arrastran el polvo que encuentran a su paso. Aunque parezca paradójico, esta
captación de materia alcanza un tanto por ciento muy elevado cuando la estrella cesa
en su actividad; al llegar al estado de «enana», cuando la gravitación provoca su
contracción definitiva al extinguirse las reacciones nucleares, sabemos que la estrella
posee una densidad elevada, que le confiere un poder de atracción considerable.
En una palabra, las estrellas y el medio galáctico se alimentan mutuamente y de
manera permanente merced a una corriente de doble dirección en la que

ebookelo.com - Página 164


distinguiremos dos casos extremos, representados por la enana blanca, que es
solamente importadora, y la supernova, en la que, por el contrario, la función
exportadora alcanza un desarrollo monstruoso con la eyaculación de un tonelaje
fantástico de elementos pesados. Pero este acoplamiento plantea el problema mismo
de la evolución del objeto galáctico.

La evolución de las galaxias


Después de diez mil millones de años, la evolución nuclear de la galaxia experimenta
una profunda transformación morfológica.
La dejamos al intervenir el proceso estelar, recordando que después de adquirir su
autonomía gravitatoria, la galaxia inició un movimiento de contracción.
Este movimiento era extremadamente lento. Su masa considerable aseguraba al
objeto galáctico una velocidad de escape elevada, que retendría la materia caída en su
regazo. Su densidad media, extremadamente débil, le proporcionaba en cambio una
gravedad insignificante: así, la materia presente en la galaxia era vagabunda. Resultó
ampliamente absorbida por las retroacciones positivas rápidas de las que nacerían las
estrellas y su funcionamiento modificó profundamente el aspecto de la galaxia. Pero
las estrellas poseen masas tan pequeñas que esta «granulación» de la materia apenas
tuvo repercusión sobre la cohesión del objeto galáctico.
Mientras unas estrellas nacen y evolucionan, este objeto prosigue su movimiento
de contracción.
¿Qué aspecto adquirirá?
A primera vista, la lógica de una contracción galáctica es la misma de una
contracción estelar. Como la estrella, la galaxia experimenta el efecto de bañera: su
rotación se acentúa con la contracción.
Sin embargo, la escala es muy diferente. Nacidas de bolas iniciales cuyo diámetro
era de meses luz, las estrellas se contrajeron hasta no tener más que algunos segundos
luz. O sea que la reducción alcanzó la diezmillonésima: por consiguiente, las grandes
estrellas se vieron obligadas a adquirir velocidades que las hicieron girar sobre sí
mismas en pocas horas.
En cambio, la contracción de una galaxia no alcanza esta amplitud; le falta mucho
para llegar a ella. Después de miles de millones de años, el diámetro se reduce
únicamente en una proporción de 5 ó 10; así, las galaxias girarán lentamente, si es
que llegan a girar…

ebookelo.com - Página 165


En el caso de las estrellas, el coeficiente de multiplicación era tal, que la menor
turbulencia se amplificaría en proporciones fantásticas. En cambio, a la escala de una
galaxia, una rotación inicial insignificante tendrá muchas probabilidades de
mantenerse invariable, incluso después de una etapa de contracción.

Diferenciación de las galaxias


En realidad, la rotación de una galaxia depende directamente de sus condiciones de
formación y puede ser inexistente. La galaxia conservará entonces una forma
elipsoidal o incluso perfectamente esférica. Conocemos magníficas galaxias-bola que
han conservado el aspecto de gigantescos globos.
A unos cuarenta y cinco millones de años luz de nosotros, la galaxia Messier 87
es un ejemplo típico de ello: este espléndido objeto celeste del cúmulo de Virgo
contiene probablemente más de trescientos mil millones de estrellas.
En estas galaxias elipsoidales o esféricas, la contracción continúa lentamente,
ofreciendo un notable aspecto centrista. Chklovsky imputa la intensa actividad
hertziana de algunas de ellas a una «caída» de la materia hacia el centro de la galaxia.
Pero una fuerza de freno nace de la radiación de las estrellas que constituyen la
galaxia.
Cuando la rotación de la nube inicial es apreciable, las galaxias giran sobre sí
mismas. El efecto de desagüe se hace entonces muy acentuado y la rotación origina
una fuerza centrífuga, que modifica también a la galaxia.
Como es sabido, las estrellas giraron sobre sí mismas con velocidad creciente,
hasta que la fuerza centrífuga equilibró la gravedad del astro: la materia fue objeto
entonces de una eyaculación sistemática que la llevó a constituir un ancho disco
ecuatorial.
Este esquema se aplica exactamente a una galaxia en rotación. El movimiento,
desde luego, es siempre muy lento; por lo tanto, origina una fuerza centrífuga
extremadamente débil. Pero la gravedad galáctica también es insignificante. Así,
incluso en el caso de una rotación que obligue a una galaxia a describir solamente una
vuelta en varios centenares de millones de años, la fuerza centrífuga sería
considerable, comparada con la gravedad. A guisa de ejemplo, podemos ver lo que
pasa en nuestra Galaxia, en la que el Sol efectúa una revolución en doscientos
cincuenta millones de años, lo que representa para la gravedad que emana del centro
un valor correspondiente a la 70 000 millonésima parte de la gravedad terrestre.

ebookelo.com - Página 166


Teniendo en cuenta esta levísima gravedad galáctica, la rotación de las galaxias
nos aparece como el factor fundamental que rige su evolución. En cuanto esta
rotación empieza a ser apreciable, la fuerza centrífuga deforma profundamente la
galaxia, imponiéndole una estructura característica, con un abultamiento central y un
disco que podrá ser inmenso.
Por lo demás, los astrónomos se vieron obligados a distinguir toda una clase de
galaxias en la que el achatamiento se acentuaba a partir de la etapa esférica: el disco
ya es importante en las galaxias llamadas de tipo Sb y aún lo es más en las galaxias
Sc, pues es evidente que una centrifugación intensa está acompañada de una enorme
pérdida de masa, lo cual quiere decir que las galaxias achatadas dispersaron al
espacio una gran parte de su materia inicial.
El estudio de la evolución de las galaxias realizó progresos decisivos entre 1960 y
1963 a consecuencia de algunos notables trabajos y especialmente de las pacientes
observaciones de Thorton Page. El astrónomo de la universidad Wesleyana fijó su
atención en las parejas de galaxias satélites: midiendo sus velocidades relativas, pudo
formarse una idea de sus masas.
El resultado no puede ser más elocuente: las galaxias más pesadas son las de tipo
EO, o sea las galaxias esféricas, y son éstas las que poseen los momentos cinéticos
más débiles. Después corresponden unos aplanamientos cada vez mayores, para
masas decrecientes y momentos cinéticos más elevados…

La película de un aplastamiento
Nuestra propia Galaxia es del tipo Sb y podemos imaginarnos su historia, desde la
condensación de una formación gigantesca. Antes los astrónomos tenían que
contentarse con imaginar, pero actualmente empezamos a reconstruir poco a poco la
prodigiosa película galáctica.
Si bien nuestra Galaxia ofrece hoy el aspecto de una gigantesca lenteja cuyo
diámetro y cuyo espesor miden respectivamente 100 000 y 10 000 años luz, ya hemos
dicho que el astrónomo observa la presencia de magníficos cúmulos globulares fuera
de ella, que son muestras de la materia primitiva. Y su presencia en un halo que se
extiende por encima y por debajo de la Galaxia, donde están distribuidos de una
manera notablemente simétrica, nos revela su fisonomía primitiva, la que tenían antes
de la evolución que las convertiría en un disco cada vez más aplastado y concentrado.

ebookelo.com - Página 167


32. Diagrama de las galaxias según Thorton Page
Las galaxias más pesadas son esféricas. Cuanto más importante es la rotación, menor es la masa de la
galaxia.

Las máquinas electrónicas han descubierto las etapas de este aplastamiento.


Sandage tuvo la idea de utilizar ordenadores digitales para buscar en la Galaxia una
correlación entre el reparto espacial de las estrellas y su composición química, factor
este último que indicaba la época en que se formó el astro. El análisis de los
resultados explicaba bien a las claras que las estrellas más jóvenes se hallan situadas
en las cercanías inmediatas del plano galáctico, mientras que los astros más antiguos
pueden encontrarse a distancias considerables.

Nuestra Galaxia
Las galaxias aplanadas se convertirían en escenario de notables actividades debidas a
su propia estructura.
Nuestra Galaxia en particular es un verdadero «combinado» cósmico cuya
organización sólo se ha vislumbrado en fecha muy reciente.
La astronomía tradicional tropezó con grandes dificultades para su estudio.

ebookelo.com - Página 168


Hallaba un gran obstáculo en la presencia de polvo cósmico en el disco galáctico. La
densidad de este polvo es ínfima, desde luego, pero en un recorrido de 10 000 años
luz, basta para absorber el 99,5% de la radiación luminosa. Al hallarse el Sol a 33 000
años luz del centro de la galaxia, resultaba prácticamente imposible «ver» dicho
centro con los medios clásicos.
Se había podido «adivinar» a lo sumo su dirección, teniendo en cuenta el reparto
de los cúmulos globulares. El principio utilizado era muy sencillo. Suponiendo que
nos perdiésemos en medio de una multitud, podríamos encontrar su centro, tendiendo
el oído en diferentes direcciones para descubrir aquella de la que procede el ruido
más intenso. Así, los astrónomos procedieron a un paciente recuento de los cúmulos
globulares, para deducir la dirección hacia la que eran más numerosos. Esta labor de
búsqueda señaló hacia la región del Sagitario.
Pero era imposible obtener informaciones precisas sobre el número de la Galaxia.
Hubo que esperar al año 1959 para que se iniciase su exploración mediante la
radioastronomía, que se beneficia de unas condiciones privilegiadas: las ondas
hertzianas apenas son absorbidas por el polvo del disco galáctico.
Los físicos descubrieron entonces que las nubes de hidrógeno empiezan a ocupar
la casi totalidad del espacio libre entre las estrellas cuando se llega a 20 000 años luz
del centro. Su densidad va después en aumento constante hasta originar, a unos
10 000 años luz, una a manera de barrera constituida por un abultamiento
gigantesco…

Un turrón de estrellas
Más allá de dicho abultamiento, la radioastronomía registra un inmenso vacío que se
extiende hasta 1600 años luz del centro. A esta distancia aparece un anillo cuya
amplitud se calcula en 300 años luz. Después viene nuevamente el vacío. Y por
último, el corazón mismo de la Galaxia está ocupado por un núcleo densísimo.
Tratemos de interpretar esta situación. Al producirse la contracción del objeto
galáctico, el efecto de desagüe debió de ejercerse esencialmente en la materia
periférica, cuya velocidad aumentó a medida que se acercaba al centro. Y el
abultamiento señala la zona donde la fuerza centrífuga triunfó de la gravedad,
dividiendo la Galaxia en dos regiones.
En el interior, el corazón de la Galaxia quedó aislado en una región tranquila, que
pudo organizarse como una verdadera república autónoma. Su materia se condensó

ebookelo.com - Página 169


en estrellas que se aproximaron, para dar nacimiento a objetos gigantescos de una
naturaleza particular.
El anillo está en rotación y su velocidad parece ser de 300 km/s. A pesar de esto,
mantiene una notable estabilidad, lo mismo que el núcleo. El estudio de éste no
resultó sencillo, y se conoció antes el núcleo de la nebulosa de Andrómeda que el de
nuestra propia Galaxia. No se vea en esto ninguna paradoja, pues hay que tener en
cuenta que nuestros instrumentos permiten penetrar hasta el mismísimo corazón de
esta Galaxia vecina.
Fue entonces cuando Baade tuvo la idea de sacar placas de Andrómeda con
subexposición. Estas fotografías revelaron la presencia de un punto brillante en el
centro: era precisamente el núcleo. El astrónomo le atribuyó un diámetro de 50 años
luz, cifra confirmada por el telescopio electrónico (fig. 33)[ver]. Parece ser que las
dimensiones del núcleo de nuestra Galaxia son comparables.
En estos núcleos galácticos, se calcula que las estrellas están dos millones de
veces más concentradas que en los brazos. Es decir, si nuestro Sol formase parte del
núcleo, tendría a su alrededor y a menos de 10 años luz, 20 000 000 de estrellas. Por
supuesto, en medio de semejante embotellamiento estelar, ningún sistema solar
hubiera podido organizarse.
A decir verdad, el físico descubre en estos agrupamientos un nuevo estado del
espacio en el que unas estrellas muy cercanas unas a otras confieren estructuras
«rígidas» a volúmenes astronómicos. Respecto a las regiones periféricas de la
Galaxia, vendrían a ser lo que un sólido es a un gas en nuestra materia. Así, el disco y
el anillo poseerían estrellas extraordinariamente juntas y unidas por una pasta de
hidrógeno, formando un verdadero turrón.

ebookelo.com - Página 170


33. Núcleo de la nebulosa de Andrómeda
Acoplando una cámara electrónica al telescopio de Lick, los astrónomos Lallemand, Duchesne y Walker pudieron
estudiar con gran precisión el corazón de nuestra galaxia vecina, la nebulosa de Andrómeda. Comprobaron que la
velocidad de rotación aumentó regularmente a partir del centro hasta 25 años luz: entonces alcanza 87 km/s. Estos
valores corresponden al radio del núcleo y a su velocidad ecuatorial. Al ser el crecimiento lineal, podemos deducir
que el núcleo se comporta mecánicamente como un sólido: sin duda se trata de un elipsoide, cuya revolución se
efectúa en quinientos cuarenta mil años. Su eje menor debe de medir 16 años luz y su masa se calcula en quince
mil millones de veces la masa del Sol (el 15% de la masa total de la galaxia).

Pensándolo bien, era lógico que las estrellas de una región tranquila estuviesen
muy juntas, creando una verdadera comunidad; en principio, en efecto, no existe
ningún límite mínimo para la distancia que separa a las estrellas, que pueden estar
unidas tanto por su gravitación como por su radiación.
Ésta sería la situación de la región central, en el interior de un mundo separado
del resto de la Galaxia.

ebookelo.com - Página 171


El pulmón galáctico
En la parte exterior del abultamiento en forma de rosca, la situación es muy distinta:
separadas por espacios inmensos, las estrellas se hallan inmersas en un medio que
sufre una constante renovación bajo la acción de un trabajo motriz que puede
atribuirse al propio abultamiento.
Este gira, en efecto, como lo haría un sol gigantesco alrededor del centro de la
Galaxia, emitiendo grandes cantidades de gas, que se dirigen hacia el disco galáctico,
creando una corriente permanente que, a una velocidad inicial de 50 km/s, se
distribuye por toda la Galaxia. Los astrónomos han podido observar que en las
cercanías del Sol, su velocidad aún es de 7 km/s.
Parece tratarse de un fenómeno muy general. La existencia de esta corriente se ha
comprobado en nuestra vecina, la Gran Nebulosa de Andrómeda, algo mayor que
nuestra Galaxia, pero que posee su misma estructura. Guido Munch observó desde
Monte Palomar un chorro gaseoso que procedía de su región central.
Y este movimiento reviste una amplitud impresionante: un cálculo sumario nos
revela que, en nuestra Galaxia, la cantidad total de gas que emana anualmente del
abultamiento central es superior a una masa solar. El abultamiento galáctico alimenta
así al disco a un ritmo que permitiría que apareciese todos los años una estrella
nueva. En varios miles de millones de años, esto representa una masa enorme,
aproximadamente la cuarta parte de la masa total de la galaxia.
Masa que el abultamiento central sin duda no poseyó nunca.
¿De dónde proviene, pues, la materia que distribuye tan generosamente?
Una explicación ha sido sugerida por Rougoor y Oort. Estos radioastrónomos
suponen que el abultamiento central está alimentado por el halo; o sea, por el espacio
que debía de ocupar el objeto galáctico primitivo, cuya contracción no arrastró a toda
la materia del espacio inicial. Si la pieza esencial de nuestra Galaxia es hoy un objeto
de forma lenticular, éste se encuentra en el corazón de un verdadero capullo, mientras
los cúmulos tienen que evolucionar en medio de grandes cantidades de gases, que
resultarán atraídos hacia la lente, pues el abultamiento desempeñará el papel de
órgano centrífugo, que lanzará estos gases al plano galáctico.
Este proceso nos recuerda a la estrella naciente, que absorbe la materia ambiente
por sus polos, actuando como una centrifugadora por su ecuador. Este fenómeno,
visto a la escala de la galaxia, tendrá una larga duración, a causa de la lentitud con
que evoluciona el objeto, pues el halo puede continuar siendo fértil, con tanta mayor
facilidad cuanto que su materia tiene que renovarse.

ebookelo.com - Página 172


34. La fábrica galáctica
En el centro, el núcleo (cuyas dimensiones son muy exageradas) y un anillo se hallan ocultos detrás de un
abultamiento circular que expulsa hacia los brazos de nuestra Galaxia el hidrógeno procedente del halo.

ebookelo.com - Página 173


35. Los brazos de nuestra Galaxia
La radioastronomía ha revelado la estructura espiral de nuestra Galaxia. Esta carta viene a ser un primer plano
(rectángulo de la fig. 6)[ver] que muestra los alrededores del Sol. Tres brazos son visibles, actualmente designados
por las constelaciones en las que los vemos. El brazo exterior es el de Perseo. El Sol se encuentra en el borde
interior del Brazo de Orión. Hacia el centro de la Galaxia, se encuentra el Brazo del Sagitario. Las cruces indican
el emplazamiento de estrellas azules. Las manchas cercanas al Sol representan nubes oscuras.

Cuando las supernovas hacen explosión, su materia se desparrama en todas


direcciones. Por lo tanto, una gran parte puede ir a enriquecerla.
Así, una galaxia achatada poseerá verdaderas corrientes.

ebookelo.com - Página 174


El campo magnético de la galaxia
Pero esto no es todo: dichas corrientes serán canalizadas por las estructuras de nuestra
Galaxia.
Antiguamente se consideraba que sólo la gravitación podía modelar una galaxia.
La fuerza nuclear tiene un campo de acción muy reducido y la existencia de dos
cargas opuestas parecía imponer una neutralización de la energía eléctrica, a escala
cósmica. Los electrones y los núcleos terminan por unirse para formar átomos.
Cuando esto no ocurre, constituyen un plasma en el que las cargas positivas se
encuentran neutralizadas por un número igual de cargas negativas.
Pero no debemos olvidar los campos magnéticos.
Hasta aquí, sólo hemos aludido de paso al magnetismo. No se trata de una fuerza
fundamental en el Universo, sino de un aspecto de la electricidad cuyo sentido nos ha
sido revelado por la relatividad: cuando varía la distancia de dos cargas, su mutua
atracción debe tener en cuenta su velocidad de propagación. Y la «corrección» no es
más que la fuerza llamada magnética.
En algunas circunstancias, esta fuerza disimula los efectos puramente eléctricos.
Es el caso de dos conductores contiguos por los que pasa una corriente. Las fuerzas
eléctricas quedan neutralizadas, pues cada conductor contiene cargas positivas y
negativas en cantidades iguales. Pero el desplazamiento de los electrones crea un
efecto magnético.
La electricidad y el magnetismo siempre estarán íntimamente ligados a escala
cósmica, porque las partículas se hallan en movimiento. Y desde hace mucho tiempo
se sospecha la existencia de un campo magnético galáctico. Los astrónomos le
atribuían la desviación de los núcleos cósmicos, que llegan de todas direcciones,
mientras que las fuentes se encuentran principalmente en el plano galáctico. Así, se
consideraba que en los recorridos largos, la acción de un campo magnético consistiría
en curvar las trayectorias.
Su existencia fue demostrada por Hiltner y Hall. Estos dos físicos se dedicaron a
estudiar las nubes de polvo interestelar que existen en el plano galáctico. Algunas de
estas capas de materia son visibles a simple vista, especialmente la que divide en dos
brazos la Vía Láctea, desde el Cisne al Sagitario. A través de estas nubes gaseosas, la
luz de las estrellas resulta polarizada, lo cual significa que el polvillo cósmico debe
de estar orientado hacia la misma dirección, bajo la influencia de un campo
magnético paralelo al plano galáctico.
Su descubrimiento se realizó en 1962 en Jodrell Bank y fue saludado con
entusiasmo por los astrónomos, pues consiguió explicar finalmente los «brazos» de la
Galaxia. Unas consideraciones puramente mecánicas, en efecto, permitieron explicar
por qué nuestra Galaxia se había ido achatando poco a poco, hasta adquirir su aspecto
actual de gigantesca lente biconvexa. Pero era difícil comprender la aparición de una
espiral inscrita en el disco.

ebookelo.com - Página 175


Para explicar esto, se formuló una hipótesis en 1953. Teniendo en cuenta lo
extremadamente reducida que era la gravedad en la Galaxia, Fermi y Chandrasekhor
observaron que bastaría un campo magnético muy débil para hacer que la materia se
arracimase en gigantescos hilos en el disco. Sus cálculos demostraban que, con un
campo de 10 gammas[32], el magnetismo ya triunfaría de la gravedad. Ahora bien: las
primeras mediciones del campo galáctico proporcionan valores comprendidos entre
los 5 y los 25 gammas.
Así se explica la fisonomía de nuestra Galaxia. Es una galaxia espiral: el campo
magnético ofrece «tubos» a su materia ionizada, que la canalizan en corrientes.

Galaxias fértiles y galaxias estériles


Gracias a esta extraordinaria maquinaria, nuestra Galaxia aún posee regiones fértiles.
Debemos entender por ello que nuestra Galaxia contiene una materia no
concentrada en estrellas; en este caso, ciertas reservas de hidrógeno inicial
enriquecido con elementos pesados.
Pero sin duda ésta no era una condición suficiente. Si se inyectase una importante
cantidad de hidrógeno en el interior de una galaxia elíptica, nada nos asegura que
naciesen estrellas, pues el gas se dispersaría.
Nuestra Galaxia continúa siendo fértil porque posee una materia esparcida, pero
también porque dicha materia está canalizada. Mediante el depósito de hidrógeno que
constituye el capullo, el abultamiento central actúa como una centrifugadora, que
envía al disco galáctico una materia cuyo campo magnético crea ríos espaciales, que
se enriquecen con el paso de los elementos pesados. Y en nuestra Galaxia, estos ríos
acaban por desembocar entre los brazos de la espiral, donde subsiste una importante
materia gaseosa, que incluso hoy crea estrellas.
Y esta situación, en términos generales, es la misma de las galaxias en espiral,
una cierta fracción de cuya masa se halla en el estado de «sangre estelar» en
verdaderas arterias cósmicas, que el astrónomo descubre merced a la presencia de
estrellas azules. Esta proporción de materia libre es muy variable.
Hoy sabemos que el hidrógeno libre existe en cantidades considerables en las
galaxias irregulares (del 60 al 100% de la masa), donde la ausencia de «circulación»
parece ser la causante de la extremada lentitud de las condensaciones. Inversamente,
la materia de las galaxias elípticas sufrió una «floculación» estelar casi sistemática,
bajo el efecto de corrientes que convergían hacia el centro.

ebookelo.com - Página 176


Estas galaxias elípticas son estériles en la actualidad. Nos lo demuestra la
ausencia de estrellas jóvenes. Desde luego, la densidad del gas interestelar no es
rigurosamente nula en estas galaxias, y existen corrientes de intercambio entre las
estrellas y el medio ambiente, pero no están organizadas: la galaxia no es una fábrica,
sino un medio anárquico en el que cada estrella evoluciona aisladamente.

Supersupernova
Por lo tanto, en las galaxias fecundas la materia sufre un ciclo regular, durante el cual
resulta enriquecida por una gigantesca instalación cósmica constituida por miles de
millones de estrellas que forman el edificio, cuyas máquinas son ciertos astros
particulares.
Así una galaxia puede ser teatro de cambios más o menos intensos, conservando
durante períodos larguísimos un rendimiento casi constante. Diremos entonces que ha
adquirido su régimen permanente. Es una fábrica astronómica sometida a una
inmensa regulación natural: la estructura espiral la gobierna con una retroacción
negativa, pues una aceleración del ritmo galáctico acarrearía una dispersión
acentuada de la materia.
Y se plantea una cuestión: ¿No podríamos imaginar también una estructura a
escala galáctica que estuviese gobernada por una retroacción positiva, cuyo resultado,
por consiguiente, sería la explosión del propio objeto galáctico? Teniendo en cuenta
que algunas estrellas estallan, dispersando su materia por el cosmos, ¿no sería posible
que vastas aglomeraciones de estrellas y hasta galaxias enteras corriesen la misma
suerte?
Teóricamente, esto es concebible para las galaxias esféricas o incluso para el
núcleo de las galaxias espirales. Cuando se alcanza cierta concentración de estrellas,
se pueden plantear condiciones críticas que, una vez rebasadas, darán lugar a una
retroacción positiva, consistente en la precipitación de las estrellas unas sobre otras;
es decir, una «implosión» del objeto galáctico. La obra de la gravitación se ejercería
entonces sobre masas considerables, creando temperaturas de miles de millones de
grados que darían origen a fantásticas reacciones nucleares y a una explosión que
convertiría a la galaxia en una supersupernova.
Tal posibilidad se tomó en consideración en enero de 1963, durante las reuniones
de la American Physical Society. No solamente Fowler y Hoyle sostienen que estos
procesos son posibles, sino que creen haber hallado la huella de estos cataclismos en

ebookelo.com - Página 177


el curioso aspecto que ofrecen algunas galaxias, cuya masa visible está comprimida
entre nubes que son teatro de una extraordinaria actividad radioeléctrica. Estas nubes
parecen haber brotado del corazón de la galaxia y, según Hoyle, la energía que emite
indica una colosal conflagración termonuclear del conjunto de las estrellas.
Menos de un año después, la tesis de la explosión de las galaxias recibió una
confirmación al observar la galaxia M 82, en la que los astrónomos, desde hacía
algún tiempo, sospechaban que se producían fenómenos insólitos. En efecto: el
análisis de su radiación de hidrógeno ionizado, efectuado en Monte Palomar, disipa
todas las dudas y los astrónomos comprenden que M 82 está estallando. A
velocidades que alcanzan los 8000 km/s, esta galaxia proyecta al espacio, desde hace
más de un millón de años, una materia que representa cinco millones de masas
solares.
Esto hace que los astrónomos consideren un fenómeno «natural» la explosión de
las regiones centrales de las galaxias.
En este caso, la «mezcla» de la materia rebasa el marco galáctico y se une a la
actividad nuclear del Universo.

ebookelo.com - Página 178


9

El fenómeno planeta
A partir del hidrógeno inicial, aún no hemos registrado más que una organización
topológica del cosmos y la creación de elementos pesados.
Mediante la conjunción de estos dos procesos, pasamos una página: el fenómeno
planeta representará una nueva etapa en la evolución de la materia, con el
advenimiento de la era fisicoquímica.
Auténtico crisol nuclear, cada estrella es el centro de un dominio en el que su
gravitación mantiene prisionera cierta cantidad de materia. Ahora bien: ésta iniciará
un proceso de una naturaleza totalmente nueva. Se reunirá para formar «objetos
secundarios» desprovistos de actividad termonuclear, que se convertirán en el paraíso
de los átomos.
Esta etapa interesa directamente al hombre: el tercer planeta que gravita alrededor
de la estrella llamada Sol será la Tierra, cuna de unos seres que hoy pretenden
reconstruir el Universo con el pensamiento. Y en este sentido, comprender el
fenómeno planeta era para el astrónomo explicar esencialmente la génesis del sistema
solar.
Pero esta discusión debe realizarse en un marco más amplio y buscar si este
sistema solar fue un fenómeno excepcional o natural en el Universo y, para ello,
estudiar la cibernética de los mundos estelares.
Veremos que es extraordinariamente sutil; lo cual no tiene nada de sorprendente,
pues la complejidad es la regla general en la evolución de los sistemas, cuando sus
elementos componentes pueden efectuar numerosas reacciones mutuas. Así, la
actividad de las estrellas calientes ya nos reveló una complejidad cualitativa, con la
actividad incesante de las partículas y los núcleos. Pero alrededor de una estrella
señalaremos la presencia de una complejidad mecánica: la materia retenida bajo su
dominio no cambiará de naturaleza, pero se organizará en asociaciones que
reaccionarán mutuamente y modificarán el medio ambiente.
Así fue como durante mucho tiempo, la cosmogonía de nuestro sistema solar
constituyó la desesperación de los astrónomos, que señalaron pacientemente todas las
particularidades del extraordinario cortejo que rodea al Sol. Esto condujo a Ter Haar
a realizar un censo exhaustivo. Pero ¿no había que distinguir particularidades de
origen y caracteres adquiridos? Y entre los rasgos de nuestro sistema solar, ¿cuáles
eran fundamentales y cuáles contingentes? El astrónomo no ocultaba la contrariedad
que le producía no disponer más que de un modelo, pues de haberse sabido cómo se
organizó la materia en torno a otras estrellas, hubiera sido infinitamente más fácil
entender la cibernética de los sistemas planetarios.
Reducido a sus elementos, el problema es sencillo. Al principio las estrellas —o

ebookelo.com - Página 179


al menos éste es el caso de nuestro Sol— estaban rodeadas de discos, los cuales se
transformaron en planetas.
¿Cómo explicar la presencia de estos discos y cómo comprender su
condensación?

1— Una estrella y su disco


En otras épocas, los astrónomos desconocían la existencia de la materia interestelar, y
en un cielo vacío veían solamente estrellas rodeadas de finas atmósferas. Así, para
explicar los planetas, tenían que descubrir un proceso que hubiese permitido la
presencia de una materia libre en las cercanías del Sol.
En la actualidad hemos adoptado una actitud en cierto modo opuesta. Sabemos
que las estrellas han nacido en el seno de inmensas nebulosas formadas por gas y
polvillo cósmico y que, durante su formación, la gravitación atrajo desde grandes
distancias la materia esparcida por el Universo. Luego, cuando la estrella adquiere
una rotación apreciable debida a su contracción, cuando se inician las relaciones
termonucleares, el astro se aísla, de manera que la materia no admitida queda
apartada, en forma de nube que se achata en torno a las regiones ecuatoriales de la
estrella.
La fuerza centrífuga canaliza la materia, y, mediante su gravitación, la estrella
continúa atrayéndola hacia sus regiones polares, mientras la expulsa por el ecuador.
Así, resulta natural que una estrella joven esté rodeada por un disco enriquecido
por su actividad: nuestro Sol aún emite protuberancias en sus regiones ecuatoriales.
Esta concepción de la materia común al Sol y a sus planetas ya fue entrevista por
Kant y Laplace. Según estos pensadores, el sistema solar era al principio una masa
gaseosa de grandes dimensiones, que ofrecía el aspecto de un cuerpo lenticular en
rotación. Luego esta masa se condensó en anillos que, al disgregarse, engendraron los
planetas, mientras que el Sol nacía de la región central.
No deja de ser notable que el filósofo y el físico citados hubiesen podido imaginar
esta génesis del sistema solar, en una época en la que se desconocían las partículas y
en la que la energía de las estrellas constituía un misterio total.

ebookelo.com - Página 180


La objeción del momento cinético
Era lógico imaginar que los planetas y el Sol nacieron de una misma materia.
En realidad, esta teoría tropezó durante mucho tiempo con una objeción de orden
mecánico: en ella no se respetaba la conservación del momento cinético. El efecto de
bañera o de desagüe es el resultado de la rotación acelerada de una masa al
contraerse. Pero aplicado al sistema solar actual, nos indica que si la materia de los
planetas se hubiese contraído hasta el plano ecuatorial del Sol hubiera adquirido una
velocidad considerable, que el astro central tendría que compartir, admitiendo la
hipótesis de que hubiese nacido del mismo objeto primitivo; así, debería efectuar su
rotación en algunas horas, y no en veinticinco días.
Esta diferencia, evidentemente, es enorme y, en opinión de muchos astrónomos,
significaba una sentencia inapelable que negaba toda posibilidad de origen común al
Sol y los planetas.
Entonces imaginaron diversos procesos, tendentes a atribuir un origen autónomo
a nuestra nube planetaria.
Jeans lo buscó en un efecto de marea provocado por el paso de una estrella por las
proximidades del Sol, que arrancó una masa cuyo aspecto era el de una gigantesca
protuberancia alargada. Pero Russell refutó esta teoría, demostrando que el
arrancamiento de materia supuesto por Jeans hubiera exigido una colisión verdadera
y entonces esta materia hubiera gravitado en las proximidades del Sol.
Otro astrónomo inglés, Lyttleton, sugirió la explosión de una estrella, antigua
compañera del Sol. Este hecho no es completamente improbable. Sin embargo, hay
que observar que la materia eyaculada por una supernova brota al espacio con una
energía enorme y, si adoptásemos esta hipótesis de una materia extraña, no sería
necesario buscar una fuente próxima al Sol.
Dentro de este mismo orden de ideas, Schmidt y Alfven señalaron la posibilidad
de que las estrellas captasen nubes de materia errantes por el cosmos.
Estas nubes abundaban en el Universo primitivo, pues la materia resultante de
concentraciones abortadas o explosiones de astros se dispersaban muy lentamente, a
la manera de las nubes creadas por nuestros desechos atómicos. Así, existían
bastantes probabilidades de que una estrella penetrase en una nube de materia.
Aunque, desde luego, si dicha nube pudiese compararse mecánicamente a un
bloque, una captura por reacción de gravitación tendría que considerarse como algo
muy improbable. Pero el problema adquiere un aspecto muy distinto en el caso,
mucho más real, de colisiones no elásticas, durante las cuales una parte de la energía
se convierte en calor.
Aguekian puso de relieve este hecho: cuando una estrella penetra en una nube de
polvo cósmico, la trayectoria de este polvo se presenta como un arco de hipérbole
para cada partícula, con cumbres muy concentradas, de manera que se efectuarán
múltiples colisiones y las órbitas de determinado número de partículas se

ebookelo.com - Página 181


transformarán en elipses; así se producirá una autorreacción de gravitación. Y la
retención se acentuará si la estrella ya estuviese rodeada de una nube, que podrá
encontrarse profundamente modificada.

El acoplamiento magnético
Estas hipótesis, que implican una materia exterior, no se hallan desprovistas de
interés: con ellas se puede «hacer el censo» de una manera muy general de los
procesos que permiten el enriquecimiento en materia de los mundos estelares. Pero
no hay por qué disimularlo: semejantes aportaciones fueron excepcionales.
En lo que concierne especialmente al sistema solar, asistimos en 1940 a un
retorno a las tesis definidas por Kant y Laplace.
La única objeción que se les hacía era la que se refería a la ley de conservación
del momento cinético: el Sol hubiera debido girar con mucha mayor rapidez sobre su
eje.
Pero no tardó en proponerse una explicación: ¿No sería posible que el Sol
primitivo hubiese tenido un movimiento de rotación más rápido?
La mecánica clásica no admitía esta eventualidad, pues observaba que, en el
vacío, una rotación se conserva indefinidamente, de manera que si el Sol hubiese
tenido una rotación rápida hace miles de millones de años, la conservaría en la
actualidad. Pero precisamente Alfven se encargó de señalar el error que representaba
haberse limitado a estudiar el sistema solar en términos gravitatorios, con muchos
principios de mecánica formulados para medios neutros. Como hemos visto, la
comprensión de una galaxia requiere que se tenga en cuenta su campo magnético. Por
lo que se refiere a la rotación de objetos en el espacio, la astronáutica nos ha
proporcionado una lección muy elocuente.
Cuando un satélite se coloca en órbita, los técnicos le comunican con frecuencia
una rotación que lo transforma en giróscopo, a fin de realizar una «estabilización por
espín». Pero la experiencia demuestra que esta rotación disminuye con el tiempo: en
el caso de los Tiros, por ejemplo, en tres meses desciende de 12 a 9 revoluciones por
minuto.
Esta disminución de la velocidad es de origen electromagnético. Compuestos los
satélites de materiales conductores y evolucionando en el campo magnético terrestre,
su rotación es frenada por las «corrientes de Foucault» y por fenómenos de histéresis.
Pero las estrellas, constituidas de materiales plasmificados, son mil veces más

ebookelo.com - Página 182


conductoras que nuestros metales. ¿No resulta normal que hayan sido frenadas por
diversas causas, especialmente por los discos que las rodeaban?
Schatzmann observa que el Sol emite chorros de materia que permanecen
prisioneros mucho tiempo de sus líneas de fuerza; así, puede decirse que exportan
verdaderamente su momento cinético. En otros tiempos es indudable que el Sol se
hallaba unido por estas líneas de fuerza a su disco.
Todos estos procesos explicarían la disminución que con el tiempo experimenta la
velocidad de rotación de las pequeñas estrellas; durante su formación, no hay duda de
que el Sol era más rápido.
En el transcurso de los últimos años, por lo demás, los astrónomos han podido
medir las rotaciones estelares. Insignificantes para las estrellas más pequeñas que el
Sol, estas velocidades son elevadas en el caso de las grandes estrellas; o sea, en el
caso de los astros cuya inercia se opuso a la acción de freno. Además, al observar las
estrellas de los cúmulos jóvenes, los astrónomos comprueban que se hallan sometidas
a una enérgica acción de freno a partir del momento de su formación[33].

ebookelo.com - Página 183


36. Velocidad de rotación de las estrellas
Estos diagramas de las velocidades estelares se obtuvieron por observación de un efecto Doppler diferencial. Si
una estrella que se aleja del Sol a la velocidad V posee una velocidad ecuatorial v, la luz procedente del borde de
la estrella que avanza hacia la Tierra será V−v, mientras que, para el borde opuesto, será igual a V+v. Y de ello
resultará una «extensión» de las bandas, que permitirá medir v. Las dos curvas aquí reproducidas corresponden a
una colección de estrellas de la serie principal y a un grupo de estrellas del cúmulo de las Pléyades.

Por último, actualmente se ha descubierto que algunas estrellas animadas de un


rápido movimiento de rotación están rodeadas de un disco. Es el caso de Pleyone,
estrella de 7.a magnitud de la constelación de las Pléyades, cuya velocidad ecuatorial
alcanza los 300 km/s, la materia evacuada constituye un anillo gaseoso, excitado por
la radiación ultravioleta de la estrella y que se muestra muy luminosa. Así, el
astrónomo revive la gestación de los planetas, como si el cielo le hubiese revelado los
secretos de un nacimiento estelar.

ebookelo.com - Página 184


Un dominio particular
La presencia de materia alrededor de las estrellas debe, pues, considerarse como un
fenómeno de carácter general y su constitución en disco es lógica: la acción
centrifugadora del ecuador estelar está ayudada por la presión de radiación creada por
el astro.
Esta última ejercerá una gran influencia en el polvo cósmico. Cuando las
dimensiones de un objeto son divisibles por 10, el volumen lo será por 1000 y la
acción gravífica se reduce según esta relación, mientras que la superficie —y por lo
tanto la presión de radiación— son solamente divisibles por 100. O sea que la presión
de radiación reviste una importancia relativa, tanto mayor cuanto que se ejerce sobre
una materia más dividida. Así, los objetos que posean un diámetro inferior a 0,01 mm
serán «soplados» por la radiación solar… a menos que se mantengan a la sombra
unos de otros, o sea que el disco representará su refugio contra esta presión de
radiación.
Se observará, además, que los objetos del sistema solar primitivo que gravitaban
en diversos planos, acabarían siendo arrastrados por la materia del disco, cuando sus
órbitas les llevasen a atravesarlo.
Por todos estos motivos, las estrellas jóvenes se vieron rodeadas por discos, que
su gravitación retendría.
Al llegar aquí, hay que tener en cuenta el aislamiento de estos dominios estelares,
al menos en las regiones «aireadas» del Universo. Hemos visto que en el corazón de
la Galaxia, las estrellas están muy apiñadas, hasta cierto punto contiguas como las
casas de una ciudad. En las regiones periféricas, en cambio, los astros pueden
compararse a propiedades aisladas.
Resulta impresionante, en efecto, la enormidad de las distancias que separan estas
estrellas y por lo tanto la inmensidad de sus «heredades», situación que parece ser la
consecuencia de las extraordinarias concentraciones de materia impuestas por las
retroacciones gravíficas.
En un modelo reducido a la cien milmillonésima, las estrellas estarían
representadas por simples bolas. Nuestro Sol sería una canica que apenas tendría
3 cm de diámetro. Las estrellas gigantes serían pelotas de playa. Pero todas estas
esferas se hallarían esparcidas por un espacio de tres dimensiones, separadas por
centenares de kilómetros y recorriendo solamente unos cuantos centímetros diarios.
En semejantes condiciones, sólo podrían producirse rarísimas colisiones estelares en
el transcurso de diez mil millones de años, en una galaxia que contase con 100 000
millones de estrellas.
No solamente los choques serían excepcionales, sino que incluso el paso de una
estrella a poca distancia de otra parece muy poco probable: si consideramos que el
dominio del Sol se extiende por el interior de una esfera que tuviese diez mil veces su
diámetro, veremos que sólo hay una probabilidad entre ciento de cruzarse con el

ebookelo.com - Página 185


dominio de otro astro.
Este aislamiento, sin embargo, no excluye las corrientes de intercambio entre las
estrellas y la galaxia: pero éstas solamente adquieren verdadera importancia cuando
se producen fenómenos episódicos, propios de una minoría de estrellas. En épocas
normales, no son más que simples infiltraciones incapaces de alterar la serenidad de
una «hacienda» estelar.
Por los motivos expuestos, una estrella y su disco constituyen realmente un
dominio particular en las regiones «aireadas» del Universo, dotado de una notable
paz y propicio a una evolución autónoma.

2.— El nacimiento de los planetas


Al principio, el disco formado alrededor de la estrella está compuesto de elementos
pequeñísimos —partículas, núcleos o átomos— comparables a otros tantos satélites.
Y de momento se consideró que entre colisión y colisión, cada elemento se movía
como si estuviese solo, destruyendo una «órbita de azar» regida por las leyes de la
mecánica celeste; es decir, una elipse de distinta excentricidad.
El círculo —elipse sin ninguna excentricidad— es un caso notable, cuya
aparición aún nada ha favorecido. Sin embargo, en el transcurso de mucho tiempo se
efectuará un proceso de regulación, merced al cual la órbita circular terminará siendo
la trayectoria privilegiada en el seno del disco planetario.
Este proceso se inicia con las colisiones, mucho más numerosas, en efecto, sobre
las órbitas elípticas, que abarcan mayor espacio. Podemos comparar las órbitas
circulares con las pistas de una autopista, en la que los automóviles circulan uno al
lado del otro, mientras que las órbitas elípticas ofrecen la imagen de una serie de
recorridos en slalom: se producen numerosos choques, algunos de los cuales permiten
la creación de órbitas circulares; lo contrario es menos probable, pues éstas reducen
las colisiones al mínimo. Así, a la larga, esta acción selectiva favorecerá la órbita
circular.
Por lo demás, el hecho de que las órbitas se vuelvan naturalmente circulares
constituye una evolución familiar para los técnicos espaciales modernos, quienes
saben que el apogeo de un satélite desciende con mayor rapidez que el perigeo, a
causa de las leyes de la mecánica, pues la resistencia del aire es más elevada en la
región del perigeo. Y el disco planetario constituye una verdadera atmósfera del Sol,
A la larga, se dibujarán órbitas circulares en todos los discos de materia dotados de

ebookelo.com - Página 186


una vida suficiente; tendremos un notable ejemplo de ello en los anillos de Saturno.
Podemos admitir, pues, que alrededor del Sol primitivo se formó un disco cuyo
movimiento, sin embargo, no era el de un cuerpo sólido. En lenguaje astronómico, su
rotación era «kepleriana»: las leyes que hoy rigen el movimiento de los planetas ya
gobernaban la materia de la que éstos nacerán. La velocidad de rotación varía con la
raíz cuadrada del inverso de la distancia. Así, en torno a nuestro Sol, la velocidad
circular es de 52 km/s para una distancia de 50 000 000 de kilómetros. Equivale a
37 km/s a 100 000 000 de kilómetros, solamente 16 km/s a 500 000 000 de
kilómetros y es inferior a 12 km/s a 1000 millones de kilómetros.

El nacimiento de gérmenes
¿Cómo aparecieron los mundos en este disco en rotación?
En la actualidad, sólo conocemos una fuerza capaz de conjuntar un objeto
cósmico: la gravitación universal. ¿Debemos invocarla, considerando la gravitación
como algo inherente a la materia misma del disco que rodeaba a la estrella?
No podemos excluir tal posibilidad. Cuando un gas está contenido en un
recipiente determinado, se inicia una retroacción gravífica de contracción si la
densidad alcanza un valor crítico, llamado a menudo densidad de Roche. Y en un
disco importante, este valor podrá ser rebasado.
Pero este caso no es general y hay que considerar lo que sucede cuando la
gravitación no puede iniciar contracciones espontáneas en el disco. Sabemos que en
estas circunstancias puede surgir otro proceso de condensación.
Las velocidades relativas de los elementos componentes del disco son pequeñas,
en órbitas muy próximas, y podrán nacer asociaciones de los encuentros no brutales;
entonces, los átomos se unirán en moléculas, que a su vez aumentarán de tamaño para
convertirse en polvo, el cual, asimismo, se convertirá en gérmenes.
Pero además, es necesario que estas asociaciones sean posibles en la materia que
constituye el disco.
Ahora bien, su composición es igual a la de la estrella que ciñe. Si ésta es de
primera generación, será esencialmente hidrógeno, y el disco mostrará entonces una
tendencia a evaporarse lentamente en el espacio. Pero en el caso de una estrella de
población más reciente —y es precisamente el caso del Sol— el hidrógeno está
enriquecido con elementos que son aptos para múltiples combinaciones.
Consecuentemente, en los discos que rodean a las estrellas de generaciones

ebookelo.com - Página 187


avanzadas, la aparición de polvo y gérmenes será natural.
Es fácil reconstruir ahora los acontecimientos que empiezan a producirse. Los
gérmenes se unen en grumos que por último se convertirán en verdaderas bolas de
nieve, al aglutinar el polvo que encuentren a su paso.
El medio ambiente fértil constituido por el disco permitirá que aumenten de
tamaño. Se inicia entonces una retroacción de un nuevo tipo: un grumo mayor tendrá
una sección de captación más elevada y recogerá cada vez más materia, con la
consecuencia de que su volumen irá en aumento. Los grumos nacieron de una manera
fortuita, pero a partir del momento en que existieron, no pudieron dejar de fusionarse
y de engendrar objetos llamados a acumular cada vez con mayor energía, por
«acreción», el polvo del medio ambiente. A semejanza de la estrella, el planeta ha
descubierto el proceso fundamental de una autoevolución.
Los grumos se convertirán en protoplanetas y su aumento de tamaño señalará el
comienzo de una nueva etapa en la circularidad de las órbitas.
Esto es lo que observó Schmidt, después de estudiar durante mucho tiempo el
mecanismo de la acreción. Al principio, los materiales que encuentra el grumo tienen
direcciones repartidas al azar, pero su distribución es simétrica: cada choque se
convierte así en un papirotazo que acerca o aleja del Sol. El efecto estadístico de esto
será una mayor circularidad que tendrá tantas más probabilidades de ser perfecta
cuanto más numerosos sean los cuerpos, y a consecuencia de ella el objeto formado
será más voluminoso.
Es interesante observar a este respecto la jerarquía de nuestro sistema solar. Los
minúsculos asteroides que gravitan entre Marte y Júpiter no tienen órbitas muy
excéntricas. Los planetas principales, en cambio, presentan una débil excentricidad,
siendo la más marcada la de los pequeños: Mercurio (0,205) y Plutón (0,249). La
órbita de Marte aún tiene una excentricidad apreciable (0,093), mientras que para los
demás planetas, o sea, para los más importantes, las excentricidades son inferiores a
0,06.

Hacia la rotación de los planetas


Las percusiones de que son objeto los protoplanetas no tienen por único resultado
deformar las órbitas. Modifican también el movimiento de estos protoplanetas sobre
sí mismos y las acciones en sentido opuesto crean parejas, cuya composición deja un
residuo que conferirá al astro una rotación propia.

ebookelo.com - Página 188


El sentido de esta rotación siempre resultará intrigante, en el sistema solar. Con la
distancia al Sol disminuye la velocidad circular: esto quiere decir que el polvo
cósmico que se extendía por el interior de la órbita del protoplaneta era más rápido
que el que se encontraba en la parte exterior de dicha órbita. Teniendo en cuenta que
el disco giraba en sentido directo, parece ser que las rotaciones hubieran debido ser
retrógradas. Sin embargo, según demostró Schmidt, en el caso de colisiones
inelásticas, el cálculo asigna a la rotación un sentido probable del mismo signo que el
movimiento vertical. E incluso permite presumir que todas las duraciones de rotación
serán del mismo orden de magnitud.
Esta situación se cumple escrupulosamente en el sistema solar, en el que las
masas de los planetas variarán en una relación de 1 a 6000. O al menos, así había de
ser cuando el sistema solar aún era joven. A partir de entonces el movimiento de
rotación de Mercurio y Venus fue frenado por la atracción solar, y el propio
movimiento de la Tierra se ha hecho más lento, como han demostrado las precisas
mediciones efectuadas.
Pero con la rotación actual, la concentración de valores desde la Tierra a Neptuno
resulta sorprendente.

La ley de Titius-Bode
Nuestro sistema solar posee en la actualidad nueve planetas principales. Se interpreta
este número admitiendo una división del disco primitivo según la ley que hubiese
reservado a cada uno de ellos un margen de velocidad determinado. Y teniendo en
cuenta que la velocidad circular depende de la distancia, esta ley debió de gobernar la
respectiva separación de los planetas.
La verdad es que existe una armonía en el alejamiento respectivo de los cuerpos
que forman nuestro sistema solar. Si partiendo de Mercurio —o, más exactamente, de
un punto de origen situado a 60 000 000 de kilómetros del Sol—, adoptamos una
unidad de 45 000 000 de kilómetros, las distancias de los planetas forman la serie
siguiente: Venus, 1,08; Tierra, 2; Marte, 3,75; Júpiter, 16; Saturno, 30,06; Urano, 63.
Estos números están muy próximos a la progresión 20, 21, 22, 24, 25, 26. Por lo tanto,
dijérase que las distancias planetarias obedecen a una ley excepcional; es decir, la ley
fundamental de una cibernética natural.

ebookelo.com - Página 189


37. Distancias y masas de los planetas del sistema solar
Las escalas adoptadas son logarítmicas: las distancias que figuran en las abscisas a partir de Mercurio son
notablemente geométricas hasta Urano. La división 8 corresponde a los asteroides (cuya masa es muy pequeña).
La distribución de masas destaca claramente los dos grupos de planetas.

El astrónomo Johann Titius fue el primero en descubrir esta armonía en el


siglo XVIII, pero fue Bode quien reveló su obra. Los astrónomos acostumbraron
entonces hablar de la ley de Titius-Bode que desempeñó un importante papel
histórico. La ausencia del término 23 parecía indicar la existencia de un planeta
desconocido entre Marte y Júpiter y este hecho invitó a los astrónomos a observar la
zona en que se descubrió el curioso mundo de los planetoides.
Por lo demás, la relación de Titius-Bode se aplicaba bastante mal a Neptuno (99,5
en vez de 128) y aún peor a Plutón, pero la divergencia podía explicarse por el
alejamiento del Sol, posible causa de acciones perturbadoras.
Después de preguntarse durante mucho tiempo si se trataba de una ley o de una
simple coincidencia, los astrónomos se plantearon el problema de manera distinta,
buscando si la relación de Titius-Bode no sería precisamente la ley reveladora de la
división del disco planetario, impuesta por el sistema de acreción.
El propio Schmidt emprendió el estudio matemático de la cuestión, poniendo de
manifiesto una relación entre dicha ley de división y la distribución de la materia en
el disco primitivo. Así sería posible hallar una distribución que explicase la ley de
Titius-Bode.
Pero pueden formularse dos objeciones.
Conviene distinguir entre las órbitas primitivas de los astros y las que hoy
describen éstos, después de varios miles de millones de años.
Además, el cálculo de Schmidt hizo aparecer en escena otra consideración. Con el

ebookelo.com - Página 190


modelo de distribución más sencillo, el astrónomo observó que las raíces cuadradas
de las distancias al Sol deberían formar una progresión aritmética, lo cual equivale a
decir que, para recorrer distancias iguales en sus órbitas respectivas, los planetas
invertirían unos tiempos que aumentarían también de manera regular.
Esta ley se comprueba bastante bien en nuestro sistema solar, al examinar por
separado los cuatro primeros planetas —el tiempo invertido de uno al siguiente para
recorrer 1000 km aumenta unos siete segundos en promedio— y los cinco planetas
más distantes, en los que dicho aumento es aproximadamente de 33,5 segundos.
Resulta curioso que esto distinga dos regímenes en nuestro sistema solar, que
aparecerán en las fases siguientes de su organización.

De los protoplanetas a los planetas


Así, aparecieron protoplanetas en torno al Sol o, para hablar en términos más
generales, en torno a una estrella. Estos protoplanetas avanzaban girando sobre sí
mismos, enriqueciéndose continuamente a expensas del medio ambiente. ¿Cuál es su
estructura y en qué medio evolucionan?
Tenga en cuenta el lector que la estrella no se limita a mantener un disco en su
regazo, sino que lo somete a una gigantesca destilación de la que ya hemos hallado
un ejemplo en la presión de radiación, que actúa de manera selectiva para alejar del
Sol a los objetos más ligeros.
Hay que tener en cuenta igualmente las colisiones. Las leyes del choque nos
indican que en una región donde haya multitud de encuentros las energías de los
elementos componentes mostrarán tendencia a uniformarse. Ahora bien: comparando
los átomos del hidrógeno y el oxígeno, veremos que si bien aquéllos son dieciséis
veces más ligeros que éstos, una misma energía les conferirá una velocidad cuatro
veces mayor.
Enormemente acelerados durante las colisiones, los átomos de hidrógeno pasarán
entonces a órbitas lejanas, mientras que los elementos pesados se acercarán.
Descubrimos de nuevo una consecuencia de la propiedad característica que tiene
un campo gravitatorio: las trayectorias balísticas de los cuerpos son independientes de
su masa. Así, pues, para describir una misma órbita, las partículas, los átomos o el
polvillo de cualquier tipo, deben hallarse animados de idéntica velocidad. Pero la
mecánica de las colisiones se opone a esta igualdad.
Se inaugura de esta forma una verdadera destilación gravitatoria en el disco

ebookelo.com - Página 191


planetario, que acumula los productos pesados en las proximidades de la estrella,
rechazando a gran distancia los elementos ligeros. Este proceso tiene por resultado el
alejamiento del hidrógeno e incluso el de provocar su intensa evasión.
En realidad, los átomos no han permanecido aislados. Los múltiples encuentros
han hecho que se agrupasen para crear moléculas, incluso gotas líquidas o cristales, si
pudiesen soportar la radiación de la estrella. Con independencia de su gravitación,
ésta provoca mediante su calor, una selección de los materiales que intervienen en los
grumos planetarios.
Según la distancia, se podrán definir en el disco planetario unas «temperaturas de
ambiente», a las que de todos modos es difícil asignar valores rigurosos, pues la
temperatura alcanzada por un cuerpo depende de sus características físicas.
Por ejemplo, podemos trazar una escala térmica del sistema solar actual
considerando en cada órbita la presencia de un pequeño grano de polvo calentado en
todo su conjunto y un grueso germen, comparable a un cuerpo negro. Las diferencias
serán las siguientes:

Mercurio +169° +354°


Venus +53° +190°
Tierra +4° +104°
Marte −49° +45°
Júpiter −151° −100°
Saturno −183° −145°
Urano −210° −184°
Neptuno −222° −200°

Teniendo esto en cuenta, si pasamos revista a los elementos que más abundan en
un disco de hidrógeno enriquecido, las afinidades pueden resumirse de la manera
siguiente:

El hidrógeno se une esencialmente con el oxígeno (agua), el nitrógeno


(amoníaco) y el carbono (metano).
El oxígeno se combina con la mayoría de elementos; especialmente con el
magnesio, el silicio y el aluminio, con los que engendra óxidos metálicos.
Exceptuando su unión con el hidrógeno, el nitrógeno presenta pocas afinidades.
El helio y el neón son dos gases inertes que no entran en ninguna combinación.

El contraste entre el oxígeno y el nitrógeno es característico. Estos dos elementos


tienen una abundancia comparable en el Universo y las masas de sus átomos son casi
las mismas. Pero en la Tierra el oxígeno es mucho más abundante que el nitrógeno
(en realidad, diez mil veces más abundante), a causa de su actividad que contrasta
con la relativa inercia del nitrógeno.
A menos de 120 000 000 de kilómetros del Sol, el agua no podría subsistir aislada

ebookelo.com - Página 192


en estado líquido y menos aún dar origen a los extraordinarios gérmenes que serán
los cristales de hielo: y aun habrá que ir más lejos para que la acreción retenga el
amoníaco y el metano. Por lo tanto, el núcleo de los primeros planetas estará formado
esencialmente por óxidos metálicos.
Tabla III A
Revolución Mitad eje mayor en Mitad eje mayor en millones
sideral (1) UA (2) de km
Mercurio 87,969 d 0,387 1 58
Venus 224,701 d 0,723 3 108,2
Tierra 1 año 0,006 d 1 149 597
Marte 1 año 321,730 d 1,523 7 228
11 años 314,839
Júpiter 5,202 6 778
d
Saturno 29 años 166,98 d 9,554 8 1430
Urano 84 años 7,45 d 19,218 1 2875
Neptuno 164 años 280,3 d 30,109 6 4503
Plutón 248 años 157,1 d 39,517 7 5911
Los principales componentes del sistema solar: características de las órbitas (A)

(1) La revolución sideral, que vuelve el planeta al mismo punto de su órbita, representa el año del astro.
Científicamente, podemos definirla como «el tiempo necesario para que la longitud media del Sol aumente en
360°».

La unidad de tiempo llamada «año» es el año Juliano que, en números redondos, tiene por definición el valor de
trescientos sesenta y cinco días y seis horas.

(2) La unidad astronómica (UA) puede considerarse como la distancia media de la Tierra al Sol (véase
Apéndice)[ver].

Tabla III B
Inclinación Excentricidad Revolución Velocidad media sobre
de la órbita de la órbita sinódica(1) (días) la órbita (km/s)
7° 0' 0,205 6 115,877 47,86
3° 23' 0,006 8 583,921 35,02
0,016 7 29,78
1° 51' 0,093 3 779,936 24,12
1° 18' 0,048 4 398,884 13,05
2° 29' 0,055 7 378,092 9,63
0° 47' 0,046 9 369,656 6,80
1° 46' 0,009 367,487 5,43
17° 9' 0,249 366,2 4,74
Los principales componentes del sistema solar: características de las órbitas (B)

(1) La revolución sinódica pone a un planeta en conjunción o en oposición con el Sol.

ebookelo.com - Página 193


La revolución sideral de la Tierra se efectúa en trescientos sesenta y cinco días, seis horas, nueve minutos y diez
segundos.

La gravitación entra en escena


Los protoplanetas, al aumentar de volumen, adquirirán un poder gravítico, que
modificará sus condiciones de evolución.
Cuando la masa era solamente la millonésima o incluso la milésima parte de la
masa terrestre, la gravitación de los objetos creados por acreción era despreciable.
Pronto dejará de ocurrir así y los protoplanetas tendrán un verdadero poder de
atracción, que hará que ya no se contenten con la materia que encuentren a su paso,
sino que les llevará a absorber la que bordea su ruta.
Y este proceso será el punto de partida de otra retroacción que recordará el
nacimiento de las estrellas: un aumento de la masa se traduce por un aumento del
poder gravífico, que a su vez tiene por consecuencia una acentuación de la captación
de materia. Si la región que atraviesa el joven planeta es fértil aún, es decir, si todavía
posee reservas apreciables de gas y polvillo, se iniciará entonces una nueva fase en el
crecimiento de dicho planeta, mucho más brusca y que dotará de atmósfera a los
planetas llegados a esta etapa.
Se da el nombre de atmósfera a los compuestos retenidos en estado gaseoso;
únicamente la gravitación se opone a su escape. Basta que la velocidad de escape sea
netamente superior a la velocidad media de las moléculas. Se produce entonces una
doble selección con la naturaleza de los gases y la temperatura, que en nuestro
sistema solar creará la demarcación entre dos grupos de planetas.

ebookelo.com - Página 194


38. Composiciones atómicas comparadas del Universo y la Tierra
Estas figuras indican la abundancia respectiva de los núcleos de los diversos elementos. En la Tierra, el hidrógeno
aún ocupa la segunda posición. La clasificación es distinta si se tiene en cuenta el peso (véase la tabla I)[ver].

Los dos grupos de planetas


Los planetas próximos al Sol nacieron en una región cálida, que no les permitía
conservar los gases ligeros. Por ejemplo, en la región de Mercurio, las moléculas de
hidrógeno poseen una velocidad media de 3,6 km/s: era imposible que el astro las
retuviese[34]. Y por otra parte, en las regiones más próximas al Sol, el gradiente
elevado de la velocidad circular tuvo por consecuencia, como sabemos, una división
muy junta del disco planetario.
O sea, que el primer planeta se formó en una región estrecha, en la que
prácticamente no podía retener ningún gas. Mercurio fue el planeta sin atmósfera
permanente del sistema solar y su estructura es característica, pues se trata de un
planeta pequeño y de gran densidad.
La masa de Mercurio, efectivamente, es dieciocho veces menor que la de la

ebookelo.com - Página 195


Tierra: su valor exacto aún es mal conocido y su diámetro tampoco se conoce con
precisión, por lo que es difícil calcular con exactitud la densidad mercuriana. Sin
embargo, se considera que está comprendida entre las cifras 5,5 y 6,2, lo que
constituiría un récord en el sistema solar, en el que este primer planeta aparecería
como un pedrusco metálico, con los materiales más refractarios reunidos en una
región tórrida.
Los planetas que vienen a continuación también son densos: Venus, 5,1; Tierra,
5,5; Marte, 3,9. Pero se hallan rodeados por una atmósfera.
De todos modos, en el caso de estos cuatro planetas telúricos, se registra una
notable coherencia dentro de una misma gama de materiales pesados.
En cambio, en el caso de los planetas más distantes, el proceso de acreción creó
únicamente núcleos: efectivamente, la medición de los momentos de inercia revela la
presencia de núcleos densos en el interior de estos astros. Pero al encontrarse en
regiones frías y fértiles, permitieron que se desarrollasen gigantescas retroacciones
gravíficas: los gases del medio ambiente se acumularon alrededor de estos núcleos,
según un mecanismo que recuerda el crecimiento de una estrella. Al propio tiempo,
las presiones elevadas licuaron los gases, el hidrógeno inclusive. Este último
elemento incluso se solidificó a veces, continuando el proceso de crecimiento del
planeta hasta el agotamiento total de la materia que encontró en sus regiones.
Por ello, la gravitación hará de Júpiter un objeto enorme: su núcleo, en efecto,
evolucionaba en el seno de una región inmensa, abundantísima en hidrógeno libre o
combinado (con el carbono y el nitrógeno), cuya retención se hizo en cantidades
ingentes. Aunque sólo tiene una densidad de 1,34, este mundo posee una masa
trescientas dieciocho veces superior a la de la Tierra.
La densidad de Saturno aún es menor: 0,7. Este mundo está constituido
fundamentalmente de hidrógeno y helio. Pero a esta distancia del Sol, el hidrógeno ya
se ha escapado en grandes cantidades: un exceso de cuatro kilómetros por segundo
sobre la velocidad circular permite una evasión definitiva del dominio solar. Por lo
tanto, el empobrecimiento del medio ambiente no permite una masa comparable a la
de Júpiter. La masa de Saturno, pues, sólo es superior noventa y cinco veces a la de la
Tierra.
Tabla IV A
Masa (1024 Densidad (agua Radio(1)
Aplastamiento
kg) = 1) (km)
Sol 1 986 600 1,40 696 500±500
Mercurio 0,326 6 2330±50
Venus 4,881 5,13 6100±50
Tierra 5,975 5,25 6371,02±0,05 1/298,37
Marte 0,643 3,88 3407±5 1/190,4
Júpiter 1896,7 1,33 69 774±50 1/15
Saturno 567,6 0,71 58 450±50 1/9,5

ebookelo.com - Página 196


Urano 87,13 1,3 25 500 ±2000
Neptuno 101,9 2,2 22 000±2000
Plutón 0,6 5,5 3000±150
Los principales componentes del sistema solar: características de los astros (A)

(1) Radio de la esfera teórica que tuviese el volumen del astro (modelo esférico). Indicamos estos valores con la
mayor precisión posible en la actualidad: los datos son muy inciertos para los planetas alejados de la Tierra.

Tabla IV B
Revolución Inclinación
Velocidad
Rotación del ecuador
Albedo(1) Gravedad de evasión del satélite
sobre su
del astro
(km/s) rasante(2) órbita
273,16 618,7 2 h 46 25 a 29 d
0,05 4,00 4,28 l h 21 58 d
0,64 8,75 10,351 l h 27
23 h 56 min
0,39 9,82 11,189 l h 24 23° 27'
4 s
24 h 37 min
0,15 3,69 5,038 l h 40 24° 5'
23 s
9 h 50 a 9 h
0,42 25,99 59,69 2 h 58 3° 6'
56
10 h 14 a 10
0,45 11,08 35,49 4 h 15 26° 42'
h 40
0,46 9,89 21,6 2 h 56 10 h 42 98°
0,53 10,99 22,8 2 h 52 15 h 48 29°
4,7 5,2 l h 24
Los principales componentes del sistema solar: características de los astros (B)

(1) El albedo es la fracción de la luz solar que el planeta refleja al espacio.

(2) Se trata de un satélite que gravitase rasando el ecuador, suponiendo que el planeta estuviese desprovisto de
atmósfera.

Más allá, la evasión del hidrógeno aún es más acentuada. Al llegar a la órbita de
Urano, se realiza con un exceso de 2,8 km/s respecto a la velocidad circular, que es
de 2,25 km/s tan sólo en la órbita de Neptuno; de manera que cuando se ejerció la
fuerza gravitatoria de estos dos planetas, encontró un medio ambiente en el que la
desaparición del hidrógeno ya estaba muy avanzada.
Por lo tanto, encontraremos densidades de nuevo crecientes; 1,6 para Urano y 2,2
para Neptuno. Y estos grandes planetas tendrán una masa que «solamente» será 14,6
y 17,5 veces superior, respectivamente, a la masa de la Tierra. Por último, Plutón, de
masa muy pequeña, tiene sin duda una densidad aún más elevada.

ebookelo.com - Página 197


Pero la asimetría continúa siendo flagrante: la densidad media de los planetas
exteriores es de 1,4, mientras que la de los interiores es de 5,23.

La imagen de un observador lejano


Por consiguiente, la existencia en nuestro sistema de dos zonas separadas por la línea
de demarcación de la retroacción gravífica es muy característica; la masa de los
planetas exteriores es doscientas diez veces superior a la de los planetas telúricos y a
primera vista nuestro sistema solar parecería constituido esencialmente por planetas
enormes. Éstos son los únicos que descubriría un observador situado en un mundo
lejano, pues Júpiter, por sí solo, se adjudica más del 71% de la masa total de los
planetas, cifra que con la pareja Júpiter-Saturno asciende a 93%.
Así, la primera imagen de nuestro sistema solar que tendría este hipotético
observador, se reduciría a Júpiter girando alrededor del Sol. Después se ampliaría con
el descubrimiento de Saturno y por último surgiría el modelo de un Sol rodeado de
cuatro planetas. Luego, haría falta mucha paciencia para descubrir los primeros
planetas exteriores en los que también la asimetría es sorprendente, pues la Tierra y
Venus, por sí solos, se reparten el 92% de la masa de los planetas telúricos.
De una manera esquemática, pues, nuestro sistema solar es el Sol y Júpiter.
Tabla V
Densidad Gravedad Gravedad
Masa Radio Volumen
(Tierra=1) media polo/ecuador
333 1 300
Sol 0,254 109,32 27,9
430 000
Mercurio 0,055 1,1 0,37 0,050 0,41
Venus 0,815 0,93 0,957 0,90 0,88
Tierra 1 1 1 1 1 1,03/0,97
Marte 0,108 0,69 0,534 0,157 0,37
Júpiter 317,4 0,24 10,96 1308 2,53 2,90/2,30
Saturno 95,3 0,13 9,17 773 1,18 1,31/0,84
Urano 14,6 0,29 3,70 51 1,08
Neptuno 17,1 0,39 3,53 44 1,12
Plutón 0,1 1 0,46 0,1 0,5
Características relativas de los principales astros del sistema solar

ebookelo.com - Página 198


(Por definición, se toman por unidad las características de la Tierra).

Y resulta característico que solamente este planeta sitúe el centro de gravedad del
sistema fuera del Sol. Según los principios de la mecánica celeste, en efecto, no
puede decirse que un astro gira alrededor de otro, sino que en realidad ambos giran
alrededor del centro de gravedad propio de la pareja que constituyen. Pero teniendo
en cuenta la desproporción de masas, el centro de gravedad del sistema Sol-Tierra se
encuentra en el interior mismo del Sol y la situación es idéntica para todas las parejas
constituidas por el Sol y cada uno de los planetas tomado por separado, salvo Júpiter,
pues el centro de gravedad común del sistema Sol-Júpiter se encuentra
aproximadamente a cincuenta mil kilómetros de la superficie del Sol.
Por esta razón, es menester estudiar el sistema solar teniendo en cuenta la
gravitación conjunta del Sol y de Júpiter, pues la influencia de éste es grande en las
regiones próximas al mismo, ya que ha llegado incluso a modificar las órbitas de los
demás planetas.
De lo que antecede se deduce que no debemos considerar nuestro sistema solar
como un sistema rígido. Los astrónomos descubren lentas variaciones de
excentricidad y cambios en la inclinación de las órbitas. Algunas modificaciones
revisten un carácter periódico, mientras que otras indican verdaderos
«desplazamientos».
El comportamiento de Júpiter respecto a los pequeños planetas, planetoides o
asteroides fue típico. Estos minúsculos mundos que forman un cinturón entre Júpiter
y Marte ofrecen en la actualidad un aspecto de lo más extraño. Ceres y Vesta, los dos
más importantes, tienen unos 560 km de diámetro; la mayoría de ellos —hoy se
conocen más de 1640— son de dimensiones insignificantes. Los astrónomos
atribuyeron su existencia a la influencia de Júpiter, que impidió la formación de un
astro único; además, pensaron que los múltiples grumos nacidos por acreción,
pudieron dar origen a astros muy próximos, de cuyas colisiones nacieron los
asteroides.
El «recorte» hecho por Júpiter del reino de estos planetoides es muy claro. A
causa de su reducida masa, los asteroides poseían una fuerza gravitatoria muy débil y
por lo tanto podemos decir que estaban condenados a inclinarse ante la voluntad de
Júpiter.
Tomando por unidad el período de revolución de Júpiter en torno al Sol, los
períodos de revolución de los planetoides tienen duraciones comprendidas entre 0,28
y 0,56. Consideremos ahora las fracciones más sencillas dentro de esta gama: 1/2,
1/3, 2/5 y 3/7. Si trazamos una gráfica que indique la abundancia de planetoides en
relación con el período de revolución, encontraremos «claros» para estas fracciones
simples, correspondientes a las resonancias más marcadas.
La influencia de Júpiter sobre la órbita de los pequeños planetas se manifiesta de
otro modo: sus perihelios se hallan concentrados en la parte opuesta del perihelio de

ebookelo.com - Página 199


Júpiter.

Los planetas y la temperatura


La verdad es que en una cibernética planetaria, no sólo cada etapa prepara la
siguiente, sino que los efectos de los diferentes procesos se rigen de una manera muy
estrecha.
El factor térmico jugó un papel determinante para retener las atmósferas. Pero en
la génesis de los planetas descubriremos una extraordinaria cascada de efectos
caloríficos.
En el disco planetario primitivo reinaban «temperaturas de ambiente» que
dependían de las distancia al Sol.
Pero cuando los protoplanetas empezaron a formarse, apareció una «temperatura
de colisión» con la velocidad relativa de los elementos componentes que los hicieron
más pesados: su energía cinética se convirtió entonces en energía calorífica.
A 150 000 000 de kilómetros del Sol —y estas conclusiones sin duda son válidas
para cualquier estrella que poseyese una masa solar— la velocidad circular es de
30 km/s, y las «velocidades elípticas» se hallan prácticamente comprendidas entre 25
y 35 kilómetros segundo. Es decir, que los encuentros se efectuaron con velocidades
de varios kilómetros por segundo. Así, originaron un calor apreciable; esto es lo que
significan las colisiones inelásticas a que hemos aludido, para comprender la rotación
de los planetas.
Lo mismo que la temperatura ambiente, esta temperatura de colisión disminuyó a
medida que nos alejábamos del Sol, a consecuencia de la reducción de las
velocidades. En la órbita de Saturno, por ejemplo, la velocidad circular y por lo tanto
la velocidad probable de los encuentros son tres veces menores que en la órbita de la
Tierra, lo que corresponde a temperaturas de colisión nueve veces menores.
Pero estos dos factores térmicos se encontrarán desbordados por la marea de la
retroacción gravífica, que impondrá al planeta un calor que crecerá con la masa, sea
cual fuere la órbita.
Cuando los planetas alcanzan una talla suficiente para atraer el polvillo y los
diversos componentes de sus proximidades, no hay duda de que éstos «caerán» sobre
el planeta, abordando sus capas exteriores con una velocidad próxima a su velocidad
de escape. Cuando ésta alcanza varios km/s, hay que tener en cuenta que el planeta
recibe así una energía considerable, que se traduce en la creación de calor. Esto es

ebookelo.com - Página 200


una ley general: al hallarse envuelto por una nube de materia, un objeto que tenga una
masa suficiente se volverá incandescente bajo el impacto de las partículas que chocan
contra él. Esto provocará un calentamiento, que irá en aumento constante en una
materia indefinidamente fértil.
En realidad, la situación es un poco diferente en las distintas regiones del disco
planetario.
Los planetas vecinos al Sol ya nacieron a elevada temperatura y esta retroacción
gravífica se desarrolla dentro de límites estrechos. Así, no adquiere una gran
amplitud, procurando únicamente a los astros una nueva aportación de calor que los
«recocerá».
La situación de los planetas más lejanos es distinta. Nacieron fríos, de unos
elementos componentes animados de pequeñas velocidades relativas y que
evolucionaban en regiones cuya temperatura ambiente era baja. Por lo tanto, estos
planetas pudieron retener grandes cantidades de hidrógeno. El principio de su
calentamiento estará señalado por la retroacción gravífica. Al llegar a esta etapa, sin
embargo, la elevación de temperatura ya no puede disgregar al astro, teniendo en
cuenta su gravitación. El planeta, que ha tenido ocasión de aumentar mucho de
tamaño en la inmensa región por la que evoluciona, se ve sometido a un prodigioso
recalentamiento superficial. Este movimiento se registró con una amplitud
extraordinaria en Júpiter y Saturno, que al final de su crecimiento tendrán velocidades
de escape considerables.
El cálculo es muy elocuente. Imputar a las moléculas de metano una velocidad de
50 km/s —y cuando el crecimiento de Júpiter termine, las velocidades de llegada de
los elementos componentes rebasarán ampliamente esta cifra, pues la actual
velocidad de escape alcanza 60 km/s— equivale a citar una temperatura de
16 000 000 de grados, en la que por supuesto dichas moléculas no pueden existir; las
capas superiores de la atmósfera joviana y la superficie del astro tienen las mismas
características que un brasero.

3.— Los sistemas de los grandes planetas


Lejos del Sol, los grandes planetas se vuelven incandescentes al llegar a una etapa
avanzada de su desarrollo. Así en el mismo corazón de sus dominios, nos aparecen
como auténticos soles.
Estos dominios son considerables, teniendo en cuenta la masa de estos planetas y

ebookelo.com - Página 201


su alejamiento del Sol. Un rasgo característico de los planetas lejanos es la gran
extensión de espacio que cae bajo su dominio.
La atracción del astro, ciertamente, no es jamás nula: en el sistema solar, como en
todo el Universo, cada masa actúa sobre todas las demás y los efectos de las
atracciones se discuten con relación a las velocidades relativas. Esto no obsta para
que se considere la autonomía gravífica de un planeta, considerando el espacio en que
su gravitación vence por un amplio margen a la del Sol. Así, por ejemplo, los
astrónomos convienen en que una relación superior a 100 define una «esfera de
dominio».
Pero surge una diferencia radical entre los grupos de planetas. Si tenemos en
cuenta su modesta masa y su proximidad al Sol, los primeros planetas tuvieron
esferas de dominio pequeñísimas: sus radios actuales son de 26 000 y 12 700 km para
la Tierra y Venus, respectivamente.
En cambio, los planetas lejanos se adjudicaron esferas de dominio enormes: la de
Júpiter cuenta hoy con un radio de 2 400 000 km. Y esta cifra dará una idea de la
independencia adquirida por el joven mundo joviano, en el corazón de una región que
aún estaba fuertemente disciplinada bajo la influencia del Sol.
Saturno posee una esfera de la misma magnitud: este mundo tiene una masa algo
superior a la cuarta parte de la joviana, pero está dos veces más alejado del Sol que
Júpiter, por lo que evoluciona en una región donde la atracción solar es cuatro veces
menor.

Un proceso de centrifugación
En la última fase de su formación, por lo tanto, los grandes planetas gobernaban unos
verdaderos universos en miniatura. Y la materia que contenían sería sometida a un
intenso tratamiento centrifugador, del que aún hallamos las trazas observando que
Júpiter y Saturno todavía se caracterizan por sus variaciones apreciables de gravedad
según la latitud.
En la superficie de nuestro mundo, estas variaciones son insignificantes. Si
tomamos por referencia la gravedad g de un «modelo» de Tierra de forma esférica —
esta gravedad confiere a un litro de agua un peso de 9,81 newtons— la gravedad real
en los polos de nuestro planeta tiene un valor de 1,02 g, mientras que en el ecuador es
de 0,98 g. Estas diferencias son debidas al achatamiento del planeta y a la fuerza
centrífuga, que en el ecuador tiende a lanzar los cuerpos al espacio. Pero los efectos

ebookelo.com - Página 202


de estas causas en nuestro planeta son mínimos.
En cambio, Júpiter gira sobre sí mismo solamente en nueve horas cincuenta
minutos. Esta veloz rotación proporciona al planeta un achatamiento de 1/15, y la
gravedad de Júpiter, que es de 2,90 g en los polos, desciende a 2,30 g en el ecuador. Y
en Saturno, la diferencia aún es más impresionante: entre los polos y el ecuador, la
gravedad disminuye de 1,30 g a 0,84 g.

Los dos grupos de planetas


Como las jóvenes estrellas y como las galaxias, los grandes planetas incandescentes
dieron forma de disco a la materia que quedó fuera del astro. Así aparecieron
modelos reducidos de sistemas solares, en los que se reproducirían, con la misma
lógica, idénticos fenómenos de acreción. La materia esparcida alrededor de estos
planetas se vio obligada a condensarse en familias de satélites.
Tabla VI A
Diámetro Masa Duración de la
(km) (Luna=1) revolución
Amaltea (V) 180 (?) 11 h 57 min
Io (I) 3500 1,1 1 d 18 h 28 min
Europa (II) 3100 0,65 3 d 13 h 14 min
Ganímedes
5000 2,10 7 d 3 h 43 min
(III)
Calisto (IV) 4500 1,30 16 d 16 h 32 min
VI 130 (?) 250 d 15 h
X 30 254 d
VII 50 260 d
XII 15 600 d
XI 15 692 d
VIII 40 739 d
IX 40 745 d
El sistema de Júpiter (A)

Los números de los satélites corresponden al orden del descubrimiento. La excentricidad de los cinco primeros,
siempre muy pequeña, es en realidad variable a causa de los acoplamientos fortísimos que existen entre estos
satélites.

ebookelo.com - Página 203


Mientras continuaban girando alrededor del Sol, estos planetas iniciaron la
creación de unos universos que repetían a escala reducida el sistema solar, del mismo
modo que en arquitectura se repiten los motivos dominantes en las decoraciones
secundarias.
Algunos de estos satélites tuvieron masas irrisorias. Otros fueron comparables a
pequeños planetas, pero en ningún caso la retroacción gravítica encontró un medio
que pudiese asegurarle una verdadera amplitud.
Con todos estos sistemas planetarios en miniatura ofrecen un inmenso interés para
el especialista. Antes, los astrónomos lamentaban no poder estudiar más que un solo
sistema. Pero en el terreo físico, los grandes planetas representaron el papel de
estrella cuando se organizaron sus dóminos y sus estructuras estaban inspiradas en el
sistema solar.
Tabla VI B
Semieje grande Semieje Inclinación con Velocidad
Excentricidad relación a la órbita de
en radios de grande de evasión
de la órbita (1)
Júpiter (1000 km) Júpiter (km/s)
2,54 181,5 0 3°
5,91 420 0 3° 7' 2,5
9,40 670 0 3° 6' 2,1
14,99 1068 0 3° 2' 2,4
26,36 1880 0 2° 43' 2,1
160,46 11 400 0,155 29°
162 11 550 0,08 28° 30'
164 11 750 0,207 27°
293 21 000 160°
317 22 600 0,21 165°
329 24 000 0,38 148°
338 24 100 0,27 156°
El sistema de Júpiter (B)

(1) Cuando la inclinación es superior a 90°, el satélite es «retrógrado».

El mundo de Júpiter

ebookelo.com - Página 204


Por lo que a esto concierne Júpiter ofrece abundantes enseñanzas, a causa de la
notable situación de sus dominios, que pudieron constituirse en el centro de una
región particularmente fértil.
Gigantesco por sus dimensiones, Júpiter también tenía que serlo por el número y
el tamaño de sus satélites.
En enero de 1610, Galileo descubrió en Padua los cuatro más importantes, al
comprender que los puntos brillantes vistos el mes anterior por Simón Marius —Io,
Europa, Ganímedes y Calisto— eran efectivamente satélites de Júpiter. El
acontecimiento puede considerarse memorable. Por aquel entonces, la estructura del
sistema solar aún no estaba unánimemente admitida. Y de la noche a la mañana, se
descubría la presencia de un verdadero sistema copernicano alrededor de un planeta.
Estos cuatro satélites «galileanos» de Júpiter ocuparon un lugar considerable en la
historia, no solamente de la ciencia sino de las técnicas. Sus pasos y sus eclipses, en
efecto, proporcionaron el primer reloj universal cuyas indicaciones, comparadas con
un cuadrante solar, permitieron conocer la longitud exacta de diferentes lugares. Esto
provocó una revolución en la cartografía del Asia e incluso la superficie de Francia
tuvo que reducirse. Y teniendo en cuenta las diferencias de horario según la distancia
Tierra-Júpiter, aquellos satélites galileanos de Júpiter permitieron que se calculase la
velocidad de la luz.
Sus diámetros se hallan comprendidos entre los 3000 y los 5000 kilómetros.
Se determinó además la masa de estos satélites y por lo tanto se pudo calcular su
densidad. Ésta reveló un sorprendente descenso: Io, 4,5; Europa, 3,6; Ganímedes, 2,8;
Calisto, 2,0. El hecho sorprendió a muchos astrónomos, que vieron en aquella
disminución (que sin duda indicaba un creciente tanto por ciento de gas carbónico
solidificado) el resultado de la destilación que Júpiter, incandescente, provocó en sus
dominios, tal como el Sol había hecho en su sistema.
Además, Io, Europa, Ganímedes y Calisto gravitan en planos que forman un
ángulo muy pequeño con el plano ecuatorial de Júpiter.
Finalmente, sus distancias obedecen a una ley excepcional que es una
trasposición de la ley de Titius-Bode: la distancia se multiplica aproximadamente por
1,66 de un satélite al siguiente.
Este universo de los cuatro principales satélites de Júpiter es notable por el hecho
de que todos ellos se encuentran claramente en el interior de la esfera de dominio del
planeta, pues el más alejado está a 1 800 000 kilómetros.
Aún más: si consideramos únicamente los tres primeros, podremos afirmar que
sus respectivas distancias del centro de Júpiter (Io, 422 000 km; Europa, 671 000 km;
Ganímedes, 1 071 000 kilómetros) los llevan a gravitar en la zona profunda de la
esfera de dominación joviana, donde la gravitación del planeta supera por un factor
de más de 500 a todas las restantes masas del Universo.
Y dicho aislamiento se traduce por un notable acoplamiento, pues las
revoluciones de Io, Europa y Ganímedes obedecen a una ley de resonancia que ya fue

ebookelo.com - Página 205


descubierta por Laplace (las longitudes medias a, b, c de estos satélites están siempre
unidas por la relación: a + 2b − 3c = 180°).

Doce satélites conocidos


En realidad, otro satélite, que lleva el número V en las tablas astronómicas, gravita
aún más cerca de Júpiter que Io. Es Amaltea, descubierto en 1892. Su diámetro
parece ser inferior a los 200 km, y con este astro comienza sin duda la serie de los
alejamientos exponenciales: su movimiento, sin embargo, está fuertemente
perturbado por el abultamiento ecuatorial de Júpiter, como les ocurre a nuestros
satélites artificiales puestos en órbitas bajas.
Se han identificado otros siete satélites, que sus características dividen en dos
grupos, situados a unos doce millones de kilómetros (con los planos inclinados 28°
respecto a la órbita de Júpiter) y después entre quince millones y treinta y cinco
millones de kilómetros. Este último grupo está compuesto de satélites retrógrados de
marcada excentricidad.
Los satélites de los grandes planetas, en efecto, se dividen en dos categorías: la
materia que puebla el espacio de una esfera de dominación se encuentra encerrada en
una verdadera botella gravífica, pero nada impide la llegada de masas extrañas.
Por el contrario, cuanto mayor sea esta esfera, mayor será la probabilidad de que
se produzcan reacciones gravitatorias, que en realidad dependen no de las esferas de
dominación sino simplemente de las esferas de influencia de los planetas, en cuyo
interior su atracción «compite» con las demás influencias cósmicas. Y la esfera de
influencia joviana tiene un radio de 48 000 000 de kilómetros.

El anillo y los satélites de Saturno

El mundo de Saturno es también muy notable, pues este planeta posee un volumen

ebookelo.com - Página 206


casi igual a Júpiter, a pesar de tener una masa tres veces y media menor.
Y este planeta gira sobre sí mismo en el ecuador solamente en diez horas catorce
minutos, mientras que un satélite saturniano colocado en una órbita ecuatorial
próxima a la superficie, describiría una revolución en cuatro horas quince minutos.
Por lo tanto, si Saturno girase dos veces y media más de prisa, los objetos situados en
el ecuador dejarían de tener peso. No conocemos ningún otro mundo en que la fuerza
centrífuga esté tan cerca de arrancar la atmósfera. En la actualidad, los astrónomos
consideran que la velocidad de Saturno, como la de Júpiter, varía con la latitud: en
1960, la observación de unas manchas permitió comprobar que en la latitud de 57°
norte, Saturno efectuó una revolución en diez horas treinta y nueve minutos.
Tabla VII A
Diámetro (km) Masa (Luna=1) Duración de la revolución
Mimas I 500 (?) 0,005 22 h 37 min
Encélado II 500 (?) 0,002 1 d 8 h 53 min
Tethys III 1200 (?) 0,008 1 d 21 h 18 min
Dione IV 1200 (?) 0,014 2 d 17 h 41 min
Rea V 1500 (?) 0,03 4 d 12 h 25 min
Titán VI 4700 1,7 15 d 22 h 41 min
Temis (X) ? 20 d 20 h 24 min
Hiperión VII 400 (?) 21 d 6 h 38 min
Japeto VIII 1500 (?) 0,02 79 d 7 h 55 min
Febe (IX) 200 (?) 550 d 11 h 24 min
El sistema de Saturno (A)

Así se explicarían los vientos que parecen barrer la atmósfera de este planeta y
que poseen una velocidad superior a un kilómetro por segundo en el ecuador.
Tabla VII B
Gran semieje en Gran Inclinación con Velocidad de
Excentricidad relación, a la órbita de
radios de semieje evasión
de la órbita (1)
Saturno (1000 km) Saturno (km/s)
3,07 185,7 0,0201 27° 0,05
3,94 238,3 0,044 28,1° 0,1
4,88 295,1 0 27° 0,05
6,24 377,4 0,0022 28,1° 0,07
8,72 527,4 0,0010 28,1° 0,1
20,22 1223 0,0289 27,1° 2,6
24,17 1462 0,23 39,1°
24,49 1481 0,1043 27,3°
58,91 3565 0,0283 18,1° 0,07
214,4 12 951 0,166 175°
El sistema de Saturno (B)

ebookelo.com - Página 207


(1) La misma observación que para Júpiter: el satélite es retrógrado si la inclinación es superior a 90°.

La astronáutica ya nos ha familiarizado con el concepto del «satélite


estacionario», cuyo período de rotación corresponde a la revolución del planeta. En el
caso de la Tierra, por ejemplo, sabemos que este satélite, llamado de «veinticuatro
horas», debe gravitar a una distancia de 35 900 km de la superficie; o sea, más de
cinco veces el radio de nuestro globo. En el caso de Saturno, la altitud de un satélite
estacionario sería únicamente 0,8 veces el radio del astro. Pero dicha altitud se
encuentra precisamente en el corazón del célebre anillo que rodea al planeta.
De lo cual se deduce que dicho anillo debe de ser un resto del disco que antaño
rodeaba a Saturno. Nos conserva una imagen del aspecto primitivo que debían de
ofrecer los grandes astros: la parte del disco, más próxima a Saturno dio origen al
anillo actual, en la zona de los satélites estacionarios, mientras que la materia más
alejada formó los primeros satélites —Mimas, Encélado, Tetis, Dione, Rea— cuyas
distancias también obedecen a una ley exponencial (se multiplican aproximadamente
por 1,28 de un satélite al siguiente). Se observará además que sus masas aumentan de
manera regular.
El anillo es estable y se mantiene en torno a Saturno sin que por ello constituya
un verdadero objeto: se trata de una colección de microsatélites, constituidos al
parecer por minúsculos bloques de hielo, que gravitan aisladamente en torno al
planeta. Y este conjunto está «cortado» por los satélites principales de Saturno, del
mismo modo que, en el sistema solar, los dominios de los asteroides lo están por la
gravitación joviana.
Los astrónomos distinguen alrededor de Saturno un anillo exterior A que se
extiende de 136 000 a 115 000 km del centro de Saturno, separado del anillo B (de
111 000 a 90 000 km) por la división llamada de Cassini. Ahora bien, los objetos que
se encontrasen en esta división efectuarían una revolución completa en algo más de
once horas y estarían simultáneamente en resonancia con Mimas (período doble),
Encélado (período triple) y Tetis (período cuádruple). Finalmente, después de otra
división, que Kirkwood atribuye a otra resonancia (un tercio del período de Mimas),
se encuentra el anillo C o «anillo de crespón», que se extiende de 85 000 a 72 000 km
del centro, descendiendo por lo tanto hasta 11 000 km de la superficie de Saturno
(cuyo radio ecuatorial rebasa ligeramente los 60 000 km). O sea, que, como en el
caso de Júpiter, podemos hablar de un acoplamiento gravífico entre el planeta, su
anillo y los primeros satélites que gravitan en el mismísimo corazón de los dominios
del coloso.

ebookelo.com - Página 208


Titán
El sexto satélite de Saturno, llamado Titán, merece una atención particular. Fue el
primero descubierto, a causa de su tamaño, que lo hace aparecer como el único
satélite «grande» del planeta: así pudo verlo ya Huyghens en 1655.
Su diámetro es de 4800 km y su masa es 0,02 de la de la Tierra, o sea 1,64 de la
masa lunar. Es una masa importante para un satélite, a pesar de que para un planeta
resulte muy pequeña.
Pero el hecho notable es que Titán posee una atmósfera densa, compuesta sin
duda de metano y amoníaco, descubierta por Kuiper en 1944. De momento, esto
parecía casi increíble. Las características de Titán le asignan una velocidad de escape
que solamente es de 2,6 km/s. Téngase en cuenta que una atmósfera se disipa en unos
cuantos miles de años, si la velocidad media de sus moléculas alcanza tan sólo una
cuarta parte de la velocidad de escape.
Actualmente, la retención de esta atmósfera se explica teniendo en cuenta la
bajísima temperatura de Titán, lindante con los −150 °C; por lo tanto, las velocidades
medias de las moléculas son inferiores a los 450 m/s. Pero, además, se cree que
durante su existencia Titán nunca conoció una temperatura de 0 °C (a esta velocidad,
en efecto, las moléculas de metano y amoníaco poseen velocidades próximas a los
650 m/s) y por lo tanto, este mundo fue creado completamente en frío, en un
ambiente frío, según un proceso de acreción desprovisto de calor formativo y sin una
retroacción gravífica intensa.

En los confines del sistema solar


Los satélites de Saturno son menos numerosos y más pequeños que los de Júpiter.
Más allá, el empobrecimiento de los lejanos dominios solares provocará nuevas
restricciones, cuya prueba hallaremos en el sistema de Urano.
Este planeta gira en torno a un eje casi acostado sobre el plano de la órbita, pues
forma un ángulo de 97° con la perpendicular a dicho plano. Hay que suponer, pues,
que los satélites regulares nacidos en el disco ecuatorial tendrían que gravitar en un
plano casi perpendicular al plano de la eclíptica. Y es precisamente esto lo que
sucede.
Se conocen desde hace mucho tiempo cuatro satélites de Urano: Ariel, Umbriel,

ebookelo.com - Página 209


Titania y Oberón. Sus dimensiones y sus masas no han podido calcularse con
exactitud, pero sus órbitas se conocen perfectamente y se caracterizan por una
excentricidad casi nula. Además, los satélites citados gravitan siguiendo el ecuador de
Urano y sus movimientos son retrógrados, como la rotación del planeta.
Las distancias que median entre estos satélites también parecen obedecer, como
en el caso de los satélites regulares de Júpiter y Saturno, a una relación exponencial.
Las distancias están multiplicadas aproximadamente por 1,5 de un satélite al
siguiente. La ley, sin embargo, no se observa con mucha precisión.
Tabla VIII: El sistema de Urano
Inclinación
Gran Gran
Duración con
Diámetro semieje en semieje Excentricidad
de la relación a
(km) radios de (1000 de la órbita
revolución la órbita de
Urano km)
Urano
Miranda 33 h 56
200 (?) 5,32 133 ? ?
(V) min
2 d 12 h
Ariel (I) 1000 (?) 7,71 192 0,01 97° 50'
29 min
Umbriel 4 d 3 h 28
700 (?) 10,75 268 0,01 97° 50'
(II) min
Titania 8 d 16 h
1700 (?) 17,63 441 0,02 97° 50'
(III) 57 min
Oberón 13 d 11 h
1600 (?) 23,57 588 0,01 97° 50'
(IV) 7 min
Cuanto más nos alejamos del Sol, más se acumularán las irregularidades. Urano
posee un quinto satélite: Miranda. Se trata de un satélite irregular descubierto por
Kuiper en 1948, más próximo que Ariel y que gira en sentido directo. Y de Neptuno
solamente conocemos dos satélites: Tritón, satélite retrógrado descubierto hace más
de un siglo, y Nereida, descubierto por Kuiper en 1949. La órbita de Nereida se
caracteriza por una fuerte excentricidad. Nos hallamos de pleno en el dominio de las
reacciones de gravitación: la esfera de influencia de Urano ya rebasa los 50 000 000
de kilómetros. Con Neptuno, alcanzamos la cifra de 86 000 000 de kilómetros. Y
podemos imaginarnos los albures de la materia perdida en estos lejanos dominios del
sistema solar, en los tiempos en que el disco planetario en formación era teatro de una
intensa actividad.
Por esta razón, sólo contamos con tres «verdaderos sistemas»: el de Júpiter, el de
Saturno y el de Urano, prodigiosamente interesantes tanto por sus similitudes como
por su semejanza con el propio sistema solar, ya que todos estos sistemas fueron
forjados por una misma cibernética.
Y de paso observaremos que el «reproche» que antes hacían los astrónomos al Sol
—no girar con suficiente velocidad para poder explicar el momento cinético actual de
los planetas— no se aplica a los grandes planetas, que solamente dejan en sus

ebookelo.com - Página 210


satélites el 0,4% de su momento cinético, proporción que es de una notable
uniformidad en el caso de Júpiter, Saturno y Urano. Estos planetas, en efecto, no
sufrieron el intenso frenado que se ejerció sobre las estrellas jóvenes.

4.— A medio camino entre el polvo y la estrella


La génesis de los objetos secundarios nos permite asistir a un notable movimiento
descendente:

El planeta más próximo al Sol, o sea Mercurio, fue un guijarro que nació en el
seno de una materia ardiente.
La Tierra nació de una materia tibia cuya temperatura ascendió durante su
crecimiento, pues el proceso gravífico aceleró el recalentamiento del astro.
Los planetas lejanos, nacidos de una materia fría, permanecieron fríos durante
mucho tiempo. Solamente se calentaron en una etapa tardía, después de adquirir
un tamaño propicio para que se manifestase su gravitación. En cuanto se
calentaron, poseían cantidades importantes de hidrógeno, que su gravitación
pudo retener.
Finalmente, los satélites de los planetas lejanos nacieron de una materia fría, en
un ambiente frío y relativamente pobre, por lo que la gravitación no podía
provocar un recalentamiento importante, O sea, que dichos astros nacieron
completamente en frío.

Esta «clasificación» es la consecuencia de consideraciones térmicas pero también


gravíficas, y en este caso los sistemas copernicanos de los grandes planetas tienen
gran importancia, pues nos revelan situaciones que sin duda se hallaron dominadas
por el proceso de acreción.
Durante mucho tiempo, el papel de la gravitación en la génesis solar fue tema de
grandes controversias. Algunos especialistas hacían de ella la única responsable de la
formación de objetos, como ocurrió en el seno de las galaxias. Pensaban que la
densidad particularmente elevada de la nube de polvillo que rodeaba a las estrellas,
hubiera permitido que se descendiese un nuevo peldaño en las retroacciones
gravíficas. Otros astrónomos, en cambio, invocaban únicamente la acreción.
Entre los años 1950 y 1955, estas dos actividades estaban representadas por
Kuiper y Schmidt, respectivamente. Y a decir verdad, no se trataba de una

ebookelo.com - Página 211


controversia que enfrentase a norteamericanos y soviéticos. La verdad era que
Schmidt tenía partidarios en los mismos Estados Unidos y encontraba adversarios en
su propia patria, donde Fessenkov defendía las tesis de Kuiper.
Así las cosas, Urey trató de llegar a una síntesis, considerando que ambos
procesos se hallaban regidos por el mismo signo. El verdadero problema consistía en
saber qué parte les correspondía a cada uno de ellos; en el sistema solar, acreción y
gravitación fueron en realidad procesos complementarios.
Pero, si bien se mira ¿cómo podría haber sido de otro modo? Cuando una masa de
gases o de polvo se dispersa, la gravitación sólo puede ejercerse a partir de grumos
formados accidentalmente. Semejante razonamiento presupone implícitamente la
acción previa de un proceso «viscoso» apto para la acreción. Por lo demás, el
resultado de la acreción es el de engendrar masas cuyo poder gravífico, creciente sin
cesar, acabará por ejercerse de manera apreciable…
Así podemos entrever una jerarquía, por orden de masas crecientes:

En los sistemas copernicanos de los grandes planetas, la acreción fue el agente


que explica la formación de objetos. La gravitación únicamente tuvo un papel
secundario.
El disco planetario del Sol tenía casi la densidad crítica que hubiera podido
provocar inmediatamente el trabajo de gravitación.
Debemos plantear esta cuestión a escala cósmica: ¿qué sucedió allí donde esta
densidad fue rebasada?

En realidad, la formación del sistema solar dio lugar en otros tiempos a


controversias apasionadas. Sin embargo, resulta curioso que un problema tan
fundamental haya merecido tan poco la atención de los astrónomos. Es lícito
preguntarse por qué la nube de materia que rodeaba al Sol se condensó en objetos
secundarios, en vez de dar origen a otra estrella, que hubiera constituido su
compañero.
En el apogeo de su crecimiento, Júpiter tenía una velocidad de escape suficiente
para hacer luminosa su atmósfera y retener al hidrógeno. ¿Qué hubiera sucedido
entonces si la nube que rodeaba al Sol hubiese conservado su fecundidad, o dicho de
otro modo, si Júpiter, suponiendo que se hubiese formado antes según un proceso
esencialmente gravítico, hubiese funcionado en un medio que le hubiese permitido
capturar cantidades de materia mucho mayores? La respuesta es evidente: la
retracción gravífica hubiera continuado, según el mecanismo de una génesis estelar.
Y al poseer una masa suficiente, el astro se hubiera convertido en una estrella.
El caso de las estrellas de Wolf-Rayet es característico: ya hemos tenido ocasión
de aludir a estos astros muy calientes, cuya elevada velocidad de rotación provoca la
eyaculación de importantes cantidades de materia. Pero téngase en cuenta que casi
todas estas estrellas poseen precisamente estrellas satélites, en forma de compañeros

ebookelo.com - Página 212


que, en general, gravitan muy cerca de ellas, constituyendo lo que los astrónomos
llaman «pares espectroscópicos». Dan a entender con ello que las estrellas que
constituyen uno de estos pares están demasiado próximas para que un telescopio
pueda separarlas, siendo identificadas por la superposición de sus respectivos
espectros. Según Sahade, el envoltorio de la estrella principal cubre por completo al
compañero.
Estas estrellas de Wolf-Rayet pueden ofrecernos un caso típico, en que la materia
presente en gran abundancia alrededor de una estrella da origen a otra.
Por lo tanto, debemos suponer que los objetos secundarios se convirtieron en
planetas cuando experimentaron un crecimiento bastante lento en el seno de una
materia no muy abundante.

Estrellas y sistemas planetarios


De lo expuesto se deduce que la formación de los planetas se debe a un proceso
relativamente crítico, que discutiremos teniendo en cuenta que nuestro sistema solar
fue el producto de dos factores: una estrella y una nube de materia.
Nuestra estrella —el Sol— intervino en el proceso con sus características
nucleares y gravíticas. El Sol, que es una estrella amarilla, tenía una estabilidad y
funcionamiento garantizados para miles de millones de años. Su masa, además,
determinaba las velocidades circulares del polvillo en el disco de materia circundante.
En torno a una estrella más pesada, la disminución de las velocidades hubiera sido
más brusca y, por lo tanto, el «corte» de la nube hubiera sido más apretado, creando,
quizás a condiciones iguales, unos planetas más pequeños y más numerosos.
No obstante, es preciso observar que las velocidades circulares de una estrella
varían con la raíz cuadrada de su masa. Asimismo, las características nucleares del
astro están estrechamente vinculadas a su masa, pues las estrellas de larga vida no
pueden ser sensiblemente más pesadas que nuestro Sol. Por lo tanto, si consideramos
una estrella como una máquina destinada a tratar una nube de materia, podemos
considerar que cabía esperar una gran semejanza de comportamiento por parte de un
número elevado de estrellas.
En cambio, la dispersión será considerable en la etapa del substrato: la
importancia y la composición de las nubes de materia que rodean a las estrellas
pudieron variar en grandes proporciones, originando situaciones muy diversas.
Los discos de materia muy importantes y ricos en elementos pesados debieron de

ebookelo.com - Página 213


engendrar no unos planetas alrededor de las estrellas, sino unos compañeros, como
demuestra actualmente la observación del cielo en que, con independencia del caso
Wolf-Rayet, vemos que un número importante de estrellas están acompañadas de
estrellas satélites.
En cambio, un disco insignificante o demasiado pobre en elementos pesados,
estaba destinado a disiparse poco a poco en el espacio.
Entre estos dos casos extremos, los objetos secundarios pudieron adquirir masas
muy diversas. La materia del sistema solar ya nos pone en presencia de una colección
bastante heterogénea.
La dispersión es sin duda incomparablemente mayor a escala cósmica. Si bien la
masa de una estrella es «determinada», la de un objeto secundario no lo es: son
admisibles todos los valores entre el grano de polvo y la estrella. Si tomamos la masa
de la Tierra por unidad, comprobaremos en nuestro sistema solar la presencia de un
planeta de masa 318 (Júpiter), mientras que la masa de Mercurio es de 0,05 y la de
algunos asteroides es inferior a una milmillonésima. Como verá el lector, las
diferencias son enormes. Sin embargo, si nuestro sistema solar no muestra una
colección de masas repartidas entre el átomo y la masa 318, aparece una «laguna»
entre ésta y la masa del Sol que, calculando sobre esta base, rebasa la cifra de
330 000. Y es probable que esta laguna esté ampliamente colmada en otros lugares
del Universo.

¿Entre estrella y planeta?


¿Cuál es, en efecto, el límite superior de la masa de un planeta? ¿Dónde hay que
situar la demarcación con la etapa estelar?
Teniendo en cuenta precisamente el hecho de que, según su importancia, el disco
que rodea a una estrella puede originar otra estrella o varios planetas, lo
verdaderamente notable es que no exista ninguna línea precisa de demarcación y que
se pase de manera al parecer continua de la estrella al planeta, según ha revelado el
estudio de las microestrellas.
Así fue como a 13 años luz del Sol y junto a una pequeña estrella roja
denominada «Ross 614 A», Baade descubrió en 1955 un compañero que gravitaba a
600 000 000 de kilómetros (o sea aproximadamente la distancia Júpiter-Sol). Ahora
bien, la masa de Ross 614 B es el 0,08 de la masa solar, o sea veintiséis mil
seiscientas veces la masa de la Tierra. Su luminosidad es sesenta y tres mil veces

ebookelo.com - Página 214


menor que la del Sol, pero se trata de una estrella cuyas reacciones termonucleares
mantienen una temperatura superficial de 1000 grados.
La observación de estos astros es difícil a causa de su débil luminosidad —Ross
614 B tiene una magnitud absoluta de 16,8—, o al menos solamente son visibles las
pequeñas estrellas que se encuentran muy próximas al Sol. Sin embargo, el censo de
nuestro universo local hace pensar que estas microestrellas deben de ser numerosas.
Se puede hallar una prueba espectacular de la continuidad existente, entre
microestrellas y planetas, comparando dos grupos de astros.
Hace unos años, los astrónomos se dedicaron a calcular la masa mínima que
podía tener una estrella: Russell la calculó en 0,05 de la masa solar[35], o sea dieciséis
mil veces la masa de la Tierra. Y esta cifra cuadraba muy bien con las observaciones.
Así, Ross 614 B hubiera sido una de las estrellas más pequeñas, mientras que el
compañero de Lalande 21 185, que tenía una masa igual a diez mil veces la de la
Tierra, hubiera sido uno de los planetas más pesados del Universo.
Sin embargo, se ha descubierto un par designado con el nombre de «binaria visual
Luyten 726-8», cuya masa total no rebasa el 0,08 de la masa solar. Incluso en el caso
de que los elementos componentes —ambos estrellas— tuviesen masas casi iguales,
ninguno de ellos, por lo tanto, podría tener más de 13 000 masas terrestres. Y en el
caso de una asimetría, habría que suponer un claro traslapo de masas entre estrellas y
planetas, hecho que se explicaría por diferencias de composición que influirían en el
régimen de las reacciones termonucleares. En realidad, todas las distinciones son
ficticias: aunque no fuesen incandescentes, los megaplanetas tendrían una elevada
temperatura, pues de todas formas las reacciones nucleares se perpetuarían en su
masa.
Sin duda estos objetos intermedios, con masas comprendidas entre las 1000 y las
20 000 masas terrestres, son extremadamente abundantes en el Universo.
Si bien las estrellas acompañadas de una pareja son numerosas, las que se hallan
dotadas de planetas de gran tamaño también parecen serlo, según indican los
descubrimientos efectuados en fecha reciente.
Es sabido cómo se realiza el descubrimiento. Imaginemos una estrella que posee
un gran planeta. En nuestros instrumentos ópticos, éste es oscuro, o al menos se halla
tan débilmente iluminado por la estrella, que es imposible verlo. Pero su movimiento
perturba a la estrella, pues ambos giran en torno a su centro de gravedad común: así,
para un observador lejano la estrella parecerá animada de un lento movimiento
oscilatorio, tanto más fácil de señalar cuanto más alejado de ella se encuentre el
centro de gravedad de la pareja.
En nuestro sistema solar, como sabemos, solamente el planeta Júpiter posee una
masa tal que cree un centro de gravedad externo al Sol para el par planeta-Sol. Pero
en otros sistemas, la observación ha demostrado la presencia de planetas aún más
voluminosos.
Hasta la fecha, solamente han podido descubrirse megaplanetas. Pero no deja de

ebookelo.com - Página 215


ser notable que, de 40 estrellas vecinas del Sol, 16 hayan demostrado poseer planetas
de gran tamaño.
Esto subraya el carácter general del fenómeno planeta, pues la materia
abandonada alrededor de las estrellas tiene una tendencia natural a crear objetos
secundarios, y confirma la dispersión de sus masas.
Shapley considera que estos astros intermedios quizá son; aún más numerosos
que el conjunto de las estrellas visibles. Hasta cierto punto, esto sería lógico y
demostraría la notable continuidad del concepto de astro a través de una sorprendente
filiación, en la que cada categoría poseería un carácter crítico. Para la estrella, era la
masa que, como sabemos, solamente podía variar en proporciones muy reducidas,
mientras que la densidad podía alcanzar grandes diferencias.
La situación del planeta es exactamente contraria. La masa puede variar entre el
guijarro y la estrella, mientras que la densidad es el factor crítico. En el sistema solar,
varía solamente en la proporción de 1 a 10 y acaso sea ésta toda la gama de las
densidades planetarias a la escala del Universo. Aún más: tal como las estrellas se
diferencian esencialmente por sus masas, hemos tenido que distinguir entre dos
grupos de planetas a causa de sus diferencias de densidad.
El contraste es muy significativo. Mientras la estrella era un «ser» celeste, el
planeta, en realidad, no es un individuo, sino más bien un estado de la materia
aparecido al final de un sutil trabajo del cosmos. Las galaxias permitieron la
concentración de materia propicia para el nacimiento de las estrellas y éstas crearon
los recintos donde se reunieron los elementos.
Así, pues, el Universo se organizó topológicamente. La estrella fue la fábrica
productora de los elementos; el planeta recogió su producto.

ebookelo.com - Página 216


10

La Tierra toma cuerpo


Ninguna fecha señaló la «terminación» de la Tierra. Nacido al hacerse más pesada a
expensas de un medio ambiente que le proporcionaba esencialmente el oxígeno y los
metales, nuestro planeta no vio cesar de pronto su crecimiento, sino que éste se hizo
paulatinamente más lento, al empobrecerse la materia ambiente. El niño crece con
rapidez, pero la talla del adolescente aumenta con lentitud. Lo mismo sucedió con la
Tierra.
Y nuestro globo parece conocer en el momento actual el fin de esta etapa, aunque
su crecimiento todavía continúa con extremada lentitud, pues sigue captando la
materia dispersa por el sistema solar en forma de meteoritos. Debido a ello, su
composición cambia imperceptiblemente todos los días y su masa aumenta.
Este hecho ya fue señalado en 1874 por el explorador sueco A. E. Nordenskiöld.
Tomando muestras de nieve, consiguió aislar un polvillo oscuro que contenía hierro,
cobalto y níquel. Mediante un sencillo cálculo, afirmó que la aportación metálica del
cielo a la Tierra podía cifrarse en un millón de toneladas anuales. Ésta es la cifra
admitida en la actualidad. En mil millones de años, esta cifra representaría una capa
de varios decímetros.
Los trabajos de Nordenskiöld fueron continuados en 1957 por Pettersson, director
de los observatorios instalados a gran altitud cerca de Honolulú y que utilizaba
ventiladores para dirigir importantes volúmenes atmosféricos hacia unos
analizadores. De esta manera, Pettersson y Rotschi consiguieron detectar 1 miligramo
de polvillo meteórico en 1600 metros cúbicos de aire. Además, comprobaron que en
los sedimentos recogidos en el fondo del Pacífico se señalaba un contenido en níquel
particularmente elevado, que ellos atribuyeron al polvillo meteórico.
En la era espacial se han podido realizar mediciones sistemáticas y los satélites
confirman la llegada de una materia meteorítica importante, observando los
intercambios en doble sentido que nuestro planeta realiza con el cosmos.
Si bien la Tierra obtiene metales por este medio, por otro lado pierde elementos
ligeros, según un proceso que en otras épocas debió de revestir una gran amplitud y
cuyo recuerdo hallamos hoy en la exportación del hidrógeno por las capas superiores
de la atmósfera. A cien kilómetros de altitud, la radiación ultravioleta del Sol actúa
sobre el vapor de agua, rompiendo las moléculas y liberando el hidrógeno, rechazado
de momento hacia el halo que rodea la Tierra y después al espacio interplanetario.
Así parecen perderse todos los días un centenar de toneladas, pérdida que el envío de
protones por el Sol solamente compensa en muy pequeña proporción.
En estos intercambios cabe ver la prolongación de la aventura planetaria. Pero
debemos tener en cuenta su pequeñísima intensidad, Desde hace mucho tiempo ya no

ebookelo.com - Página 217


se trata de un cataclismo ni siquiera de evolución, sino de pérdidas mínimas e
infiltraciones comparables a los cambios que las estrellas efectúan con el medio
ambiente y que forman parte de la vida normal de los astros. Así, hace muchos miles
de millones de años, la Tierra ya debía de tener aproximadamente su masa actual. El
objeto Tierra ya existía y unas actividades de una nueva naturaleza iban a regir su
cibernética.
¿De qué actividades se trata?
El crecimiento de la Tierra terminó con una elevación de la temperatura que tuvo
profundas repercusiones en la estructura de la corteza. El resultado de ello fue que su
temperatura se mantuvo a partir de entonces —lo cual es característico en los objetos
secundarios— a un nivel tal, que las reacciones termonucleares ya no podían
producirse.
Con todo, nuestro planeta había de poseer la herencia de un pasado que le valió
cierta forma de actividad nuclear.

1.— La herencia cósmica de la Tierra


En primer lugar, la joven Tierra era teatro de una serie de transmutaciones, pues entre
sus elementos constituyentes poseía elementos pesadísimos. Como ya sabemos, más
allá del plomo los núcleos se aligeran, perdiendo heliones: se trata de un fenómeno
espontáneo, cuyo período —que mide el tiempo al cabo del cual la mitad de los
núcleos se han desintegrado— era totalmente independiente del medio en el que se
encontraban los núcleos.
No olvidemos que algunos elementos tienen períodos de gran duración, lo que les
permitirá desempeñar un papel durante mucho tiempo. Teniendo en cuenta que el
período de un elemento se cifra en centenares de millones, es más, en miles de
millones de años, su actividad irá desde luego en disminución, pero continuará
manifestándose prácticamente durante toda la vida de la Tierra.
Tal será, entre nuestras rocas, el caso del torio y el uranio, al que ya hemos
aludido al mencionar los mecanismos estelares. El torio natural se halla constituido
esencialmente por el torio 232, cuyo período alcanza los 13 900 millones de años. En
cuanto al uranio, sus dos principales representantes actuales, el uranio 235 y el uranio
238, tienen unos períodos de setecientos diez millones y cuatro mil quinientos
millones de años, respectivamente.
El torio y el uranio serán, pues, preciosos testigos de la historia de la Tierra.

ebookelo.com - Página 218


Midiendo la cantidad de uranio que se ha transformado en plomo, los sabios pueden
conocer la edad de una roca. Por este medio el hombre del siglo XX puede datar los
acontecimientos geológicos, para los que antes no podía establecer ninguna
cronología. Merced a esta técnica, ha podido calcularse la edad de la Tierra en más de
cuatro mil quinientos millones de años, cifra que permite deducir sorprendentes
conclusiones por lo que se refiere a la labor terrestre de los cuerpos radiactivos.

Todos los años se desintegran 20 000 toneladas


El uranio y el torio son actualmente elementos relativamente escasos en el subsuelo,
donde presentan la particularidad de hallarse por lo general muy discriminados.
Téngase en cuenta que pigmentan los terrenos graníticos a razón de unos cuantos
gramos por tonelada. Según cálculos efectuados por Weinberg, las reservas de la
Tierra podrían cifrarse en 50 billones de toneladas para el torio, 16 billones para el
uranio 238 y 113 000 millones para el uranio 235.
Ésta parece ser la situación actual. Pero remontándonos a cuatro mil quinientos
millones de años en el pasado, podemos calcular que las reservas de torio alcanzaban
entonces la cifra de 62 billones de toneladas. Han disminuido únicamente en 20%,
pues el período citado no es más que una fracción del período total.
Pero es igual al período del uranio 238, cuyas reservas podían calcularse en 32
billones hace cuatro mil quinientos millones de años.
Y por lo que al uranio 235 se refiere, la diferencia es incomparablemente mayor,
pues cuatro mil quinientos millones de años representan 6,34 veces el período. Así,
elevando 2 a la potencia 6,34, podremos calcular que dicho isótopo era ochenta y una
veces más abundante: la joven Tierra debía de contener 9 200 000 000 000 de
toneladas de uranio 235.
Por lo tanto, es preciso admitir que cuando terminó su formación, nuestro planeta
contenía una proporción de elementos radiactivos superior al actual y, especialmente,
poseía una cantidad mucho mayor de elementos activísimos. Teniendo en cuenta que
la actividad de un elemento es inversamente proporcional al período, todos los años
la joven Tierra asistía a la desintegración de 3000 toneladas de torio, 5000 de uranio
238, y 9000 de uranio 235. Este cálculo no tiene en cuenta otros elementos, como el
uranio 234, hoy casi desaparecido.
No nos dejemos engañar demasiado por estas cifras: conviene no olvidar que,
incluso entonces, la energía nuclear liberada por nuestro planeta en ciento veinte mil

ebookelo.com - Página 219


años correspondía a la creada por el Sol en un segundo. A igualdad de masas, esto
correspondía a una actividad doce millones de veces menor, relación que hoy es
superior a los cuarenta millones.
De ello se sigue que la desintegración de un núcleo era el punto de partida de una
cadena de transmutaciones, que representaban otras tantas reacciones nucleares
espontáneas, liberadoras de energía. Especialmente, cada núcleo de uranio 238
transformado en plomo origina 50 MeV, siendo las energías liberadas en el caso del
uranio 235 de 45 MeV y de 40 para el torio.
Al llegar aquí, surge automáticamente esta pregunta: ¿Qué fue de esta energía?

El calor central
Debido al hecho de que los elementos radiactivos estaban dispersos en la Tierra, esta
energía se manifestó en forma de calor.
Y si bien la actividad nuclear de la Tierra nunca fue verdaderamente importante,
su producto debió de serlo, a causa de la acumulación de calorías.
Se calcula que admitiendo la hipótesis de un reparto uniforme en el seno de la
joven Tierra, la cantidad de calor generada por el torio y los isótopos principales del
uranio, ¡representaba 13 calorías por kilogramo en el transcurso de un millón de
años!
Ésta era la situación existente hace cuatro mil quinientos millones de años. A
continuación esta proporción disminuyó, con el agotamiento de los elementos más
activos, y actualmente no se producen más de cuatro calorías por kilogramo.
Pero la corriente calorífica así creada trastocaría la evolución térmica de nuestro
planeta.
La Tierra, cuya temperatura había aumentado mucho en la última fase de su
formación, empezó a enfriarse al hacerse más lento su crecimiento y su superficie
mostró tendencia a acercarse a la «temperatura ambiente» impuesta por su
alejamiento del Sol. Dejaría al agua en estado líquido, a pesar de que los óxidos, en
cambio, eran sólidos, con el resultado de que se constituyó una corteza terrestre.
Pero esta corteza convirtió al planeta en un verdadero termos pues, mala
conductora, aprisionó las calorías de origen radiactivo, permitiendo únicamente la
evacuación de una pequeña cantidad fuera de la Tierra. Al sumarse al calor de
formación del planeta, que únicamente se disipó en la superficie, esta fuente térmica
impuso entonces un calentamiento de un nuevo carácter a las masas internas, cuya

ebookelo.com - Página 220


acción fue estudiada por E. Liubimova sobre un modelo de Tierra que generaba un
calor radiactivo.
Admitiendo la hipótesis de una diseminación completa de los materiales
radiactivos en el interior de la joven Tierra, el físico llegó a la conclusión de que el
gradiente térmico debió de pasar por máximo hace algo más de dos mil millones de
años. Los materiales se estratificaron con mucha rapidez durante este calentamiento
Así se organizó el interior de la Tierra, convirtiéndose en centro de un prodigioso
poder térmico.

Una pasta activa


La verdad es que este calor interno ya se había descubierto hacía mucho tiempo, pues
la experiencia enseñó al hombre que la temperatura aumenta con la profundidad. Sin
embargo, sólo se vislumbraba un aspecto del problema, al atribuir un origen físico a
este calor interno. Incluso en el siglo XIX, la idea de que pudiese haber rocas
caloríficas hubiera hecho sonreír a los científicos. Buena prueba de ello fueron las
reacciones que produjo en el mundo de los sabios el descubrimiento de la
radiactividad y la afirmación hecha por Curie de que el radio calentaba el agua. Para
los físicos esto era darle un mentís al principio de la conservación de la energía y uno
de ellos llegó a decir: «Como todo el mundo sabe, los franceses no son gente
seria…».
Pero ésta fue, en efecto, una de las consecuencias de la radiactividad terrestre:
creó temperaturas elevadas y provocó la dilatación de los materiales; la gasificación
de algunos de ellos, por otra parte, dio origen a fenómenos de gran importancia.
Quizá se trate de un fenómeno general en los astros telúricos. La radiación
hertziana procedente de las entrañas de la Luna analizada en 1962 en el Instituto de
Ciencias Físicas de Gorki: indicaba una temperatura de 1000° a 50 km de
profundidad.
Conviene meditar en esta lección. La gran aventura del universo fue una
prodigiosa actividad nuclear, y nuestra Tierra conserva su recuerdo con nostalgia,
pues está hecha de una pasta que aún se acuerda del tiempo en que era estrella.
Continúa desarrollándose en ella una actividad nuclear reducida, gracias al impulso
de la acción iniciada cuando la materia primigenia se forjaba en los crisoles estelares.
Así, la energía nuclear actúa con retraso. El hidrógeno primitivo se encendió con
dificultad en las estrellas; para ello hizo falta que la gravitación asegurase densidades

ebookelo.com - Página 221


y temperaturas elevadas. Pero el movimiento no había de detenerse con la disociación
de la estrella: a partir del instante en que las reacciones nucleares crearon elementos
pesados, la fuerza nuclear empezaría a manifestarse con sordina durante miles de
millones de años.
Podemos imaginarnos lo que pasaría en un planeta hecho la misma pasta terrestre
pero que tuviese un radio veinte veces mayor: al ser proporcional a la masa, el calor
radiactivo hubiera sido ocho mil veces más elevado, mientras que la superficie del
astro hubiera estado solamente en el coeficiente cuatrocientos. Entonces, una
corriente térmica veinte veces más intensa hubiera atravesado dicha superficie,
manteniendo una temperatura elevada. Esta consideración nos hace ver un nuevo
aspecto de la transición entre planeta y estrella.
Sabemos que un objeto de hidrógeno no podía tener una masa demasiado
importante, sin que en ella se desarrollasen reacciones termonucleares. En el caso de
una materia evolucionada, la radiactividad nos conduce a una conclusión similar:
solamente los astros relativamente pequeños podrán mantenerse fríos en la superficie
después de millones de años.

Las transformaciones nucleares en el marco terrestre


El uranio y el torio no son las únicas substancias radiactivas naturales en el marco
terrestre. Además del plomo, numerosos elementos poseen isótopos radiactivos de
vida muy larga, engendrados en el corazón de las estrellas y que volveremos a
encontrar en la Tierra.
En el caso del renio, del lutecio, del rubidio y sobre todo del potasio: éste
contiene un poco de radiopotasio 40, cuya importancia no es despreciable, a causa de
la gran abundancia de este elemento que hay en la Tierra. La parte que tiene este
isótopo en el potasio natural es hoy únicamente de 0,11%. Era doce veces más
elevada cuando la Tierra era joven, pues el período del potasio 40 es de 1250
millones de años.
Y el proceso citado no presenta solamente un aspecto energético: la transmutación
del potasio 40, en efecto, origina argón, del que nuestro planeta fue una planta
nuclear. En la actualidad este gas forma aproximadamente el 1% del aire atmosférico
y, teniendo en cuenta su escasez cósmica, semejante abundancia había intrigado a los
sabios. Mas la explicación es muy sencilla: químicamente inerte, el argón creado por
el potasio 40 tenía que irse acumulando en la atmosfera entre los elementos

ebookelo.com - Página 222


componentes de la misma que permanecieron en estado gaseoso, retenidos por la
gravitación.
Este mismo término de atmósfera no debe llamarnos a engaño: no se realiza
ninguna «filtración» en los materiales que constituyen la atmósfera de un planeta. Al
ser creado un elemento gaseoso, pasa a formar parte de la atmósfera, para
abandonarla si resulta fijado a consecuencia de reacciones químicas o si puede
evadirse hacia el espacio interplanetario. Y esto nos lleva a ver en la atmósfera un
depósito cuya composición cambiara paulatinamente.
Por lo que a esto respecta, los fenómenos nucleares únicamente desempeñarán un
papel secundario. Cabrá atribuir modificaciones incomparablemente más importantes
a las actividades que se desarrollarán en la superficie terrestre, que actuarán en gran
escala sobre toda la atmósfera, transformándola como el cuchillo de la conseja, del
que tan pronto se cambiaba la hoja como el mango. Así, un ser que hubiese sido
testigo del aspecto que presentaba la joven Tierra, no reconocería su atmósfera en los
gases que hoy rodean a nuestro globo. Pero el mantenimiento de una atmósfera a
través de toda la historia de la Tierra tuvo una consecuencia importante, pues logró
constituir una pantalla permanente contra las excitaciones procedentes del cosmos.

La actividad de la alta atmósfera


Además del capital radiactivo que había heredado, nuestro planeta estaba obligado a
evolucionar en un medio en el que se desarrollaban fenómenos nucleares. Por lo
tanto, las capas superiores de su atmósfera iban a mantener una actividad que aún
continúa.
Tengamos en cuenta que los rayos cósmicos bombardean constantemente el
nitrógeno de las altas zonas de la atmósfera, transformándolo en un carbono 14 (cuyo
período es de cinco mil setecientos años), que se inmiscuye en los ciclos del carbono
ordinario. Los rayos cósmicos provocan asimismo la formación regular de una
pequeña cantidad de tritio. Este hidrógeno muy pesado tiene un período de doce años
y se combina con el oxígeno para aportar indicios de radiactividad al agua de lluvia.
No obstante, estos fenómenos tienen muy poca amplitud: sólo se trata de una
actividad marginal. Y todas las «excitaciones» de que es objeto la Tierra por parte del
espacio suelen quedar absorbidas por las capas elevadas de la atmósfera. La mayoría
de los meteoritos se desintegran entre los 80 y los 120 km de altitud, y así solamente
calientan la parte más elevada de la atmósfera, cuya masa constituye un aislante para

ebookelo.com - Página 223


la superficie de la Tierra.
Por lo que se refiere a la radiación cósmica, la atmósfera es como un edredón, en
el que las partículas dotadas de gran energía crean «gavillas».
Por último, la Tierra evoluciona en un medio cuya actividad es muy variable.
Durante sus crisis, el Sol lanza gigantescas cantidades de protones, que matarían en
pocos minutos a los tripulantes de una astronave no protegida por un grueso blindaje.
Pero nuestra atmósfera actúa como un escudo que la defiende de estos chorros.
Así, la prodigiosa actividad de las partículas que el hombre ha descubierto en la
era espacial, se desarrolla a gran altura sobre su cabeza.

2.— El reinado del átomo


La superficie está aislada de la actividad interna de la Tierra por la corteza. Y salvo
algunos casos excepcionales, que pueden considerarse verdaderos cataclismos, la
corteza terrestre ha resistido las sacudidas provocadas por semejante actividad.
La atmósfera, por su parte, constituye un imponente blindaje, equivalente a más
de un metro de acero y que filtra las radiaciones cósmicas.
Tanto la atmósfera como la corteza representan un papel comparable al de la caja
de un reloj, que contiene mecanismos muy frágiles que, sin su protección, pronto
estarían inutilizados; aseguran cierta «fijeza de medio ambiente» a una delgada
película, que ya anuncia el gran movimiento de la vida. La superficie de la Tierra se
halla dispuesta a acoger las estructuras más delicadas, que ya no tendrán que sufrir el
trato brutal de que eran objeto las partículas cósmicas, mientras las fuerzas
fundamentales desempeñan un papel completamente distinto.
Hasta entonces, la energía nuclear había animado el cosmos. Para la superficie de
la Tierra parecía no existir. Esto no quiere decir que su existencia cesase: gracias a
ella, estaba asegurada la cohesión de los núcleos. Pero su papel era pasivo: se había
convertido en un factor de estabilidad, una cola para nucleones, que aseguraba la
perennidad de los elementos.
En el medio terrestre, pues, un núcleo de oxígeno continuará siendo un núcleo de
oxígeno durante miles de millones de años: un observador puede ignorar bajo qué
auspicios se conserva y considerar aquel núcleo como individuo cuya existencia está
asegurada. Del mismo modo, el hierro continúa siendo hierro y el carbono, carbono.
O al menos las transmutaciones revisten un carácter excepcional en la superficie de la
Tierra, donde la energía nuclear está prácticamente congelada.

ebookelo.com - Página 224


39. Las «ventanas» de nuestra atmósfera
Nuestra atmósfera es un blindaje para la mayoría de radiaciones. En ella descubrimos solamente tres ventanas
correspondientes: 1, a la luz visible; 2, a una banda infrarroja (entre 8 y 12 micrones); 3, a una zona en la gama de
las ondas hertzianas.

Y, en cierto modo, la gravitación comparte esta suerte: una vez solidificada, la


corteza terrestre la obligó a detenerse. Así, la gravitación cesa de actuar para limitarse
a retener los océanos y la atmósfera; atrae hacia el suelo lo que tiende a elevarse,
asegurando así una estabilidad topológica a los elementos estables.

La obra de la electricidad
Este comportamiento pasivo de dos fuerzas fundamentales permite entonces la acción
de la tercera. La Tierra asistirá a su gran reinado, haciéndonos presenciar un
sorprendente trastocamiento de papeles.
La verdad es que la energía eléctrica no realizó ninguna labor constructiva en el
corazón de las estrellas. En el tumulto de una materia plasmificada, los núcleos no
podían atraerse cortejos de electrones, con el resultado de que la mutua atracción de
las cargas de signo contrario no producían organización alguna. Y la repulsión de las
cargas del mismo signo resultaba en unas consecuencias negativas, pues
obstaculizaba las reacciones nucleares; eran necesarias temperaturas elevadísimas
para liberar la energía nuclear de dicha repulsión. Así, durante toda la primera vida de
las estrellas, la energía eléctrica representó el papel de obstáculo, impidiendo la
mayoría de las fusiones nucleares y controlando las que autorizaba.
Fuera de los astros, la situación ofrece un aspecto distinto. En las regiones que
gozan de una calma relativa, núcleos y electrones se asocian para formar átomos.
Pero en la tranquilidad terrestre, la estructura atómica se convierte en ley y crea

ebookelo.com - Página 225


condiciones nuevas: con la estabilidad de los núcleos y los átomos, el pulular de las
partículas adquiere una nueva fisonomía. La energía eléctrica provocará asociaciones
de átomos a una escala impresionante. Salvo los gases raros, ningún átomo
permanecerá aislado.
En las estrellas ya hemos descubierto un extraordinario monopolio nuclear, en el
que los elementos nacían y se destruían.
Otro mecanismo aparece a escala terrestre, donde la alquimia ha sido substituida
por la química. Se trata de un monopolio atómico; que regula la combinación de los
elementos. Ésta será la aventura de la materia.

El mecanismo de los enlaces


La energía eléctrica une a los átomos…
El hecho puede resultar sorprendente, porque el átomo es un edificio neutro: por
ejemplo, un núcleo de hierro que posea 26 protones, se rodea de 26 electrones, con el
resultado de que la suma algebraica de las cargas es nula.
Pero una discusión más detallada del problema permite sacar conclusiones algo
distintas.
Los electrones que rodean un núcleo circulan a distancias variables y los más
alejados están retenidos por vínculos muy flojos. Por consiguiente, sufren la
influencia de otros núcleos y se convierten en agentes de enlace.
Consecuentemente, en las condiciones terrestres los átomos del elemento más
sencillo, o sea el hidrógeno, se asocian a pares, compartiendo los electrones.
Dos átomos de hidrógeno aislados son en resumen dos protones alrededor de cada
cual gira un electrón. Cuando el movimiento de estos electrones los une, nace una
molécula y ambos electrones evolucionan alrededor de uno y otro protón, como los
planetas de un sistema doble.
Pero, en los metales, éste no se realiza a base de dos átomos, sino de inmensas
colecciones ligadas en «sólidos»: la pérdida de los electrones exteriores es una regla
muy general. Estos electrones vagan en todas direcciones con una extremada
velocidad, pues son fácilmente cien mil veces más ligeros que los átomos[36]. Unidos
por ellos según una arquitectura cristalizada, los núcleos solamente conocen
vibraciones alrededor de sus posiciones de equilibrio.
Gracias a este vínculo suave, los metales serán elásticos, dúctiles y maleables.
Algunos elementos conocen otro modo de unión: el electrón periférico de un

ebookelo.com - Página 226


átomo de sodio tiene tendencia a evadirse para caer prisionero del átomo de cloro,
que lo captura. En torno a un núcleo de carga +11, el átomo de sodio no posee
entonces más que 10 electrones, mientras que 18 electrones giran en torno al núcleo
del cloro, de carga +17. Así se convierten en un ion positivo (carga +1) y un ion
negativo (carga −1) unidos por la fuerza eléctrica. Éste es el proceso de los «enlaces
iónicos», mediante el cual los átomos de hidrógeno y oxígeno se unen para formar
moléculas de agua[E4].
Y la molécula, por su parte, es también un punto de partida. Tendrá una imagen
burda de la molécula quien vea todavía en ella un edificio neutro, pues sus núcleos y
electrones ocupan emplazamientos distintos, por lo que en la proximidad inmediata
de un molécula, no estaremos a la misma distancia de las cargas positivas y
negativas. Por consiguiente, éstas ejercerán unos efectos cuya suma no será nula, a
pesar de que algebraicamente la carga total de la molécula lo sea.
Así, en las proximidades de la molécula reina un campo eléctrico al que cabrá
atribuir diversas interacciones. Los líquidos deben su existencia, al retenerse las
moléculas mutuamente.
Por último, en el medio ambiente tranquilo que se le ofrece, la energía eléctrica
creará los diversos estados de la materia terrestre.
A decir verdad, la aparición de estas asociaciones no es un acontecimiento
fundamentalmente nuevo en la historia de la materia. Los átomos y las moléculas no
esperaron el medio terrestre para aglutinarse. Los hemos visto unirse ya en el disco
estelar bajo la forma de polvillo, gérmenes y grumos. Podemos decir que la
formación de los planetas se realizó sobre el telón de fondo de una gigantesca
destilación.
Pero en la Tierra, la novedad reside en el hecho de que estas asociaciones nacen
en un medio «protegido», que permitirá su desarrollo en gran escala. Así, la Tierra se
convierte en la armazón de una extraordinaria maquinaria físico-química, que abrirá
nuevos caminos a la evolución de la materia.
En los plasmas estelares, los núcleos eran simples muestras de elementos,
condenados a una existencia indivisible. Al entrar en los átomos, conocerán una
actividad social; los edificios atómicos les darán el medio de participar en
asociaciones que ellos solos no hubieran podido crear.
El átomo, pues, se convierte para la materia en el medio de continuar una marcha
en la jerarquía de las organizaciones elevadas.

ebookelo.com - Página 227


Hacia los «clarkes»
Esta actividad físico-atómica se traduce en primer lugar por cierta ordenación de las
substancias en el interior de la Tierra.
Al principio, todos los elementos y componentes constituían un magma, que
después se sometió a una cibernética de sorprendente autoconcentración.
A medida que las capas superficiales se fueron enfriando, las substancias se
solidificaron de acuerdo con sus puntos de fusión decrecientes. Pero la Tierra no
conocía el reposo, y mediante sus mecanismos térmicos mezcló y revolvió sus
materiales, agrupándolos por afinidades, en un anticipo de los procesos que el
hombre imaginó para concentrar los minerales.
En la actualidad sabemos separar un sólido de un líquido por filtración o
decantación. Triamos los sólidos recurriendo a procesos hidráulicos, por ejemplo,
lavando los minerales o aprovechando sus diferencias de densidad. Y para separar los
cuerpos se utilizan solventes selectivos.
Todas estas operaciones ya se efectuaron por sí solas en el joven planeta Tierra.
Las tribulaciones impuestas a los materiales realizaron esta labor: en los tiempos en
que se formó la corteza terrestre, las substancias que presentaban mayor número de
caracteres comunes tuvieron mayores probabilidades de permanecer juntas. En el
magma inicial, representaban otras tantas tarjetas perforadas y la Tierra fue una
máquina seleccionadora que dejaba pasar en la misma dirección a las tarjetas que
poseían determinadas características comunes. Al término de semejante proceso de
selección natural, se reunieron paulatinamente las substancias que poseían
propiedades químicas o densidades idénticas.
Por último, llegó un tiempo en que el hombre descubrió la presencia de elementos
concentrados en el subsuelo y se aprovechó de la labor efectuada por la naturaleza
durante incontables millones de años. Y entonces inventó la petrografía, la
geoquímica y la mineralogía para reconstituir la historia de las concentraciones
progresivas de los elementos.
Aunque la verdad es que continuará subsistiendo por doquier «un poco de caos»:
en una tonelada de materia estarán representados prácticamente todos los elementos.
El hierro y el cobre no llegarán nunca a alcanzar verdaderamente el estado puro.
Pero algunas concentraciones resultarán significativas, comparándolas con la
abundancia media de los elementos, o sea con los «clarkes» de los mismos. Se les da
este nombre en honor del geoquímico que, mediante el análisis de numerosas rocas,
calculó la abundancia respectiva de los cuerpos simples en la corteza terrestre, pues
como ya hemos señalado[37], se instauró la costumbre de calcularlos según el peso
respectivo de los elementos.
Sabemos así que el clarke de nueve elementos es superior a 1%. Los demás
elementos, entre los que se cuentan el plomo, el estaño, el yodo o el helio, tienen

ebookelo.com - Página 228


clarkes inferiores (y a veces de mucho) a 0,01%.
Tengamos en cuenta que a partir de un clarke de 0,1%, el manganeso puede dar
origen a yacimientos en los que su producción actual es de 40%, lo que representa un
«clarke de concentración» de 400%. Y se registran proporciones de 2000% con el
plomo y el tungsteno, mientras que la proporción del antimonio es superior a
200 000%.
Vemos así que la Tierra ejecuta una impresionante obra de entropía negativa…

La maquinaria atmosférica
En el subsuelo, la autoconcentración de los minerales comenzó con la formación de
la corteza. En la superficie del planeta, una organización de otro orden le hace eco.
La Tierra se plegó. Como un rail víctima de una intensa dilatación, su superficie
se torció. Aquí aparecieron rocas eruptivas más allá las fallas dejaron brotar las
enormes cantidades de agua retenidas por el planeta.
Al principio, la geografía obedeció a los caprichos del azar. Las montañas no
tenían más razón de aparecer en un punto que en otro y el reparto aleatorio de los
océanos recuerda el desgarramiento de la nebulosa primitiva: a la escala local, los
acontecimientos fortuitos engendraron retroacción. Así se transformó la Tierra en el
transcurso de las eras geológicas.
Acumulada en cuentas gigantescas, el agua alimentó otra prodigiosa maquinaria,
también en curso de organización. Los océanos se evaporaron bajo los efectos de la
radiación solar y el agua volvió a caer en forma de lluvia sobre los continentes. Las
gotas erosionaron el terreno, reuniéndose en arroyos por los que se escurren las
aguas; empezaron a dibujarse los ríos y la erosión de las rocas creó una demarcación
cada vez más profunda entre su lecho y el medio ambiente.
Finalmente se implantaron los circuitos de un elemento fluido sobre la tierra
firme.
Esta maquinaria no era inmutable. Merced a la actividad del subsuelo y la erosión
de los continentes, el relieve cambia: este río, al excavar una región, desvía el lecho
de aquél. Así fue como en Francia, las aguas del Mosela afluyeron al Mosa hasta el
día en que un pequeño torrente provocó un hundimiento en la región de Commercy:
con sus aguas, el Térouin condujo entonces el Mosela hacia el Meurthe.
Los ríos acarrean en mezcolanza todos los materiales, para verterlos al mar. Pero
bajo la influencia de la radiación solar, se produce una destilación en el gigantesco

ebookelo.com - Página 229


alambique marino y se evapora un agua pura. Así, en el transcurso de miles de
millones de años, la mar se hizo «salada».
Entretanto, las corrientes marinas efectúan inmensos transportes, distribuyendo la
arcilla y la arena, para descargarlas cuando su curso se hace más lento.
Finalmente aparece una maquinaria atmosférica: los vientos crean dunas de arena
y la atmósfera se ve sujeta a todas las acciones cósmicas, moduladas por los
movimientos de la Tierra.
Estos procesos engendran estructuras, sometidas a ritmos, nuestro planeta se
convierte en una inmensa fábrica en la que «se trata» a la materia.
La cibernética natural del cosmos nos ha mostrado la aparición espontánea de
retroacciones, que nos han permitido comprender que habían de nacer estructuras
más complejas, al estar canalizadas las retroacciones positivas por las retroacciones
negativas. En el marco terrestre, esta imagen queda perfectamente ilustrada mediante
la distinción entre fluidos y sólidos. Entonces la lucha contra el azar entra en una
nueva etapa: después de la selección de las substancias, aparece el mundo de las
formas.

El mundo de las formas


Antes de que comenzase el reinado de lo sólido, el Universo conoció las formas
engendradas por las retroacciones.
En la realidad, el modelo fundamental de la retroacción positiva obedeció a una
ley exponencial.
Dicha ley se concretó en las galaxias espirales, cuya rotación señaló las etapas de
la contracción. Y de una manera general, cada vez que un segmento que varía según
una ley exponencial, gira alrededor de una de sus extremidades, la otra describe una
curva que es la concretación polar de la ley exponencial: los matemáticos le dan el
nombre de espiral logarítmica.
La retroacción negativa, además, asegura la constancia de las magnitudes que
gobierna.
En una estrella de rotación desdeñable, cuyo régimen esté estabilizado por una
retroacción negativa, la densidad será así la misma en todas direcciones, a la misma
distancia del centro. Y la consecuencia de ello fue una simetría esférica. Por lo tanto,
el contorno aparente de las estrellas y, en general, de todos los objetos que han pasado
por el estado fluido, había de ser el círculo.

ebookelo.com - Página 230


Y esta última figura define al número π, que indica la relación entre la
circunferencia y el diámetro.
En la cibernética del Universo, las retroacciones introdujeron así
subrepticiamente los dos números-clave de las matemáticas: e y π. Aquél representa
el dinamismo de la retroacción positiva; éste, en cambio, tiene un origen geométrico:
nació en el espacio con el trabajo de una retroacción negativa, estabilizadora por
excelencia.
Estos dos números se llaman «transcendentes»; los matemáticos entienden con
ello que no pueden ser raíz de ninguna ecuación cuyos coeficientes sean números
enteros.
Pero, en cambio, a la escala de una cibernética Universal, e y π aparecen como
números naturales, pues los números enteros aún no han surgido del mundo atómico.
Las primeras estructuras astronómicas estuvieron regidas por círculos y espirales.
Volveremos a encontrarnos en los fenómenos terrestres, cada vez que subsistan
retroacciones más o menos en estado puro: en realidad, en un proceso-modelo de
retroacción positiva, el índice de crecimiento de la magnitud regida —que el
matemático llama su «derivada»— es proporcional a dicha magnitud.
Pero la verdad es que se registran situaciones mucho más complejas. Y en el caso
en que varios sistemas reaccionen, se inician relaciones entre las magnitudes y sus
derivadas: así, las ecuaciones que las expresen admitirán «curvas integrales» que
serán otras tantas formas «naturales» en el marco terrestre.
A consecuencia de ello, con el transcurso del tiempo los ríos tenderán hacia un
perfil ideal y el contorno de las costas, las laderas de las montañas y los deltas
adquirirán su aspecto característico.
Pero esto no es más que un prólogo. Estas formas son el producto de acciones de
masas: la naturaleza es una máquina analógica que resuelve ecuaciones diferenciales.
Con la conquista del número, será calculadora y geómetra.

3.— Hacia la forma y el número


La naturaleza se convierte en arquitecto. El átomo no es un paquete informe, sino un
conjunto estructurado. La mecánica de las partículas gobernó el cielo. En la Tierra y
por intermedio del átomo, introduce la aritmética en la materia.

ebookelo.com - Página 231


Mecánica del átomo
Efectivamente: los electrones se ven obligados a describir órbitas determinadas
alrededor del núcleo; a cada uno de ellos está ligada una colección de números que
someten al átomo a la ley de las cifras.
Ya habíamos trabado conocimiento con los números mágicos en el seno de las
estrellas. En los crisoles siderales, estos números favorecieron la formación de
determinados núcleos.
Unas reglas diferentes entran en acción en la etapa del átomo, construido a partir
de un núcleo, según una estructura sometida a principios de «cuantificación».
En primer lugar, si el electrón describe un círculo, su radio no puede tener un
valor cualquiera. Ciertamente, como en mecánica celeste, se puede calcular una
velocidad teórica tal, a cualquier distancia del núcleo, que la fuerza centrífuga
equilibre la atracción del centro. En este caso, la electricidad substituye a la
gravitación. Pero el sentido mismo de la mecánica cuántica es precisamente el de
prohibir que el electrón adquiera una velocidad cualquiera, pues el producto de la
cantidad de movimiento por el radio debe ser múltiplo, además, de determinado
«cuanto de acción».
Este número entero n se llama número cuántico principal y determina el nivel
energético del electrón. Atribuyéndole el valor más pequeño posible, o sea 1, se
define la órbita más próxima al núcleo que pueda ocupar un electrón.
Los radios de estas órbitas circulares tendrán de todos modos dimensiones
considerables respecto a las partículas[38].
Así, nuestra materia debe su aspecto, que nosotros hallamos natural, a una
exigencia de la mecánica de las partículas. En realidad es sorprendente, comparado
con la materia compacta de una enana blanca. La materia atómica es
extraordinariamente hinchada: las partículas que componen nuestro cuerpo no
representan siquiera el volumen de un guisante…
El segundo número cuántico b[E5], llamado azimutal, caracteriza la forma de la
trayectoria, que no tiene que ser obligatoriamente un círculo, sino que puede ser una
elipse, cuyo achatamiento estará regido a su vez por leyes cuánticas. Al nivel 1, una
sola trayectoria es posible (el círculo), pero se cuentan dos para el nivel 2 (círculo y
elipse de achatamiento 1/2), tres para el nivel 3 (círculo y elipses de achatamiento 1/3
ó 2/3)…
El tercer número cuántico considera que los diferentes electrones de un átomo
gravitan en realidad en un espacio de tres dimensiones. Asigna a cada electrón un
número cuántico j[E6] que caracteriza la orientación de su plano. La variación de este
tercer número cuántico es la misma del segundo.

ebookelo.com - Página 232


40. El átomo de hidrógeno excitado
Este esquema muestra los tres primeros «niveles» del átomo de hidrógeno: las distancias del electrón al núcleo se
hallan en la relación de 1-4-9. La caída del electrón del nivel 3 al nivel 2 crea la radiación llamada «H-alfa», cuya
longitud de onda es de 6563 ángstroms (color naranja en el espectro visible). La caída desde el nivel 2 al nivel 1
crea la radiación de Lyman, cuya longitud de onda —1216 ángstroms— se sitúa en el ultravioleta.

Por último, el cuarto número cuántico r[E7] tiene en cuenta el espín del electrón, o
sea su giro, que puede tener dos sentidos: por lo tanto r puede tener dos valores
opuestos.
Una vez sentados estos postulados, el principio de exclusión de Pauli afirma que
dos electrones de un mismo átomo no pueden tener sus cuatro cantidades idénticas.
Por definición, los electrones son partículas llamadas indiscernibles, que tienen la
misma masa, la misma carga y el mismo espín: si además sus parámetros mecánicos
fuesen idénticos, una distinción sería inconcebible.

ebookelo.com - Página 233


Las reglas del Juego
De este principio se desprenden las reglas del juego atómico: los electrones sucesivos
ocupan las «plazas libres» a partir del núcleo.
En el primer nivel sólo encontramos a dos, pues para n = 1, b y j no tienen
ninguna variación; r sólo puede tener dos valores. Esto explica que únicamente los
átomos 1 y 2 —hidrógeno y helio— tengan una capa: el nivel 1 está saturado a partir
de la etapa del helio.
Con el elemento número 3 se inicia un nuevo período: el átomo de litio posee dos
electrones en una primera capa y un electrón en una segunda, que podrá admitir ocho
electrones porque para n = 2, los números b, j, y r poseen dos valores posibles cada
uno de ellos. En este segundo período, la capa exterior cuenta sucesivamente dos
electrones con el elemento número 4 (berilio), tres con el número 5 (boro), cuatro con
el número 6 (carbono), cinco con el número 7 (nitrógeno), seis con el número 8
(oxígeno), siete con el número 9 (flúor) y ocho con el número 10 (neón).
El elemento número 11 (sodio) inaugura entonces un tercer período, con la
constitución de una nueva capa cuya capacidad será de 18 electrones (3 × 3 × 2). Y la
cuarta capa podrá aceptar teóricamente 32 electrones (4 × 4 × 2).
En realidad, sea cual fuere su rango, la capa periférica estará siempre saturada con
ocho electrones como si fuese la capa número 2: el núcleo y las capas inferiores
constituyen respecto a ella una armazón que desempeña el papel de un supernúcleo
rodeado de una capa.
Por lo tanto, el tercer período reunirá únicamente los elementos 11 a 18, y la capa
número 3 de estos átomos poseerá sucesivamente 1, 2, 3, 4, 5, 6, 7, 8 electrones. El
elemento 19 (potasio) inaugura los átomos de cuatro capas: sus electrones obedecen a
la distribución 2 + 8 + 8 + 1. Y será 2 + 8 + 8 + 2 con el elemento 20 (calcio).
Pero después los nuevos electrones se instalan en la tercera capa, que no está
saturada, según las estructuras 2 + 8 + 9 + 2 = 21 (escandio), 2 + 8 +10 + 2 = 22
(titanio), 2 + 8 + 11 + 2 = 23 (vanadio), hasta que la tercera capa tenga sus 18
electrones. En este momento, el poblamiento de la capa periférica continúa. Y la
misma operación se repite para la serie siguiente.
Semejante proceso explica la química. Si los electrones son poco numerosos en
una capa periférica y están alejados del núcleo, pueden perderse fácilmente. En
cambio, los elementos que poseen siete o seis electrones periféricos, ofrecen una o
dos «plazas libres».
Un humorista sugirió una comparación con el automovilista en busca de
aparcamiento. En una calle desierta, titubeará antes de detenerse y aunque esté solo,
tendrá tendencia a cambiar de sitio: la ausencia de otros automóviles le hará
sospechar que el estacionamiento allí está prohibido. En cambio, si hay muchos
coches aparcados, la invitación es directa. Y si en la calle sólo hay una plaza libre, el
automovilista se precipitará a ella sin querer saber más…

ebookelo.com - Página 234


Los átomos que poseen una capa periférica completa pueden compararse a calles
saturadas. Desprovistos de actividad química, estuvieron condenados a permanecer
aislados, para constituir los gases raros de la atmósfera (helio, neón, argón, criptón,
xenón y radón).
En los demás átomos, la estructura de la capa periférica viene determinada por la
valencia del elemento y las combinaciones fundamentales obedecen a unas reglas de
notable sencillez. Así, el hidrógeno, al combinarse con los primeros elementos, dará
CH4 (metano), NH3 (amoníaco) y H2O (agua).

Arquitectura atómica
A causa de las leyes de la mecánica cuántica, todos los átomos de un mismo tipo son
productos de serie, rigurosamente construidos según un modelo único. Podemos
hablar, pues, del átomo de hidrógeno o del átomo de hierro.
Y a través de los átomos que las componen, esta arquitectura se extiende a las
moléculas, cuya estructura hoy conocemos merced a los rayos X.
El químico sabe hoy que la molécula de hidrógeno es una pequeña pesa de
gimnasia, cuyos dos protones están separados por una distancia de 0,74 ángstroms.
La molécula de agua ya constituye un verdadero edificio. Su osamenta es un
acento circunflejo (con ángulo de 105°): el átomo de oxígeno está centrado en la
cúspide y en los brazos, los protones que constituyen los núcleos del hidrógeno están
a una distancia de 1,01 ángstroms de la cúspide.
La complicación aumenta con la molécula de amoníaco, cuyos cuatro átomos (un
átomo de nitrógeno y tres de hidrógeno) constituyen una pequeña pirámide, cuyos
ángulos y aristas poseen valores bien determinados.

ebookelo.com - Página 235


41. Diamante y grafito
Los dos casos extremos del diamante (máxima solidez) y del grafito (elevada friabilidad) se obtienen con dos
estructuras que utilizan ambas el átomo de carbono.

Conocemos además las dos variedades de carbono que nos dan el grafito y el
diamante. Son muy distintas: el diamante es el cuerpo duro por excelencia, mientras
que el grafito es muy friable.
Con sus cuatro electrones periféricos, en efecto, el átomo de carbono ofrece
cuatro «enlaces» posibles. Permite una arquitectura espacial en la que cada átomo,
situado en el centro de un tetraedro, está unido a cuatro átomos que ocupan los
vértices, motivo que se repite en todas las direcciones del espacio y que asegura
uniones extremadamente sólidas. Ésta es la estructura del diamante.
Pero también podemos imaginarnos un enlosado formado por hexágonos, en el
que los átomos del carbono ocuparán los vértices. Cada vértice, en efecto, solamente
estará unido a otros tres, pero es posible imaginar dobles enlaces alternos. Según este
modelo, los átomos de carbono formarán placas que, al sobreponerse, nos darán
precisamente el grafito: se hallan amontonadas, unidas apenas por enlaces
secundarios. Semejante estructura es en cierto modo sólida en el plano horizontal y
líquida verticalmente, lo que explica que el grafito constituya un lubricante excelente,
pues el espesor de las laminillas se reduce al diámetro de un átomo de carbono.
Esta «doble solución» constituye una lección nada despreciable y nos enseña que

ebookelo.com - Página 236


las características de una substancia dependen menos de los elementos que de su
manera de estar unidos. En cierto modo, la pasta tiene un valor secundario comparada
con las arquitecturas que la utilizan.
Así pues, después de la aritmética, la materia conquista la geometría. A partir del
cristal, se proyectará a la escala macroscópica.
¿Quién no ha tenido ocasión de admirar los magníficos cristales de nieve, que se
pueden observar con una simple lupa? En este caso, una sorprendente retroacción
positiva amplifica un proceso iniciado a la escala de la molécula.
Una microgota de agua en hiperfusión se solidifica, originando una plaquita de
forma hexagonal. Y este cristal se desarrollará si el medio ambiente está saturado de
vapor de agua, pues lo captará. Sin embargo, la solidificación origina un calor que
hay que evacuar. Ahora bien: los puntos del hexágono más expuestos son sin duda
alguna los vértices y es allí, por consiguiente, donde la evacuación de calorías alcanza
su mayor intensidad.
Por esta razón, las ramificaciones parten de los vértices y revisten el aspecto de
agujas, pues ésta es la forma que asegura una mayor ventilación (superficie máxima
para un mismo volumen). Aún más: las asperezas existentes a lo largo de estas agujas
se convierten en el punto de partida de nuevas ramificaciones, de las que nacen
extraordinarias arborescencias.
La verdad es que esta cibernética natural aporta al antiazar el alma de la
geometría, en un combate que ya rebasa al átomo.

Hacia la vida
Pero moléculas y cristales son más bien instalaciones industriales que palacios.
El átomo es una máquina, denominación que está justificada por la actividad de
los electrones. Invitados a ocupar normalmente los lugares más próximos al núcleo,
los electrones periféricos pasan a niveles superiores, bajo la influencia de
excitaciones externas. Su recaída se traduce por una radiación, idéntica para todos los
átomos de un mismo tipo.
Y este término de máquina aún puede aplicarse más profundamente a las
moléculas, pues las más sencillas de entre ellas se hallan animadas por movimientos
internos. Reducida a dos átomos, la molécula de hidrógeno «vibra». Las moléculas
complejas son verdaderas máquinas-herramienta.
Pero aún nacerán moléculas cada vez más evolucionadas. En si el interior de la

ebookelo.com - Página 237


corteza terrestre, las posibilidades de encuentro son limitadas y los mecanismos de
autoconcentración entran en juego para reunir las substancias por afinidad; es decir,
para agrupar compuestos del mismo tipo, que serán mezclados en los medios
líquidos. En el mar, las moléculas de una substancia ven desfilar ante ellas a todas las
demás.
Y no tardará en producirse una extraordinaria efervescencia. Bajo los efectos de
la radiación ultravioleta del Sol que, cuando la Tierra era joven, alcanzaba hasta la
superficie de los océanos, los átomos de carbono, de hidrógeno, de oxígeno y de
nitrógeno darán origen a los «aminoácidos».
Se trata de asociaciones que poseen una característica notable: estos ácidos
aminados pueden unirse prácticamente de todas las maneras posibles, como los
vagones de un tren, formando cadenas extremadamente largas.
Estas series de máquinas solidarias unas de otras constituyen así verdaderas
pequeñas fábricas que, según su estructura, harán sufrir transformaciones concretas a
la materia próxima. De esta manera fabricarán nuevas asociaciones. En esta etapa, la
evolución de los aminoácidos no se halla dirigida por ninguna voluntad, pues sus
uniones son caprichosas y se efectúan al azar. Pero empieza a dibujarse una corriente:
únicamente subsisten las asociaciones más estables, las más preparadas para soportar
los embates del azar de que serán objeto.
Además, un tipo de estas asociaciones está llamado a tener un desarrollo
obligatorio: se trata de aquéllas cuya acción sobre el medio ambiente tenga por
consecuencia la fabricación de asociaciones de la misma naturaleza.
Autorreproducción, tendencia a la constitución de edificios cada vez más
perfeccionados y más aptos para luchar contra el azar: he aquí el punto de partida de
la vida. La vida era una fatalidad. La gran retroacción positiva de la biología va a
comenzar y en virtud del carácter fundamental de todas las retroacciones positivas,
llegará tan lejos como le sea posible. De la molécula compleja pasará a la etapa de la
célula, revistiendo mil trajes, utilizando todos los medios que se le ofrezcan.
En la escuela de la vida animal, la materia biológica aprenderá a crear los
órganos, los seres, el cerebro…

ebookelo.com - Página 238


Apéndice

Definiciones y valores numéricos fundamentales


Definido sucesivamente como la diezmillonésima parte de un cuadrante del
meridiano terrestre, y después como la distancia que separa dos señales trazadas en
una barra de platino iridiado que se guarda en el pabellón parisiense de Breteuil, el
metro, unidad básica de nuestro sistema decimal, toma una longitud de onda por
referencia, desde el 1 de enero de 1962.
El metro legal equivale a partir de esta fecha «a 1 650 763,73 veces la longitud de
onda, en el vacío, de la radiación correspondiente a la transición entre los niveles 2p10
y 5d5 del átomo de criptón 86».
Las mejores determinaciones actuales han hecho que se adoptasen (1961) los
valores siguientes:

Radio ecuatorial de la Tierra = 6 378,15 ± 0,05 km.


Radio polar de la Tierra = 6 356,77 ± 0,05 km.

La velocidad c de la luz ha sido objeto de las mediciones más precisas con el


geodímetro de Bergstrand (versión moderna del dispositivo de Fizeau, en el que una
modulación de frecuencia elevada reemplaza a la rueda dentada):

c = 299 792,42 km/s.


1 año luz = 9 461 000 millones de km.
1 parsec = 3,26 años luz.

La unidad astronómica (UA), que representa la distancia media de la Tierra al


Sol, se define como «el radio de la órbita circular que describía alrededor del Sol un
planeta de masa despreciable exento de toda perturbación y cuya revolución sideral
fuese de 365, 256 898 326 3 días medios».
Los sondeos del sistema solar efectuados con radar dan como valor más probable:

1 UA = 149 596 850 km.

La unidad de masa atómica, o uma, responde hoy a la definición siguiente:

1 átomo de carbono 12 = 12 uma.

ebookelo.com - Página 239


Las masas de las partículas elementales tienen los valores siguientes:

1 neutrón = 1,008 663 uma.


1 protón = 1,007 273 uma.
1 electrón = 0,000 549 uma.

El número de Avogadro N es el número de átomos contenidos en 12 gramos de


carbono:

N = 6,0230·1023.

N moléculas de un gas cualquiera ocupan a 0° y bajo la presión normal (760 mm


de mercurio) un volumen V llamado volumen molecular:

V = 22,407 litros.

La unidad de masa métrica es el kilogramo: 1 kg = 1 litro de agua a 4 °C bajo la


presión normal.
La unidad de fuerza es el newton. Es por definición la fuerza que comunica a una
masa de 1 kg una aceleración de 1 m/s/s (aumento de velocidad de 1 m/s en un
segundo).
En París, el peso de un kilogramo equivale a 9,806 newtons.
La unidad de trabajo es el julio, que equivale a la energía desarrollada por una
fuerza de 1 newton para desplazar 1 kilogramo en 1 metro en su propia dirección.
Las otras dos unidades de energía siguientes y fuera de sistema, han sido objeto
de definiciones legales:

1 caloría = 4,1855 julios.


1 electronvoltio = 1,59·10−19 julios.

ebookelo.com - Página 240


Índice de nombres
ABBE.
AGUEKIAN.
ALFVEN.
AMBARTSUMIAN.
ARISTARCO.
ARISTÓTELES.
AVOGADRO, Amadeo.
Avogadro, número de.
ANDERSON.
BAADE.
BARTLETT.
BERGSON.
Bergstrand, geodímetro de.
BERNOULLI, Daniel.
BESSEL.
BETHE.
Bethe, ciclo de.
BODE.
BOHR, Niels.
BOLTZMANN.
BOREL, Emile.
Boyle-Mariotte, ley de.
BRAHE.
BROWN.
BRUNO, Giordano.
BUNSEN.
CAMERON.
CANNIZZARO.
CARNOT.
Carnot, principio de.
CAVENDISH.
CASSINI.
CELSIUS, Anders.
Celsius, escala de.
CLAUSIUS.
COOK.
COPÉRNICO.
CRICHFIELD.
CURIE.

ebookelo.com - Página 241


CHANDRASEKHOR.
CHKLOVSKY.
DEMÓCRITO.
DESCARTES.
Doppler-Fizeau, efecto de.
DREYER.
DUCHESNE.
EDDINGTON.
Eddington, relación de.
EINSTEIN.
Endeavor.
EÖTVÖS, Roland von.
ERATÓSTENES.
Explorer X.
Explorer XI.
FERMI.
FESSENKOV.
Fizeau, dispositivo de.
FLAMMARION.
Foucault, corriente de.
FOURCROY.
FOWLER.
GALILEO.
GALVANI.
GAY LUSSAC, José Luis.
GOEPPERT-MAYER.
GOLDSTEIN.
GUERICKE, Otto de.
GRIMM.
HALL.
HALLEY.
HARO, Guillermo.
HEISENBERG.
HELMHOLTZ.
HENDERSON.
HERÁCLITO.
HERBIG, George.
Herbig-Haro, objetos de.
Hertzsprung-Russell, diagrama de.
HEVELIUS.
HEYL.

ebookelo.com - Página 242


HILTNER.
HONG SEE CHIU.
HOYLE, Fred.
HUBBLE.
HUMASON.
HUMBOLDT, Alejandro von.
HUYGHENS.
JEANS.
JENSEN.
JOULE, James.
JOY.
KELVIN.
KEPLER.
KANT.
KHILMI.
KIRCHHOFF.
KIRKWOOD.
KUIPER.
KUTZ.
LALANDE.
LALLEMAND.
LANGEVIN.
LAPLACE.
Larsen, efecto.
LAVOISIER.
LEGENTIL.
LEIBNIZ.
LICK.
LIUBIMOVA.
LOMONOSOV.
LUCRECIO.
LUNDMARK.
LUYTEN.
Lyman, radiación de.
LYTTLETON.
Magallanes, nubes de.
MAJORANA.
MARIUS, Simon.
MAXWELL.
MENDELEYEV.
MESSIER.

ebookelo.com - Página 243


MINKOWSKI.
MITCHELL.
Monte Wilson, telescopio.
MULDEIS.
Mullard, radiotelescopio.
MUNCH, Guido.
NEPER.
NEWTON.
NORDENSKIÖLD, A. E.
OORT.
PARACELSO.
PARENAGO.
PASCAL.
PÉRIER.
PERRIER.
PERRIN, Jean.
PETTERSSON.
PITEAS.
PLATÓN.
PRIESTLEY.
PROUT.
PAULI.
Ranger V.
RAYLEIGH.
REGNAULT.
RICCI.
Roche, densidad de.
ROSS.
ROTSCHI.
ROUGOOR.
RUSSELL.
RYLE.
SAHADE.
SANDAGE.
SECCHI.
SCHATZMANN.
SCHEELE.
SCHMIDT.
SEGRÉ.
SEGUIN.
SHANE.

ebookelo.com - Página 244


SHAPLEY.
SPINOZA.
SPITZER.
STAHL.
STRUVE.
Stefan, ley de.
SUESS.
TALES DE MILETO.
TER HAAR.
THOMSON.
THORTON PAGE.
Tiros.
TITIUS, Johann.
Titius-Bode, ley de.
Titius-Bode, relación de.
TITOV.
TOLOMEO.
TORRICELLI.
TRUMPLER.
TYCHO.
UREY.
VAN DE HULST.
VOLTAIRE.
WALKER.
WATT.
WEINBERG.
WEIZSÄCKER.
WIGNER.
Wolf-Rayet, estrellas de.
YERKES.
YUKAWA.
ZWICKY.

ebookelo.com - Página 245


ALBERT DUCROCQ (Versalles, Francia, 9 de julio de 1921 - 22 de octubre de
2001).
Científico, periodista y escritor. Hijo de Armand Ducrocq, coronel de infantería, y
Germaine Adam. Cursó estudios de postgrado en la Facultad de Ciencias y Letras en
París y la Escuela Libre de Ciencias Políticas. Fue uno de los pioneros de la
cibernética, desarrolló inventos electrónicos y varios tipos de máquinas industriales.
Más conocido como escritor y periodista científico, su talento divulgador y la pasión
de sus historias son reconocidos universalmente y han inspirado a muchas
generaciones. Fue testigo privilegiado de los grandes acontecimientos de la conquista
del espacio: su gran pasión.

ebookelo.com - Página 246


Imágenes citadas

ebookelo.com - Página 247


2. Clasificación de las velocidades moleculares

Las velocidades de nuestras cien moléculas en un instante determinado (oxígeno a 15°) están clasificadas por
columnas según la cifra de las centenas (m/s): una sola molécula tiene una velocidad inferior a 100 m/s, ocho
tienen velocidades comprendidas entre 100 y 200 m/s; 15, entre 200 y 300; 22, entre 300 y 400; 21, entre 400 y
500; 14, entre 500 y 600; siete, entre 600 y 700; cuatro entre 700 y 800; tres, entre 800 y 900, dos, entre 900 y
1000; una, entre 1000 y 1100; una, entre 1100 y 1200; finalmente, una molécula tiene una velocidad superior a
1200 m/s. <<

ebookelo.com - Página 248


6. Nuestra Galaxia

El eje horizontal que sirve de referencia para medir los grados en la Vía Láctea refleja la orientación anterior de
un observador que, de pie en nuestra Galaxia, estuviese vuelto hacia el norte. <<

ebookelo.com - Página 249


24. Distribución de las pléyades según su masa

En el cúmulo de las Pléyades, las estrellas más pesadas están más cerca del centro: se toma el radio del enjambre
como unidad de longitud. <<

ebookelo.com - Página 250


33. Núcleo de la nebulosa de Andrómeda

Acoplando una cámara electrónica al telescopio de Lick, los astrónomos Lallemand, Duchesne y Walker pudieron
estudiar con gran precisión el corazón de nuestra galaxia vecina, la nebulosa de Andrómeda. Comprobaron que la
velocidad de rotación aumentó regularmente a partir del centro hasta 25 años luz: entonces alcanza 87 km/s. Estos
valores corresponden al radio del núcleo y a su velocidad ecuatorial. Al ser el crecimiento lineal, podemos deducir
que el núcleo se comporta mecánicamente como un sólido: sin duda se trata de un elipsoide, cuya revolución se
efectúa en quinientos cuarenta mil años. Su eje menor debe de medir 16 años luz y su masa se calcula en quince
mil millones de veces la masa del Sol (el 15% de la masa total de la galaxia). <<

ebookelo.com - Página 251


6. Nuestra Galaxia

El eje horizontal que sirve de referencia para medir los grados en la Vía Láctea refleja la orientación anterior de
un observador que, de pie en nuestra Galaxia, estuviese vuelto hacia el norte. <<

ebookelo.com - Página 252


7. Las cercanías de nuestra Galaxia
Se conserva la misma orientación, de las figuras 5 y 6, pero las dimensiones se han reducido en la proporción
de 20. <<

ebookelo.com - Página 253


8. Nuestro universo local

Una nueva reducción (en una proporción próxima a 150) ofrece una imagen del Universo hasta varios centenares
de millones de años luz. El cuadradito central indicado por una flecha contiene la carta precedente. <<

ebookelo.com - Página 254


5. El norte cósmico

En nuestras latitudes, esta imagen del firmamento septentrional en el mes de mayo a las 23 h (o en abril a 1 h, o
en marzo a 3 h), confunde casi la Vía Láctea con el horizonte y permite una fácil localización de las
constelaciones.

El norte cósmico está ante el observador, indicado por Casiopea. Al este está el Águila y al oeste, Taurus y
Orión. El borde de la Galaxia más próximo al Sol está en la dirección del Auriga. <<

ebookelo.com - Página 255


6. Nuestra Galaxia

El eje horizontal que sirve de referencia para medir los grados en la Vía Láctea refleja la orientación anterior de
un observador que, de pie en nuestra Galaxia, estuviese vuelto hacia el norte. <<

ebookelo.com - Página 256


La unidad astronómica (UA), que representa la distancia media de la Tierra al Sol, se
define como «el radio de la órbita circular que describía alrededor del Sol un planeta
de masa despreciable exento de toda perturbación y cuya revolución sideral fuese de
365, 256 898 326 3 días medios».
Los sondeos del sistema solar efectuados con radar dan como valor más probable:
1 UA = 149 596 850 km. <<

ebookelo.com - Página 257


Tabla I
Oxígeno 46,6%
Silicio 27,7%
Aluminio 8,1%
Hierro 5,0%
Calcio 3,6%
Sodio 2,8%
Potasio 2,6%
Magnesio 2,1%
Hidrógeno 1,0%
Otros elementos 0,5%
Composición de la masa terrestre <<

ebookelo.com - Página 258


1. Aspecto que ofrecen cien moléculas de un gas

Las máquinas electrónicas pueden simular hoy estados gaseosos. Un modelo fija la situación de cien moléculas en
el dibujo adjunto. Las moléculas se localizan mediante matrículas que permiten seguirlas y las máquinas calculan
su velocidad en cualquier instante. <<

ebookelo.com - Página 259


c = 299 792,42 km/s.
1 año luz = 9 461 000 millones de km.
1 parsec = 3,26 años luz. <<

ebookelo.com - Página 260


1 electronvoltio = 1,59·10−19 julios. <<

ebookelo.com - Página 261


La unidad de masa atómica, o uma, responde hoy a la definición siguiente:
1 átomo de carbono 12 = 12 uma.

Las masas de las partículas elementales tienen los valores siguientes:

1 neutrón = 1,008 663 uma.


1 protón = 1,007 273 uma.
1 electrón = 0,000 549 uma. <<

ebookelo.com - Página 262


La unidad de masa métrica es el kilogramo: 1 kg = 1 litro de agua a 4 °C bajo la
presión normal.
La unidad de fuerza es el newton. Es por definición la fuerza que comunica a una
masa de 1 kg una aceleración de 1 m/s/s (aumento de velocidad de 1 m/s en un
segundo).
En París, el peso de un kilogramo equivale a 9,806 newtons. <<

ebookelo.com - Página 263


20. Luminosidad de una estrella-modelo

La relación de Eddington encuentra su justificación en este gráfico que indica la luminosidad teórica de una
estrella-modelo, según cuál sea su masa. En las ordenadas, la escala es la logarítmica (los astrónomos evocan con
más frecuencia la escala de las magnitudes absolutas, dispuesta al lado). Pero en las abscisas hemos adaptado una
escala lineal para las masas: la forma de la curva pone de relieve el crecimiento vertiginoso de la luminosidad
cuando aumenta la masa. <<

ebookelo.com - Página 264


Tabla I
Oxígeno 46,6%
Silicio 27,7%
Aluminio 8,1%
Hierro 5,0%
Calcio 3,6%
Sodio 2,8%
Potasio 2,6%
Magnesio 2,1%
Hidrógeno 1,0%
Otros elementos 0,5%
Composición de la masa terrestre <<

ebookelo.com - Página 265


Notas

ebookelo.com - Página 266


[1] Hoy sabemos que, en condiciones normales, 774 litros de aire tienen el mismo

peso que un litro de agua; la imprecisión de las medidas hizo que Galileo diese la
cifra de 400. <<

ebookelo.com - Página 267


[2] Determinación actual, más precisa: 26 872·1018. <<

ebookelo.com - Página 268


[3] Véase el Apéndice[ver]. <<

ebookelo.com - Página 269


[4] 1 micrón = 1 milésima de milímetro. <<

ebookelo.com - Página 270


[5] Semejante valor no está en contradicción con el hecho según el cual en el oxígeno

a 15°, la energía de las moléculas refleja un promedio de 474 m/s: las moléculas más
rápidas son menos numerosas, pero aportan mayor energía y elevan el promedio del
mismo modo que, en un examen, las buenas notas en las pruebas dotadas de
coeficientes elevados. <<

ebookelo.com - Página 271


[6] El cero absoluto se sitúa a −273,16 °C. Se ha adoptado la cifra 273, en números

redondos, para simplificar el estudio. <<

ebookelo.com - Página 272


[7] El electronvoltio (eV) es una unidad de energía «particular» (véase Apéndice)[ver]

cuyo valor indica la energía adquirida por un electrón bajo una diferencia de
potencial de 1 voltio. Recuérdese que a 465 °C, la energía media de una molécula
equivale a 0,1 eV. <<

ebookelo.com - Página 273


[8] Véase Apéndice[ver]. <<

ebookelo.com - Página 274


[9] La energía irradiada por el Sol se aproxima a 38·1025 vatios. <<

ebookelo.com - Página 275


[10] Esta última determinación, que atribuye a Deneb una distancia de 1400 años luz,

es reciente y aún no está aceptada. En 1950, todavía se daba la cifra de menos de 500
años luz para señalar la distancia de la estrella. <<

ebookelo.com - Página 276


[11] Los astrónomos escriben con mayúscula la Galaxia (o Vía Láctea) a la que
pertenece nuestro Sol, y con minúscula cuando esta palabra se aplica a los grupos de
estrellas comparables, que constituyen otras tantas galaxias. <<

ebookelo.com - Página 277


[12] Esta matrícula es el número que le atribuyó Messier al efectuar el primer censo de

las «manchas» distinguidas en el cielo en una época en que aún no se conocía su


naturaleza. En el catálogo de este astrónomo, la nebulosa de Andrómeda recibió el
número M 31. <<

ebookelo.com - Página 278


[13] Recuérdese que las longitudes de onda de la luz violeta y roja, que señalan las

extremidades del espectro visible, están próximas, respectivamente, a 0,4 y 0,8


micrones. <<

ebookelo.com - Página 279


[14] También se ha tratado de explicar el corrimiento hacia el rojo por la teoría del

«cansancio de la luz». <<

ebookelo.com - Página 280


[15] Matrícula del tercer catálogo de Cambridge. <<

ebookelo.com - Página 281


[16] O de lo contrario la masa se convertiría totalmente en energía, ateniéndonos a la

célebre ecuación de Einstein: E = m c2 (la energía es igual a la masa, multiplicada por


el cuadrado de la velocidad de la luz). (N. del T.) <<

ebookelo.com - Página 282


[17]
El principal defensor de esta teoría, llamada de la «creación continua de la
materia», es el astrofísico inglés Fred Hoyle. (N. del T.) <<

ebookelo.com - Página 283


[18] De acuerdo con la teoría corpuscular ondulatoria, que hoy parece resucitarse. (N.

del T.) <<

ebookelo.com - Página 284


[19] Según el Explorer XI (satélite provisto de un gamma-telescopio, lanzado el 27 de

abril de 1961), la intensidad de las radiaciones que surcan el espacio es mil quinientas
veces demasiado débil para justificar una creación continua. <<

ebookelo.com - Página 285


[20] A lo sumo, con el fenómeno de las mareas, se considera que la gravitación es

capaz de deformar ligeramente. <<

ebookelo.com - Página 286


[21] Véase Apéndice[ver]. <<

ebookelo.com - Página 287


[22] Este neutrino se consideró durante mucho tiempo como algo despreciable. Pero

hoy los astrofísicos le conceden gran atención y planean la construcción de un


«neutrino-telescopio» que pudiese observar las regiones centrales del Sol. Los astros,
en efecto, son prácticamente transparentes para los neutrinos, de manera que su
detección permitiría ver las regiones donde se originan estas partículas, o sea el
mismísimo corazón de las estrellas. <<

ebookelo.com - Página 288


[23] 1 MeV = 1 millón de electronvoltios. <<

ebookelo.com - Página 289


[24] Esta matrícula es el número de la formación en el New General Catalogue de

Dreyer. <<

ebookelo.com - Página 290


[25] Descubiertas en 1867 en el Observatorio de París por los dos astrónomos que les

dieron su nombre, estas estrellas, jóvenes y de temperatura elevadísima, están


rodeadas de envoltorios gaseosos, cuya velocidad de expansión se calcula en miles de
km/s. <<

ebookelo.com - Página 291


[26] Estos tiempos corresponden a una temperatura de 15 000 000 de grados. <<

ebookelo.com - Página 292


[27] Los anglosajones utilizan un recurso mnemotécnico para recordar estas letras, que

citamos por simple curiosidad: Oh Be A Fine Girl, Kiss Me! (Oh, sé buena chica,
bésame), al que se puede añadir: Right Now, Sweetheart, para las letras R, N, S,
aplicadas a tipos estelares más raros. (N. del T.) <<

ebookelo.com - Página 293


[28] Una estrella comparable a un modelo de hidrógeno casi puro se encontrará
obligatoriamente en la serie principal, pues la masa determina la luminosidad del
astro y su radio, del que depende a su vez el color. Pero lo contrario no es cierto:
durante su evolución posterior la estrella podrá tener el radio de una estrella-modelo
de la misma energía, en un momento determinado y basándose en un funcionamiento
totalmente distinto. Los astrofísicos dirán que después de abandonar la serie principal
en el diagrama de Hertzsprung-Russell, las estrellas podrán «atravesar» de nuevo esta
serie, lo que explica las interpretaciones a veces delicadas de este diagrama. <<

ebookelo.com - Página 294


[29] Seis estrellas de la Osa Mayor parecen constituir una asociación. <<

ebookelo.com - Página 295


[30] Debe entenderse siempre por esto que el número de los núcleos de hidrógeno es

diez veces superior al conjunto de los demás núcleos. <<

ebookelo.com - Página 296


[31] Los períodos de los procesos beta suelen ser de algunos días. <<

ebookelo.com - Página 297


[32] El campo magnético terrestre vale 460 000 gammas[E3]. <<

ebookelo.com - Página 298


[33] Los campos magnéticos estelares son, en ocasiones, cien mil veces superiores al

campo terrestre. <<

ebookelo.com - Página 299


[34] La atmósfera de hidrógeno señalada recientemente en Mercurio se atribuye a

chorros de protones emitidos por el Sol y captados por el planeta. <<

ebookelo.com - Página 300


[35] O sea 1029 kg. Ésta es la cifra que hemos dado en el capítulo 4. <<

ebookelo.com - Página 301


[36] La masa de un átomo de cobre ordinario (cobre 63) representa 115 300 electrones.

<<

ebookelo.com - Página 302


[37] Véase capítulo 2[ver]. <<

ebookelo.com - Página 303


[38] Por ejemplo, el radio de la primera órbita del átomo de H vale 18 800 veces el

radio del electrón, o sea 0,529 ángstroms (un ángstrom = 1 diez millonésima de
milímetro). <<

ebookelo.com - Página 304


[E1] Desde 1990, al menos, los nombres de los isótopos se escriben intercalando un

guion, sin espacios, entre el nombre del elemento y su número másico; en este caso la
notación actualizada sería: helio-3. (N. del E. D.) <<

ebookelo.com - Página 305


[E2] En la actualidad al peso atómico se le denomina masa atómica. (N. del E. D.) <<

ebookelo.com - Página 306


[E3] 1 gamma = 10−9 teslas. (N. del E. D.) <<

ebookelo.com - Página 307


[E4] En la actualidad, el enlace H–O en el H
2O se clasifica como enlace covalente
polar, no como enlace iónico. (N. del E. D.) <<

ebookelo.com - Página 308


[E5] Actualmente se simboliza como l (L minúscula). (N. del E. D.) <<

ebookelo.com - Página 309


[E6] Actualmente se simboliza como m. (N. del E. D.) <<

ebookelo.com - Página 310


[E7] Actualmente se simboliza como s. (N. del E. D.) <<

ebookelo.com - Página 311

También podría gustarte