El Universo - Isaac Asimov

A Fred L. Whipple y Carl Sagan,
que sobre esto saben mucho más que yo.

Capítulo 1
La Tierra

Contenido:
§. Introducción
§. La Tierra plana
§. La Tierra esférica
§. El tamaño de la tierra
§. Introducción
En los últimos años, los descubrimientos que los astrónomos han logrado hacer a distancias inimaginables del espacio exterior han suscitado una curiosidad inusitada no ya en ellos mismos, sino en el público en general.
Conceptos como los quásares y los púlsares son hoy de la máxima actualidad. Y unos puntos de luz que se encuentran a miles de billones de kilómetros de la Tierra hacen que los científicos se devanen los sesos acerca del pasado remoto y del lejano futuro del Universo.
¿Se extiende el Universo hasta el infinito o existe, por el contrarío, un fin en alguna parte? ¿Se expande y contrae el Universo como un acordeón, invirtiendo en cada uno de estos movimientos miles de millones de años? ¿Hubo un momento en que explotó definitivamente? ¿Será que los fragmentos errantes, productos de esta explosión, se estén alejando unos de otros, hasta que ese fragmento en que habitamos se encuentre prácticamente solo en el Universo? ¿Tiene el Universo capacidad de renovarse? ¿Es eterno, sin origen ni fin?
En este aspecto, nuestra generación es una generación afortunada, pues estamos presenciando un período de la astronomía en el que las respuestas a tales preguntas, así como a otras muchas igualmente inquietantes, quizá se encuentren de hecho al alcance de la mano.
Por otro lado, esta situación era totalmente inesperada. Los objetos celestes que están abriendo nuevas posibilidades y perspectivas a los astrónomos eran del todo desconocidos antes de la década de 1960-1969. Los cohetes y satélites que hoy día proporcionan tal abundancia de datos a estos científicos no empezaron a lanzarse sino en los años cincuenta. Y los radiotelescopios, que desvelaron misterios insospechados del Universo, no conocieron su existencia hasta los años 1940-50.
Es más, si retrocedemos 2.500 años y nos situamos hacia el 600 a. J., comprobamos que todo el Universo que conocía el hombre de aquellos tiempos se reducía a un trozo de tierra plana, que, por añadidura, tampoco era demasiado extenso.
Esto es, más o menos, lo que el hombre de nuestros días sigue siendo capaz de percibir de un modo directo: un trozo de tierra plana; sobre su cabeza, naturalmente, el cielo con pequeños objetos luminosos que brillan sobre él. Por otro lado, tampoco parece que el cielo se extienda muy por encima de nuestras cabezas.
Entonces ¿en virtud de qué proceso del raciocinio fueron disipándose en una lejanía cada vez más remota los estrechos límites visibles para el ojo humano, hasta el punto de que no hay ya mente capaz de concebir el tamaño de este Universo al que nos estamos refiriendo ahora, ni siquiera de imaginar la tremenda insignificancia de nuestro entorno físico al lado de él?
En este libro pretendo seguir los pasos que el hombre ha ido dando con el fin de ampliar y profundizar su comprensión del Universo como un todo («cosmología»), así como del origen y evolución de éste («cosmogonía»).
En el año 600 a. J., el Imperio Asirio acababa de caer. En su época de auge había abarcado una longitud máxima de unos 2.200 kilómetros, extendiéndose desde Egipto hasta Babilonia. Este imperio no tardó en ser reemplazado por otro, el Imperio Persa, que llegó a abarcar una longitud máxima de 4.800 kilómetros, desde Cirenaica hasta Cachemira.
No cabe duda de que las gentes que habitaban en tales imperios carecían en absoluto de toda noción, siquiera vaga, acerca de la extensión de los dominios; se contentaban simplemente con vivir y morir en su terruño y, en ocasiones señaladas, a desplazarse desde la propia aldea a la vecina. No ocurría lo mismo con los mercaderes y soldados, quienes seguramente sí tenían alguna idea de la inmensidad de estos imperios y de la extensión, aún mayor, de las tierras que quedaban más allá de sus fronteras.
En los imperios de la Antigüedad tuvo que haber hombres que se ocuparan de lo que cabría considerar el primer problema cosmológico que se le plantea al erudito: ¿Tiene la Tierra un fin?
Indudablemente, ningún hombre de los tiempos antiguos llegó jamás al fin de la Tierra, por muy lejos que viajara. Algunos llegaban a alcanzar la costa de un océano cuyos límites se perdían detrás del horizonte, pero una vez embarcados y navegando en alta mar comprobaban que tampoco así llegaban al fin.
¿Significaba esto que tal fin no existía?
La respuesta dependía de la forma general que se atribuyera a la Tierra.
Todos los hombres que vivieron antes de los tiempos de los griegos admitieron el supuesto de que la Tierra era plana, como de hecho parece ser si prescindimos de pequeñas irregularidades como son las montañas y los valles. Si algún antiguo anterior a los griegos pensó de otra manera, su nombre no ha llegado hasta nuestros días, ni su pensamiento, registrado de algún modo, ha logrado sobrevivir.
Ahora bien, si la Tierra fuese efectivamente plana, una de las conclusiones que parece casi inmediata es que tuviese un fin, sea del tipo que fuere. La posibilidad alternativa a este corolario es que se tratase de una superficie plana que se extendiera sin límites; en otras palabras, una superficie de extensión infinita. Pero este concepto es sumamente molesto: a lo largo de la Historia, el hombre ha tratado siempre de rehuir el concepto de infinitud, ya sea del espacio o del tiempo, como algo imposible de concebir y entender y, por ende, como un concepto con el que no es fácil trabajar ni razonar.
Por otra parte, si la Tierra tuviera efectivamente un fin —si fuese finita— surgirían otras dificultades. ¿No se caería la gente al acercarse demasiado a él?
Naturalmente, podría suceder que la tierra firme se encontrara rodeada por completo de océanos, de suerte que nadie pudiera aproximarse al fin, a menos que fletara un barco con este propósito y navegara hasta perder de vista el continente, y más allá aún. Todavía en tiempos de Colón esta idea constituía, en efecto, un motivo nada irreal de pánico para muchos marineros.
Sin embargo, la idea de una barrera acuática protectora de la humanidad planteaba otro problema. ¿Qué era lo que impedía que el océano se derramase por los bordes, dejando la Tierra en seco?
Una posible solución a este dilema consistía en suponer que el cielo era una coraza resistente —aspecto que, en efecto, tiene a primera vista[i]— y que ésta descendía hasta unirse con la Tierra por todas partes, como efectivamente parece ocurrir. En este caso cabría concebir el Universo en su totalidad como una especie de caja cuyos lados y parte superior abombados estuviesen constituidos por el cielo, mientras que el fondo plano fuesen los mares y la tierra firme sobre los cuales viven y se mueven el hombre y todos los demás seres.
¿Qué forma y tamaño tendría un «Universo-caja» semejante?
A muchos este Universo se les antojaba en forma de tablón rectangular. Un accidente interesante de la Historia y de la Geografía es que las primeras civilizaciones establecidas en los ríos Nilo, Éufrates y Tigris, e Indo estuviesen separadas en Este y Oeste, no en Norte y Sur. A esto hay que añadir además el que el Mar Mediterráneo se extienda también de Levante a Poniente. Por ello, los escasos conocimientos geográficos de los primeros pueblos civilizados encontraron menos dificultad para propagarse en dirección Este-Oeste que en dirección Norte-Sur. Sobre esta base parece razonable, pues, imaginar el «Universo-caja» como mucho más alargado de Este a Oeste que de Norte a Sur.
Los griegos, en cambio, demostraron poseer un sentido mucho más desarrollado de las proporciones geométricas y de la simetría al concebir la Tierra como un disco circular, con Grecia, naturalmente, en el centro. Este disco plano estaba formado en su mayor parte por tierra firme, con un borde de agua («el Río Océano») a partir del cual el Mar Mediterráneo penetraba hacia el centro.
Hacia el año 500 a. J., Hecateo de Mileto (cuyas fechas de nacimiento y muerte se desconocen), el primer geógrafo científico entre los griegos, estimó que el disco circular debía de tener un diámetro de unos 8.000 kilómetros como máximo, lo cual suponía unos 51.000.000 de kilómetros cuadrados para la superficie de la Tierra plana. Por muy grande, e incluso enorme, que les pareciera esta cifra a los contemporáneos de Hecateo, lo cierto es que no representa más que una décima parte de la superficie real de la Tierra.
Pero prescindiendo de su tamaño y de su forma, ¿cómo se sostenía el Universo-caja en un sitio fijo? En la concepción de la Tierra plana, que es la que ahora nos ocupa, «abajo» indica una dirección concreta; todos los objetos pesados y terrenos caen «hacia abajo». ¿Por qué no ocurre entonces lo mismo con la Tierra?
Cabría suponer que el material del que está compuesto la Tierra plana, el suelo que pisamos, se extienda hacia abajo sin límite. Pero en este caso nos veríamos enfrentados de nuevo con el concepto de infinito. Con el fin de soslayarlo puede imaginarse la Tierra apoyada sobre algo. Los hindúes, por ejemplo, la concebían sustentada por cuatro pilares.
Mas ello no hacía sino posponer la dificultad. ¿Sobre qué se apoyaban los cuatro pilares? ¡Sobre elefantes! ¿Y sobre qué descansaban estos elefantes? ¡Sobre una tortuga gigante! ¿Y la tortuga? Nadaba en un océano gigantesco. Y este océano...
En resumen, la hipótesis de una Tierra plana, por más que pareciera pertenecer al terreno del sentido común, planteaba de un modo inevitable dificultades filosóficas sumamente serias.

§. La Tierra esférica
De hecho, para alguien que tuviese los ojos bien abiertos la idea de una Tierra plana no podía resultarle de sentido común. Pues si esto fuera así, desde cualquier punto de esta Tierra plana deberían observarse las mismas estrellas en el cielo (quizá con pequeñas diferencias debidas a la perspectiva). Ahora bien, una de las experiencias registradas por todo navegante es que cuando el barco llevaba rumbo Norte, ciertas estrellas desaparecían detrás del horizonte meridional y otras nuevas aparecían por el septentrional. Cuando se navegaba rumbo al Sur, la situación era la inversa. Este fenómeno admitía una explicación muy sencilla suponiendo que la Tierra se curvaba en la dirección Norte-Sur. (El hecho de si existía o no un efecto similar en dirección Este-Oeste quedaba oscurecido por el movimiento general Este-Oeste del cielo, que describía una vuelta completa cada veinticuatro horas.)
De acuerdo con estas observaciones, el filósofo griego Anaximandro de Mileto (611-546 a. J.) sugirió que los hombres vivían sobre la superficie de un cilindro curvado hacia el Norte y hacia el Sur. Según los conocimientos actuales, él fue el primero en sugerir para la superficie de la Tierra una forma distinta de la plana. Esta idea surgió posiblemente hacia el año 550 a. J.

01.jpg
Figura 1

Pero la idea de la Tierra cilíndrica tampoco bastaba. Un hecho observado por quienes vivían a orillas del mar y trabajaban continuamente con barcos era el siguiente: los barcos que navegaban rumbo a alta mar no iban reduciéndose de tamaño paulatinamente hasta desvanecerse en un punto infinitesimal, como cabría esperar si la Tierra fuese plana, sino que desaparecían cuando aún poseían un tamaño sensiblemente mayor que el de un simple punto; y lo primero que desaparecía era el casco, como si el barco estuviese descendiendo por una colina. Esto era, ni más ni menos, lo que cabría esperar si la superficie de la Tierra fuese curva. Pero había más, y es que los barcos desaparecían de modo muy similar cualquiera que fuese el rumbo que llevaran. En consecuencia, la Tierra se curvaba no sólo en dirección Norte-Sur, sino en todas direcciones por igual. Y la única superficie que se curva en todas direcciones por igual es la de la esfera.
Por otro lado, los astrónomos griegos también pensaron que la mejor forma de explicar los eclipses de Luna era suponiendo que ésta y el Sol ocupaban lados opuestos de la Tierra y que era la sombra de este planeta la que, proyectada por el Sol, caía sobre la Luna y la eclipsaba. La proyección de esta sombra siempre era circular, independientemente de las posiciones que la Luna y el Sol ocupasen respecto a la Tierra. El único cuerpo sólido que proyecta una sombra con sección transversal circular en todas direcciones es la esfera.
Así pues, una observación más minuciosa revelaría que la superficie de la Tierra no es plana sino esférica. El hecho de que parezca plana se debe únicamente a que la esfera es tan grande que la curvatura de la pequeña porción visible a simple vista es demasiado suave para detectarla.
Según los conocimientos actuales, la primera persona que sugirió que la Tierra era una esfera fue el filósofo griego Filolao de Tarento (480- ? a. J.), quien formuló la idea hacia el año 450 a. J.
El concepto de la Tierra esférica acabó de una vez para siempre con todos los problemas relativos al «fin» de este planeta, y ello sin introducir el concepto de infinito. La esfera tiene una superficie de tamaño finito, pero esta superficie no posee un fin; es finita pero ilimitada.
Aproximadamente un siglo después de Filolao, el filósofo griego Aristóteles de Estagira (384-322 a. J.) hizo un compendio de las consecuencias que se derivaban de la esfericidad de la Tierra.
El concepto «abajo» debía considerarse no como una dirección fija y precisa, sino como una dirección relativa. Pues si se tratase de una dirección fija, como a veces pensamos que es cuando señalamos hacia nuestros pies, entonces cabría esperar que la esfera entera de la Tierra se desplomase hacia abajo indefinidamente, o bien hasta llegar a descansar sobre algo que fuera sólido y tuviera una extensión infinita en dirección hacia abajo.
Supongamos, por el contrario, que nos limitamos a definir la palabra «abajo» como la dirección que apunta hacia el centro de la Tierra. Al decir que, en virtud de las leyes naturales, los objetos «caen hacia abajo», queremos significar que su tendencia natural es a caer hacia el centro de la Tierra. En tal caso, los objetos no caerían fuera de la Tierra, ni los antípodas tendrían la sensación de andar cabeza abajo.
La Tierra en sí tampoco puede desplomarse, pues todas y cada una de sus partes han caído ya el máximo posible, es decir, se han aproximado al máximo al centro de la Tierra. De hecho, esta es la razón de que la Tierra tenga que ser una esfera, pues este cuerpo geométrico se caracteriza por la propiedad de que la distancia total de todas y cada una de sus partes al centro de dicho cuerpo es menor que en cualquier otro sólido del mismo tamaño pero forma distinta.
Así pues, podemos afirmar que hacia 350 a. J., ningún científico dudaba ya de que la Tierra fuese una esfera. Desde entonces, este concepto ha sido admitido en todo momento por cualquier hombre culto del mundo occidental.
La idea era tan satisfactoria y estaba tan exenta de paradojas que fue aceptada aun en ausencia de pruebas de carácter directo. Una prueba de este tipo no llegaría hasta el año 1522 d. J. (dieciocho siglos después de Aristóteles), cuando la única nave que logró sobrevivir a una expedición mandada en principio por el navegante Fernando Magallanes (1480-1521) arribó al puerto, tras haber descrito por primera vez una vuelta a la Tierra: de este modo quedaba demostrado de una manera directa que aquélla no era plana.
Hoy día se ha demostrado la esfericidad de la Tierra sobre el principio real de «ver es creer». Durante los últimos años de la década de 1940-49 se consiguió lanzar cohetes a una altura suficiente para tomar fotografías de vastas porciones de la superficie terráquea; estas fotografías demostraron de un modo visible la curvatura esférica[ii].

§. El tamaño de la Tierra
Una vez establecido el carácter esférico de la Tierra, el problema de su tamaño adquiría una importancia mayor que nunca. Determinar las dimensiones de una Tierra plana y finita habría supuesto una tarea en extremo ardua, como no fuese que alguien se la recorriera de punta a punta. Una Tierra esférica, en cambio, produce efectos que varían directamente con el tamaño de la esfera.
Por ejemplo, si la esfera terráquea fuese enorme, los efectos producidos por su esfericidad serían demasiado pequeños para detectarlos de un modo fácil. La visión de las estrellas no cambiaría sensiblemente cuando el observador se trasladase unos cuantos cientos de kilómetros hacia el Norte o hacia el Sur; los barcos no desaparecerían por el horizonte cuando el observador estuviera percibiendo todavía una imagen suficientemente grande para ser visible, ni éste vería ocultarse primero el casco y luego el velamen; y, por último, la proyección de la sombra de la Tierra sobre la Luna parecería recta, pues la curvatura de dicha sombra sería muy pequeña y, por tanto, indetectable.
En otras palabras, el mero hecho de que los efectos de la esfericidadfuesen perceptibles significaba que la Tierra era una esfera, pero también que se trataba de una esfera de tamaño más bien moderado: ciertamente grande, pero no gigantesco.
Ahora bien, ¿cómo podría medirse este tamaño con cierta precisión? Los geógrafos griegos lograron establecer un límite inferior. Hacia el año 250 a. J., estos hombres sabían por experiencia que hacia Poniente la tierra se extendía algo más allá del Estrecho de Gibraltar, y que hacia Levante llegaba hasta la India, con una distancia máxima de unos 9.600 kilómetros (cifra muy superior a la estimación, aparentemente generosa, que hiciera He- cateo dos siglos y medio antes). Puesto que al cabo de dicha distancia la superficie de la Tierra no había vuelto, evidentemente, al punto de partida, el perímetro del planeta tenía que ser superior a los 9.600 kilómetros; pero cuánto mayor era algo que no podía precisarse.
El primero en sugerir una respuesta basada en la observación fue el filósofo griego Eratóstenes de Cirene (276-196 a. J.) Este filósofo sabía (o se lo comunicaron) que en el solsticio vernal, el 21 de junio, cuando el sol de mediodía se encuentra más cerca del cénit que en ningún otro día del año, este astro pasaba justamente por el cénit sobre la ciudad de Syene, en Egipto (la moderna Asuán). Este hecho podía constatarse sin más que clavar un palo vertical en el suelo y observar que no proyectaba sombra alguna. Por otro lado, repitiendo la misma operación en Alejandría, situada unos 800 kilómetros al norte de Syene, el palo proyectaba una corta sombra, la cual venía a indicar que en aquel lugar el sol de mediodía se encontraba algo más de 7 grados al Sur del cénit.
Si la Tierra fuese plana, el Sol luciría simultáneamente sobre Syene y Alejandría, prácticamente en línea perpendicular sobre ambas. El hecho de que el Sol brillase justo encima de una pero no de la otra demostraba de por sí que la superficie de la Tierra se curvaba en el espacio que mediaba entre ambas ciudades. El palo clavado en una de las ciudades no apuntaba, por así decirlo, en la misma dirección que el otro. Uno de ellos apuntaba al Sol, el otro no.
Cuanto mayor fuese la curvatura de la Tierra, mayor sería la divergencia entre las direcciones de los dos palos y mayor también la diferencia entre las longitudes de ambas sombras. Aunque Eratóstenes demostró cuidadosamente todos sus cálculos por métodos geométricos, nosotros prescindiremos de esta demostración y diremos simplemente que si una diferencia de algo más de 7 grados corresponde a 800 kilómetros, una diferencia de 360 grados (una vuelta completa alrededor de una circunferencia) debe representar cerca de 40.000 kilómetros si queremos conservar una proporción constante.
Conocida la circunferencia de una esfera, también se conoce su diámetro. El diámetro es igual a la longitud de la circunferencia dividida por z («pi»), cantidad que vale aproximadamente 3,14. Eratóstenes concluyó, por tanto, que la Tierra tenía una circunferencia de unos 40.000 kilómetros y un diámetro de unos 12.800 kilómetros.
El área de la superficie de tal esfera es de 512.000.000 de kilómetros cuadrados, aproximadamente, cifra que equivale por lo menos a seis veces la superficie máxima conocida en los tiempos antiguos. Evidentemente, la esfera de Eratóstenes se les antojaba algo desmesurada a
los griegos, pues cuando más tarde los astrónomos repitieron las observaciones y obtuvieron cifras más pequeñas (29.000 kilómetros de circunferencia, 9.100 de diámetro y 256.000.000 de kilómetros cuadrados de superficie), dichas cifras fueron aceptadas sin pensarlo dos veces. Estas cifras prevalecieron a lo largo de toda la Edad Media y fueron utilizadas por Colón para demostrar que la ruta occidental desde España a Asia era una ruta práctica para los barcos de aquel tiempo. En realidad no lo era, pero su viaje se vio coronado por el éxito debido a que el lugar donde Colón creía que estaba Asia resultó estar ocupado por las Américas.
No fue sino en 1522, con el regreso de la única nave sobreviviente de la flota de Magallanes, cuando quedó establecido de una vez para siempre el verdadero tamaño de la Tierra, vindicando así a Eratóstenes.
Las últimas mediciones dan la cifra de 40.067,96 kilómetros para la longitud de la circunferencia de la Tierra en el Ecuador. El diámetro de la Tierra varía ligeramente según la dirección debido a que nuestro planeta no es una esfera perfecta; la longitud media de este diámetro es de 12.739,71 kilómetros. El área de la superficie es de 509.903.550 kilómetros cuadrados.

Capítulo 2
El sistema solar

Contenido:
§. La Luna
§. El Sol
§. Paralaje
§. El tamaño del sistema solar
§. La Luna
Si el Universo consistiera únicamente en la Tierra, los griegos habrían resuelto el problema central de la cosmología hace 2.000 años. Pero el Universo no se reduce a la Tierra, y esto lo sabían muy bien los griegos. Por encima de aquélla se extiende el cielo.
Mientras el hombre creyó que la Tierra era plana, no hubo inconveniente alguno en concebir el cielo como una cúpula rígida cuyo borde se ajustaba al plano de la Tierra en todos los puntos de su perímetro. El espacio cerrado así formado tampoco necesitaba tener una altura desmesurada, pues con que ésta fuese de unos dieciséis kilómetros, por ejemplo, bastaría para abarcar las montañas más altas y las nubes.
Ahora bien, si la Tierra era una esfera, el cielo tenía que ser una segunda esfera, más grande que la primera y que envolviese a ésta por completo. Así pues, era la esfera del cielo (la «esfera celeste») la que constituía los límites del Universo; conocer sus dimensiones revestía, por tanto, el máximo interés.
A juzgar por los conocimientos que se derivan de observaciones puramente informales, la esfera celeste debía de ceñirse bastante a la esfera de la Tierra, quizá a una distancia de la superficie de ésta de unos dieciséis kilómetros en todas las direcciones. Si el diámetro de la Tierra era de 12.800 kilómetros, el del cielo podría ser de unos 12.832 kilómetros.
Mas no nos conformemos con observaciones puramente informales, ya que los griegos —y antes que ellos los babilonios y egipcios— tampoco se contentaron con este tipo de observaciones.
La esfera celeste parece describir una vuelta completa alrededor de la Tierra cada veinticuatro horas. Durante este movimiento da la sensación de que el cielo arrastra consigo las estrellas «en bloque», esto es, la posición relativa de las estrellas no varía, sino que éstas permanecen fijas en su sitio año tras año y generación tras generación (de ahí el nombre de «estrellas fijas»). Nada más natural, pues, que pensar que las estrellas se encontraban adosadas a la bóveda celeste como si fueran cabezas de alfiler luminosas; tal fue, en efecto, la creencia que prevaleció hasta el siglo XVII.
Por otra parte, un fenómeno que tuvo que ser observado desde los tiempos prehistóricos es que existen ciertos cuerpos celestes que se mueven con respecto a las estrellas: en un momento dado se encuentran próximos a una estrella determinada, mientras que en una ocasión posterior se hallan cerca de otra distinta. Estos cuerpos no podían estar adosados a la bóveda del cielo, sino que debían hallarse entre ésta y la Tierra.
Los antiguos conocían siete de estos cuerpos, cuyos nombres son (en la forma en que hoy los conocemos), por orden de brillo, los siguientes: el Sol[iii] la Luna, Venus, Júpiter, Marte, Saturno y Mercurio. Los griegos llamaron a estos siete cuerpos «planetes» («errantes»), debido a que erraban entre las estrellas. El vocablo ha llegado hasta nosotros en la forma «planetas».
En algunos casos era posible especular acerca de qué planetas se encontraban más cerca o más lejos de la Tierra. La Luna, por ejemplo, pasaba por delante del Sol en cada eclipse solar; por tanto, la Luna debía encontrarse más próxima a la superficie de la Tierra que el Sol.
En otros casos, los antiguos se basaron en las velocidades relativas de los movimientos planetarios respecto a las estrellas. (La experiencia nos enseña que cuanto más próximo se encuentra al observador un objeto en movimiento, mayor es la velocidad que parece llevar. Un avión en vuelo raso da la sensación de una velocidad increíble, mientras que el mismo aparato volando a un kilómetro de altura apenas parece moverse, a pesar de que quizá vuele a una velocidad mayor que cuando se desplazaba cerca del suelo.)
Basándose en las velocidades relativas respecto a las estrellas, los griegos llegaron a la conclusión de que la Luna era el más próximo de los siete planetas. En cuanto a los seis restantes, se estimó que el más cercano era Mercurio, luego Venus, el Sol, Marte, Júpiter y el más lejano Saturno.
Por consiguiente, para determinar la distancia de los cuerpos celestes es obvio que había que comenzar por la Luna, pues si resultaba imposible calcular la distancia entre este planeta y la Tierra, pocas esperanzas cabría albergar de poder determinar esta magnitud para los demás cuerpos celestes.
El primero que efectuó un cálculo riguroso de la distancia a la Luna fue el astrónomo griego Aristarco de Samos (320-250 a. J.), quien trabajó con observaciones realizadas durante un eclipse lunar. La curvatura de la sombra proyectada por la Tierra sobre la Luna permitía averiguar el tamaño de la sección transversal de dicha sombra en relación con el tamaño de la Luna. Suponiendo que el Sol estaba mucho más alejado de la Tierra que la Luna y utilizando conocimientos básicos de geometría, Aristarco logró averiguar la distancia que debía mediar entre la Luna y la Tierra para que la sombra proyectada sobre aquélla tuviese las dimensiones observadas.
Este método fue mejorado y refinado, poco más de un siglo más tarde, por Hiparco de Nicea (190-120 a. J.), otro astrónomo griego y quizá el más notable de la Antigüedad.
Hiparco llegó a la conclusión de que la distancia entre la Luna y la Tierra equivalía aproximadamente a treinta veces el diámetro de ésta. Aceptando la cifra de Eratóstenes para el diámetro de la Tierra (12.800 km.), la distancia de la Luna resultaba ser de 384.000 kilómetros.
Esta cifra es excelente si tenemos en cuenta el estado en que se encontraba el arte de la astronomía en aquellos tiempos. La cifra más exacta de que disponemos en la actualidad para la distancia media entre los centros de la Luna y la Tierra es 384.317,2 km. Decimos distancia media porque la Luna no describe un círculo perfecto alrededor de la Tierra, sino que en algunos puntos se acerca y en otros se aleja. La distancia mínima a que se acerca (perigeo) es de 356.334 km. y la máxima a que se aleja (apogeo) de 406.610 km.
Conociendo esta distancia, puede calcularse el diámetro de la Luna a partir de su tamaño aparente. Dicho diámetro resulta ser de 3.480 km., con una circunferencia, por tanto, de 10.900 km. Notablemente menor que la Tierra, pero de un tamaño todavía respetable.
Una vez determinada la distancia a la Luna, quedó refutada irremisiblemente la idea de que el cielo quizá se hallara bastante cerca de la esfera terrestre, pues incluso medida por los patrones griegos dicha distancia resultaba tremenda. El cuerpo celeste más cercano, la Luna, se encontraba a más de un tercio de millón de kilómetros. Los demás planetas tenían que estar más lejos, quizá mucho más lejos.
¿Podían seguir haciéndose estimaciones? ¿Y el Sol?
Aristarco descubrió que cuando la Luna se encontraba exactamente en el primer cuarto (o en el último), ella misma, el Sol y la Tierra ocupaban los vértices de un triángulo rectángulo. Midiendo el ángulo que separa a la Luna del Sol (vistos ambos desde la Tierra) y utilizando conocimientos elementales de trigonometría, podía calcularse el cociente entre las distancias a la Luna y al Sol. Así pues, conocida la distancia a la Luna era posible calcular la del Sol.
Por desgracia para Aristarco, la medición de ángulos en el espacio sin disponer de buenos instrumentos es una operación bastante difícil, como tampoco es fácil determinar el momento exacto en que la Luna se halla en el primer cuarto. La teoría con que trabajó este astrónomo era matemáticamente perfecta; las medidas, en cambio, tenían un pequeño error, suficiente para proporcionar unos resultados de todo punto imprecisos. Aristarco llegó a la conclusión de que la distancia del Sol era veinte veces la de la Luna. Si la Luna se hallaba a 384.000 km. de la Tierra, el Sol debía encontrarse a poco menos de 8.000.000 de km., estimación que queda muy por bajo de la realidad (pero que constituía una prueba más de la inesperada magnitud del Universo).
Así pues, podemos decir que hacia 150 a. J., y tras cuatro siglos de astronomía minuciosa, los griegos habían logrado determinar con cierta exactitud la forma y dimensiones de la Tierra y la distancia a la Luna, pero sin conseguir demostrar mucho más. Concluyeron que el Universo era una esfera gigantesca de varios millones de kilómetros de diámetrocomo mínimo, en cuyo centro colocaron un sistema Tierra-Luna con unas dimensiones que seguimos aceptando hoy día.

§. El Sol
Durante los 1.800 años que siguieron a la época de Hiparco, los conocimientos del hombre acerca de las dimensiones del Universo no progresaron. Parecía imposible calcular la distancia de cualquiera de los planetas, exceptuada la Luna, y si bien es cierto que se hicieron diversas especulaciones en torno a la distancia del Sol, ninguna de ellas poseía valor alguno.
Una de las razones que explican esta falta de progreso después de los tiempos de Hiparco es que los griegos habían desarrollado un modelo del sistema planetario cuyas aplicaciones eran bastante limitadas. Tanto Hiparco como los astrónomos que vinieron después que él consideraban la Tierra como el centro del Universo. La Luna y el resto de los planetas giraban (de un modo bastante complicado) alrededor de la Tierra; más allá de aquéllos giraba también la bóveda de las estrellas alrededor de nuestro planeta. Los detalles de este sistema quedaron registrados para la posteridad en las obras de otro astrónomo, Claudius Ptolomaeus, que vivió en Egipto y escribió hacia el año 130 d. J. Su nombre ha llegado a nuestros días en la forma Ptolomeo y el «sistema geocéntrico» («Tierra en el centro») se denomina a menudo «sistema ptolemaico» en honor suyo.
Tal sistema permitió a los astrónomos calcular los movimientos aparentes de los planetas respecto al fondo de las estrellas con una precisión suficiente para las necesidades de aquel tiempo. Pero esta precisión no bastaba para calcular distancias más allá de la Luna.
Los cimientos para la construcción de un nuevo modelo de los cielos fueron obra del astrónomo polaco Nicolás Copérnico (1473-1543), quien en un libro publicado en 1543, el mismo día de su muerte, sugirió que era el Sol, y no la Tierra, lo que constituía el centro del Universo. De acuerdo con su teoría, el sistema planetario era de hecho un «sistema solar».
En realidad, esta idea había sido sugerida ya por Aristarco diecinueve siglos atrás, pero en aquel tiempo había resultado una concepción radical, demasiado radical para poder aceptarla. De acuerdo con el «sistema heliocéntrico» («helios» significa «Sol» en griego), la Tierra y los demás planetas girarían alrededor del Sol y la ingente masa de materia sólida sobre la que pisa el hombre volaría a través del espacio, sin que aquél, el hombre, se percatara de ello. De este modo, los planetas no serían siete, sino seis: Mercurio, Venus, Marte, Júpiter, Saturno y la Tierra. El Sol no figuraría ya entre los planetas, sino que constituiría el centro inmóvil. Por otro lado, la Luna tampoco sería un planeta en pie de igualdad con el resto, ya que ésta, aunque el sistema fuera heliocéntrico, no giraría alrededor del Sol, sino de la Tierra. Los cuerpos que rotaban alrededor de un planeta recibieron el nombre de «satélites», y entre éstos figuraba precisamente la Luna.
El sistema copernicano comenzó a abrirse paso poco a poco en la mente de los astrónomos, pues por aquel entonces se había comprobado ya que la visión geocéntrica del universo presentaba numerosos defectos. Las matemáticas que requería el viejo sistema para calcular las posiciones de los planetas eran tediosas y proporcionaban resultados que no concordaban con las minuciosas observaciones realizadas por las nuevas generaciones de astrónomos pertenecientes a la primera época de los tiempos modernos.
El sistema heliocéntrico suministró resultados algo más precisos y simplificó el aparato matemático, pero tampoco era un modelo exacto: Copérnico seguía concibiendo las órbitas planetarias como combinaciones de circunferencias perfectas, concepción que resultó ser totalmente inadecuada.
En 1609 se estableció por fin un modelo exacto. Habiendo estudiado las excelentes observaciones que acerca de la posición del planeta Marte realizara su antiguo mentor, el astrónomo danés Tycho Brahe (1546-1601), Johannes Kepler (1571-1630), astrónomo alemán, decidió por último que la única figura geométrica que podía concordar con las observaciones era la elipse[iv]. Kepler demostró que el Sol ocupaba uno de los focos de la órbita elíptica de Marte.
Más tarde se comprobó que esta misma afirmación era válida para todos los planetas que giraban alrededor de la Tierra, así como para la Luna en sus evoluciones alrededor de ésta. En todos estos casos la órbita era una elipse y el cuerpo central ocupaba siempre uno de los focos de la misma.

02.jpg
Figura 2

En 1619 Kepler descubrió que la distancia media entre cualquier planeta y el Sol guardaba una relación matemáticamente muy simple con el tiempo que el planeta en cuestión invertía en describir una vuelta completa alrededor del Sol. Medir los tiempos de revolución no presentaba grandes problemas y, comparándolos entre sí, tampoco resultaba difícil calcular la distancia relativa de los diferentes planetas.
En resumen, se podía trazar un modelo muy preciso del sistema solar, especificando con exactitud la proporción entre las distintas órbitas. Sin embargo, existía un inconveniente; comparando los tiempos de revolución lo único que podía decirse era que un planeta dado se hallaba, por ejemplo, dos veces más alejado del Sol que otro, pero era imposible especificar a qué distancia exacta del Sol se hallaba uno u otro planeta. Existía el modelo, pero faltaba la escala sobre la que estaba construido. Pese a ello, el modelo dio una idea del tamaño del sistema solar: ahora se sabía que Saturno, el planeta más lejano de los que conocían los griegos (o Kepler), se hallaba a una distancia del Sol aproximadamente diez veces superior a la de la Tierra.
Ahora bien, en el momento en que se lograse determinar la distancia entre la Tierra y un planeta cualquiera, la escala quedaría fijada y podría calcularse la distancia de todos los planetas. El problema estribaba, pues, en determinar correctamente una distancia planetaria.

§. Paralaje
Para calcular la distancia de un cuerpo planetario podía hacerse uso de un fenómeno conocido con el nombre de paralaje. Este fenómeno admite una ilustración muy simple, que consiste en colocar un dedo delante de los ojos contra un fondo que no sea uniforme. Manteniendo inmóviles la cabeza y el dedo y mirando alternativamente con un ojo y otro, se observa que la posición del dedo respecto al fondo varía. Acercando más el dedo a la cara, las dos posiciones aparentes del dedo abarcarán una porción mayor del fondo.
Este efecto se debe a que entre los dos ojos existe una separación de varios centímetros, de modo que la línea imaginaria que une el dedo con uno de los ojos forma un ángulo apreciable con la que une el dedo con el otro. Si prolongamos ambas líneas hasta el fondo, resultarán sendos puntos que corresponden a las dos posiciones aparentes del dedo. Cuanto más próximo a los ojos coloquemos el dedo, mayor será el ángulo y mayor, por tanto, el desplazamiento aparente. Si los ojos estuvieran separados por una distancia mayor, aumentaría también el ángulo formado por las dos líneas, creando así un mayor desplazamiento aparente del dedo contra el fondo. (Por lo general, el fondo se encuentra tan alejado que un punto cualquiera sobre él forma con los dos ojos del observador un ángulo demasiado pequeño para poder medirlo. De ahí que el fondo pueda considerarse fijo.)

03.jpg
Figura 3

Este mismo principio cabe aplicarlo a un cuerpo celeste. Es cierto que la Luna se encuentra demasiado lejos para poder percibir alguna diferencia al mirar alternativamente con ambos ojos. Pero supongamos que observamos la Luna, contra el fondo estrellado del cielo, desde dos observatorios separados entre sí varios centenares de kilómetros. El primer observatorio verá que uno de los bordes de la Luna se baila a cierta distancia angular de una estrella concreta, mientras que en ese mismo instante el segundo observatorio medirá entre el mismo borde y la misma estrella una distancia angular distinta.
Conocidos el desplazamiento aparente de la Luna contra el fondo estrellado (suponiendo que las estrellas se hallan tan lejos que su posición permanece fija aunque varíe la situación del observatorio) y la distancia que media entre ambos observatorios, puede calcularse la distancia de la Luna con ayuda de la trigonometría.
Este experimento era perfectamente factible, pues el desplazamiento aparente de la Luna respecto a las estrellas al variar la posición del observador es bastante grande. Los astrónomos han normalizado dicho desplazamiento para el caso en que uno de los observadores vea la Luna en el horizonte y el otro justo encima de su cabeza. La base del triángulo es entonces igual al radio de la Tierra y el ángulo con vértice en la Luna es el «paralaje horizontal ecuatorial». Su valor observado es de 57,04 minutos de arco, o bien 0,95 grados de arco[v]. Desplazamiento realmente apreciable, pues equivale a dos veces el diámetro aparente de la luna llena. Se trata, por tanto, de una magnitud que se puede medir con suficiente precisión, permitiendo así obtener un buen valor para la distancia de la Luna. Esta distancia, calculada por la técnica del paralaje, concordaba bien con la cifra obtenida por ese antiguo método basado en la sombra proyectada por la Tierra durante un eclipse lunar.
Por desgracia, las condiciones que prevalecían hacia el año 1600 no permitían emplazar los observatorios a una distancia suficiente entre sí; esto, junto con la enorme distancia a que se hallaban los planetas, determinaba un desplazamiento aparente contra el fondo estrellado demasiado pequeño para ser susceptible de medidas precisas.
Años más tarde, en 1608, llegó el invento (o reinvento) del telescopio, debido al científico italiano Galileo Galilei (1564-1642). Este instrumento permitió aumentar los pequeños desplazamientos propios del paralaje, de suerte que una distancia angular imposible de detectar a simple vista se convertía, gracias al telescopio, en otra fácilmente mensurable.
Los planetas más cercanos (y por consiguiente, aquellos cuyos paralajes eran mayores) eran Venus y Marte. Venus, sin embargo, pasa tan próximo al Sol en su posición de máximo acercamiento a este astro que resulta imposible observarlo (excepto en casos muy raros, en que puede observarse contra el fondo del disco solar, cruzándolo en «tránsito»). Así pues, el objetivo lógico para la determinación del paralaje más allá de la Luna era el planeta Marte.
En 1671 se realizó la primera medida telescópica de calidad de un paralaje planetario. Uno de los observadores era Jean Richer (1630-1696), astrónomo francés que estuvo al frente de una expedición científica a Cayenne, en la Guayana francesa. El otro era el astrónomo ítalo- francés Giovanni Domenico Cassini (1625-1712), que permaneció en París. Ambos observaron el planeta Marte con la máxima simultaneidad posible y anotaron su posición respecto a las estrellas más próximas. Basándose en la diferencia de posiciones observada y en la distancia conocida de Cayenne a París, fue posible calcular la distancia de Marte en el momento del experimento.
Una vez efectuada esta medida, se disponía ya de la escala del modelo de Kepler, permitiendo así calcular todas las demás distancias del sistema solar. Cassini calculó, por ejemplo, que la distancia entre el Sol y la Tierra era de 140.000.000 de kilómetros, más de nueve millones de kilómetros inferior a la cifra real, pero resultado de todos modos excelente para ser el primer intento. La cifra de Cassini puede considerarse como la primera determinación útil de las dimensiones del sistema solar.
Durante los dos siglos que siguieron a los tiempos de Cassini se realizaron medidas algo más exactas de los paralajes planetarios. Algunas de ellas se referían a Venus, planeta que, en ciertas ocasiones, pasa justamente entre la Tierra y el Sol, apareciendo como un pequeño cuerpo circular oscuro que cruza el disco brillante del Sol. Tales «tránsitos» se registraron, por ejemplo, en 1761 y 1769. Si el tránsito se observa desde distintos observatorios, se comprueba que tanto el momento en que Venus parece establecer contacto con el disco solar, como el momento en que se separa de éste y el tiempo que dura el tránsito, difieren de un observatorio a otro. Conocidas estas diferencias y las distancias entre los distintos observatorios, es posible calcular el paralaje de Venus; a partir de él, la distancia de este planeta, y a partir de ella, la distancia del Sol.
En 1835, el astrónomo alemán Johann Franz Encke (1791-1865) utilizó los datos relativos a los tránsitos de Venus para calcular la distancia del Sol, que resultó ser de 153.450.000 km. Esta cifra excedía un poco a la real, pero sólo en algo más de tres millones de kilómetros.
La dificultad para obtener valores aún más exactos estribaba en que Venus y Marte aparecían en el ocular del telescopio como esferas diminutas, lo cual impedía fijar con precisión la posición del planeta Venus era especialmente decepcionante en este aspecto, pues la espesa capa atmosférica que lo envuelve producía efectos ópticos que velaban ligeramente el momento exacto del contacto con el disco solar durante el tránsito.
Después sobrevino un acontecimiento inesperado. En 1801, el astrónomo italiano Giuseppe Piazzi (1746-1826) descubrió un pequeño planeta cuya órbita se hallaba entre Marte y Júpiter y lo bautizó con el nombre de Ceres. Este pequeño planeta resultó tener un diámetro algo inferior a 800 km. A medida que avanzó el siglo, se fueron descubriendo cientos de planetas aún menores, todos ellos girando entre las órbitas de Marte y Júpiter. Se trataba de los «asteroides». Más tarde, en 1898, el astrónomo alemán Karl Gustav Witt (1866-1946) descubrió Eros, un asteroide cuya trayectoria se alejaba de la «zona de los asteroides». Parte de su órbita pasaba por la de Marte, aproximándose bastante a la de la Tierra.
Estaba previsto que en 1931 Eros se acercaría a la Tierra a una distancia de unos 2/3 la de Venus (que, de los grandes planetas, es el más cercano a la Tierra). Este acercamiento tan marcado significaba un paralaje nada común y fácilmente mensurable. Por otra parte, el tamaño de Eros es tan pequeño (se estima que su diámetro máximo es de unos 24 km.) que no existía atmósfera alguna que pudiese difuminar sus contornos, con lo cual, y a pesar de su proximidad, el asteroide se observaría como un simple punto luminoso. De este modo podría determinarse su posición con gran exactitud.
Inmediatamente se organizó un vasto proyecto a escala internacional. Se estudiaron miles de fotografías, llegando por fin a la conclusión, a partir del paralaje y de la posición de Eros observados, que el Sol se encontraba a muy poco menos de 150.000.000 de kilómetros de la Tierra. Esta cifra es un promedio, pues nuestro planeta gira alrededor del Sol describiendo una elipse, no una circunferencia. La mínima distancia entre la Tierra y el Sol («perihelio») es de 147.000.000 de kilómetros y la máxima («afelio») de 152.200.000 kilómetros.

§. El tamaño del sistema solar
En tiempos recientes se ha descubierto un método de medida más perfecto que el del paralaje. Se trata de una técnica que consiste en emitir al espacio ondas de radio muy cortas («microondas»), del tipo de las que se utilizan en el radar; las ondas rebotan en el planeta —Venus, por ejemplo— y vuelven a ser captadas y detectadas en la Tierra. Las microondas se desplazan a una velocidad que se conoce con gran exactitud; el lapso de tiempo transcurrido entre la emisión y la recepción también se puede medir con precisión. Así pues, se trata de una técnica que permite determinar, con mayor precisión que por el método del paralaje, la distancia de ida y vuelta recorrida por el haz de microondas y, a partir de ella, la distancia de Venus en un momento dado.
En 1961 se recibieron microondas reflejadas por Venus. Utilizando los datos recogidos se calculó que la distancia media entre la Tierra y el Sol es de 149.570.000 kilómetros.
Haciendo uso del modelo kepleriano es posible calcular la distancia entre cualquier planeta y el Sol, o bien entre aquéllos y la Tierra en un momento determinado. Sin embargo, resulta más conveniente especificar la distancia al Sol, pues ésta no varía tanto ni de una forma tan compleja como la distancia a la Tierra.
Existen cuatro maneras de expresar las distancias, todas ellas de interés.
En primer lugar se pueden expresar en millones de millas. Esta unidad es muy corriente en Estados Unidos y en Gran Bretaña para medir grandes distancias.
En segundo lugar, se pueden dar en millones de kilómetros. El kilómetro es la unidad que se emplea corrientemente en los países civilizados (exceptuados los anglosajones) para medir grandes distancias y es utilizada también por los científicos de todo el mundo, incluidos los Estados Unidos y Gran Bretaña. Un kilómetro equivale a 1.093,6 yardas o 0,6213 millas. Equivale por tanto, con una precisión razonable, a 5/8 de milla.
En tercer lugar, y con el fin de evitar los millones de millas o de kilómetros, se puede establecer que la distancia media de la Tierra al Sol valga una «unidad astronómica» (U. A. en abreviatura). De este modo, las distancias podrán expresarse en U. A., donde 1 U. A. es igual a 92.950.000 millas o 149.588.000 km. Para todos los efectos es suficientemente preciso decir: 1 U. A.= 150.000.000 de kilómetros.
En cuarto lugar, la distancia se puede expresar en función del tiempo que tarda la luz (o una radiación similar, como las microondas) en recorrerla. La luz se mueve, en el vacío, a una velocidad de 299.792,5 km. por segundo, valor que se puede redondear hasta 300.000 kilómetros por segundo sin que se cometa un error excesivo. Esta velocidad equivale a 186.282 millas por segundo.
Por consiguiente, podemos definir una distancia de aproximadamente 300.000 km. como «1 segundo-luz» (la distancia recorrida por la luz en un segundo). Sesenta veces esa cantidad, o bien 18.000.000 de kilómetros es «1 minuto-luz» y sesenta veces ésta, o sea 1.080.000.000 kilómetros, es «1 hora-luz». El error que se comete tomando una hora-luz igual a mil millones de kilómetros no es demasiado grande.
Recordando todo esto, confeccionemos una lista de los planetas conocidos en la Antigüedad, anotando al lado las distancias medias al Sol en cada una de las unidades anteriores:

tabla01.jpg

Así pues, desde los tiempos de Cassini se sabía que el diámetro del sistema solar, desde un extremo al otro de la órbita de Saturno, medía casi tres mil millones de kilómetros. El diámetro de la esfera imaginaria que abarcaba todos los planetas conocidos por los griegos no era cuestión de unos cuantos millones de kilómetros, como se suponía en tiempo de Hiparco, sino de miles de millones.
Pero esta cifra también quedó superada con el paso del tiempo. En 1781, el diámetro de las órbitas planetarias sufrió de golpe un aumento del doble, cuando el astrónomo germano-inglés William Herschel (1738-1822) descubrió el planeta Urano. Dicho diámetro volvió a doblarse luego en dos etapas: en 1846, el astrónomo francés Urbain Jean Joseph Leverrier (1811-1877) descubría Neptuno, y en 1930 el astrónomo americano Clyde William Tombaugh (n. 1906) descubría Plutón.
A continuación se especifican las distancias del Sol a cada uno de estos tres miembros lejanos del sistema solar:

tabla02.jpg

Teniendo en cuenta que la órbita más externa es la de Plutón, y no la de Saturno, vemos que el diámetro del sistema solar no es de tres mil millones de kilómetros, sino de doce mil millones. Un rayo de luz —capaz de recorrer una distancia igual al perímetro de la Tierra en 1/7 de segundo y de salvar el espacio entre ésta y la Luna en 1 Va de segundo— tardaría casi medio día en atravesar el sistema solar. En efecto, el cielo había retrocedido implacablemente desde los tiempos de Grecia.

04.jpg
Figura 4. Tamaño del sistema solar.

De hecho no hay ninguna razón para suponer que Plutón constituye la frontera de los dominios del Sol, aunque esto tampoco significa que debamos postular la existencia de planetas aun más lejanos y desconocidos (a pesar de todo, es muy posible que existan algunos muy distantes y de tamaño relativamente pequeño). Se conocen ciertos cuerpos, fácilmente visibles en ocasiones, cuya distancia máxima excede sin duda alguna a la de Plutón.
Este hecho era conocido incluso antes de que el descubrimiento de Urano viniera a dilatar, por así decirlo, las fronteras de la porción estrictamente planetaria del sistema solar. El científico inglés Isaac Newton (1642-1727) consiguió formular en 1684 la ley de la gravitación universal. Esta ley explicaba la existencia del modelo kepleriano del sistema solar de un modo matemático directo y permitía calcular la órbita de un cuerpo alrededor del Sol aun en el caso de que aquél sólo fuera visible durante parte de dicha órbita.
Esto, a su vez, hacía posible el estudio de los cometas, cuerpos de luminosidad difusa que aparecían de vez en cuando en el cielo. Durante la Antigüedad y los tiempos medievales los astrónomos habían pensado que los cometas surgían a intervalos irregulares y siguiendo trayectorias que no se sujetaban a ninguna ley natural. Las gentes, por su parte, estaban convencidas de que el único fin de estos cuerpos era el de predecir algún desastre.
El astrónomo inglés Edmund Halley (1656-1742), amigo de Newton y más joven que éste, intentó aplicar los cálculos gravitatorios a los cometas, observando que algunos de ellos, muy espectaculares, aparecían en el cielo a intervalos de setenta y cinco o setenta y seis años. En 1704, Halley lanzó la hipótesis de que todos estos cometas eran en realidad un solo cuerpo que se movía alrededor del Sol en una elipse regular, pero tan alargada que la mayor parte de la órbita quedaba a una distancia ingente de la Tierra. Cuando el cometa se encontraba lejos de la Tierra no era visible, pero cada 75 ó 76 años pasaba por la parte de su órbita más cercana al Sol (y a la Tierra) y entonces sí era posible observarlo.
Halley calculó la órbita y predijo que el cometa volvería a ser visible en 1758. Así fue (dieciséis años después de la muerte de este astrónomo), y desde entonces este cometa se llama «cometa de Halley». Repasando los archivos históricos se comprueba que hasta la fecha se han registrado 28 apariciones de este cometa, datando la primera de 240 a. J.

05.jpg
Figura 5. El cometa de Halley.

En el instante de su máxima aproximación al Sol, el cometa Halley se encuentra a sólo noventa millones de kilómetros aproximadamente de este astro, de suerte que llega a irrumpir en la órbita de Venus; pero en el momento de su máximo alejamiento del Sol, el cometa se halla a unas tres veces y media la de Saturno. En este punto, en el afelio, se encuentra a 5.300 millones de kilómetros del Sol, es decir, bastante más allá de la órbita de Neptuno. Así pues, hacia el año 1760 los astrónomos se habían percatado ya de que el sistema solar era mucho más grande de lo que los griegos habían imaginado, sin necesidad de que el descubrimiento de nuevos planetas corroborase este hecho.
Dentro de su especie, el cometa Halley es uno de los más próximos al Sol. Existen algunos cometas cuyas órbitas en torno a este astro son tan alargadas que aquéllos sólo aparecen en el cielo a intervalos de muchos siglos e incluso milenios. Estos cometas llegan a alejarse del Sol no ya miles de millones de kilómetros, sino, con toda probabilidad, cientos de miles de millones. Según una teoría formulada en 1950 por el astrónomo holandés Jan Hendrik Oort (n. 1900) es posible que exista una gran nube de cometas cuyas órbitas se hallen a distancias inmensas del Sol y, por tanto, jamás se hagan visibles.
De aquí se sigue que el sistema solar muy bien pudiera tener un diámetro máximo del orden de un billón de kilómetros o más. Un rayo de luz tardaría cuarenta días en cubrir esta distancia, de suerte que el diámetro del sistema solar puede estimarse en más de 1 «mes-luz».
Por otra parte, la relativa insignificancia de la Tierra tampoco es cuestión sólo de distancias. Observados a través del telescopio, los cuatro planetas exteriores (Júpiter, Saturno, Urano y Neptuno) se convierten en esferas de tamaño perfectamente mensurable. Una vez que se logró saber la distancia entre estos planetas y la Tierra fue posible traducir el tamaño aparente de estas esferas a medidas absolutas. Hecho esto, se comprueba que cualquiera de los cuatro planetas mencionados es un gigante comparado con la Tierra, si bien es verdad que incluso el mayor de ellos resulta enano al lado del Sol.

* * * *

Cada uno de los planetas gigantes tiene a su vez un sistema de satélites, al lado de los cuales la Tierra resulta insignificante. De los satélites exteriores, los primeros en ser descubiertos fueron los cuatro más grandes de Júpiter, observados en 1610 por Galileo a través de su primer telescopio rudimentario. De los grandes satélites, el último que se descubrió fue Tritón, satélite de Neptuno, detectado en 1846 por el astrónomo inglés.
William Lassell (1799-1880). Otros más pequeños fueron descubiertos más tarde; por ejemplo, Nereida, un segundo satélite de Neptuno, fue observado por primera vez en 1949 por el astrónomo holandés-americano Gerard Peter Kuiper (n. 1905). El número total de satélites conocidos hoy día en el sistema solar asciende a treinta y dos, incluida la Luna.

tabla03.jpg

El último satélite descubierto pertenece a Saturno y se mueve tan próximo a éste que por lo general queda enmascarado por la luz del sistema de anillos que posee Saturno. En diciembre de 1966, las posiciones relativas de la Tierra y Saturno eran tales que los anillos se veían «de canto» y no proyectaban, por tanto, luz alguna. El nuevo satélite fue observado por primera vez, recibiendo el nombre de Jano.
La tabla siguiente proporciona una idea del tamaño de algunos sistemas de satélites comparado con el de la Tierra:

tabla04.jpg

Capítulo 3
Las estrellas

Contenido:
§. La bóveda celeste
§. La multiplicidad de soles
§. En busca de los paralajes estelares
§. La distancia de las estrellas más cercanas
§. La bóveda celeste
Sí el Universo no consistiera más que en el sistema solar, el problema de su tamaño habría quedado resuelto en esencia hacia 1700. Pero el sistema solar no es todo el Universo: quedan las estrellas.
En 1700, nada impedía aún creer en una bóveda sólida que limitara el Universo y en la cual estuvieran fijadas las estrellas como puntos luminosos, como tampoco había nada que se opusiera a pensar que esta bóveda no se hallaba (posiblemente) mucho más allá de los confines del sistema solar. Tales eran las ideas de Kepler en punto a esta cuestión.
Las medidas de paralajes, que habían permitido calcular la escala del sistema solar en el siglo XVII, no eran aplicables a las estrellas y no hicieron mella, por tanto, en el concepto del «cielo sólido». La separación entre dos estrellas vecinas no variaba de un modo mensurable por muy distantes que se encontraran los observatorios terrestres desde los que se efectuaban las medidas. Incluso situando los dos observatorios en extremos opuestos de la Tierra no se apreciaba ningún cambio detectable en la posición de las estrellas. Hecho nada sorprendente, pues aun suponiendo que éstas se encontraran poco más allá de la órbita de Saturno, esta distancia sería ya demasiado grande para que el paralaje resultante pudiera ser medido con los medios de que se disponía en 1.700.
Ahora bien, la superficie de la Tierra no constituía el último recurso del astrónomo para la resolución de este problema. Cierto que el diámetro de nuestro planeta no medía más que unos 12.000 Km., pero en su movimiento alrededor del Sol el globo entero se trasladaba a través del espacio, y entre ambos extremos de la órbita mediaba una distancia de 299.000.000 de kilómetros. De modo que si se registraba la posición de las estrellas una tarde y se volvía a registrarla otra tarde, pero medio año después, el astrónomo habría realizado dos observaciones desde dos posiciones separadas entre sí una distancia equivalente a 23.600 veces el diámetro de la Tierra. El paralaje se vería multiplicado por el mismo factor. A medida que la Tierra describe su órbita, la posición aparente de una estrella cualquiera iría desplazándose, describiendo al cabo de un año una diminuta elipse en el cielo, algo así como la imagen reflejada de la órbita terrestre. La distancia angular entre el borde y el centro de la elipse sería el «paralaje estelar».
El método anterior no es aplicable a los planetas, porque éstos describen a lo largo del año una trayectoria tan complicada en el espacio que cualquier desplazamiento paraláctico originado por el movimiento de la Tierra queda enmascarado. Tratar de separar el movimiento propio del planeta de aquel otro (relativo) que posee en virtud del movimiento de la Tierra sería una tarea en extremo ardua, y por lo demás proporcionaría resultados menos precisos que los que se obtienen por el método de los paralajes ordinarios. Las estrellas, por el contrario, permanecen prácticamente fijas a lo largo del año, lo cual hacía concebir esperanzas de poder observar un desplazamiento paraláctico útil.
Pero tal desplazamiento no fue observado. La década de 1800-1809 tocó a su fin sin que los astrónomos hubiesen conseguido detectar el paralaje estelar de una sola estrella. Las razones que cabía alegar para explicar este fracaso eran varias.

06.jpg
Figura 6. Paralaje estelar.

Podía ser, desde luego, que después de todo Copérnico y Kepler estuvieran equivocados y que la Tierra no girase alrededor del Sol, sino que constituyera el centro inmóvil del Universo. En este caso sería imposible observar paralaje alguno en el transcurso de un año. De hecho, cuando Copérnico expuso por primera vez la teoría heliocéntrica, la ausencia de paralajes estelares fue uno de los argumentos más fuertes que se esgrimieron contra él. Pero las razones que abogaban en favor de la teoría heliocéntrica eran demasiado numerosas, por lo cual, y a pesar de no haberse observado ningún paralaje estelar, esta teoría acabó por afincarse firmemente en el pensamiento astronómico. La Tierra si se mueve; la ausencia del paralaje debe explicarse por otros caminos.
Por ejemplo: aun partiendo de la base de que la Tierra se mueve, no se observaría ningún paralaje si todas las estrellas se hallaran prácticamente a la misma distancia, pues este efecto sólo se manifiesta cuando se observa la posición que un objeto relativamente cercano ocupa respecto a otro más o menos distante. Si efectivamente existiera una bóveda celeste rígida, todas las estrellas experimentarían un desplazamiento idéntico al variar ligeramente la posición del observador (y esta variación por fuerza era «ligera», pues el desplazamiento máximo de la Tierra a lo largo de su órbita resulta pequeño comparado con el Universo, incluso con el pequeño Universo que algunos científicos aceptaban en 1700). En tal caso no se observaría paralaje alguno.
¿Pero se podía aceptar realmente la teoría de la bóveda celeste rígida? Varios eran los argumentos que inducían a pensar que las distancias entre las estrellas y la Tierra quizá fuesen muy variables. Las estrellas estarían entonces distribuidas a lo largo y a lo ancho de un espacio muy amplio, y el Universo no tendría una frontera rígida.
Por una parte, el brillo de las estrellas varía, hecho evidente para quien haya contemplado alguna vez el cielo de noche. De Hiparco había partido el primer intento de sistematizar de algún modo estas diferencias de brillo, para lo cual dividió las estrellas en seis clases o «magnitudes». Las estrellas más brillantes las clasificó dentro de la primera magnitud, las de brillo un poco menor dentro de la segunda magnitud, y así sucesivamente hasta llegar a la sexta, en la cual se incluían las estrellas más tenues que se pueden observar a simple vista.
Los astrónomos modernos miden el brillo de las estrellas con ayuda de instrumentos que, naturalmente, no se conocían en la Antigüedad, definiendo además las diversas magnitudes con precisión matemática. Una diferencia de 5 magnitudes (por ejemplo, de 1 a 6) representa un cociente de 100 medido en brillo. En otras palabras, una estrella de magnitud 1 es 100 veces más brillante que otra de magnitud 6. Por consiguiente, una diferencia de una sola magnitud representa, en cuanto a brillo, un cociente de 2.512, ya que 2,512 ´ 2,512 ´ 2,512 ´ 2,512 ´ 2,512 es igual a 100.
Para medir el brillo existen métodos de medida muy precisos que permiten definir la magnitud de una estrella hasta décimas de magnitud. Por ejemplo, la estrella Aldebarán, de gran brillo, tiene una magnitud de 1,1, mientras que Régulo, algo más tenue, es de magnitud 1,3. La magnitud de la estrella Polar, de menor brillo que las anteriores, es de 2,1, y la de Electra, una de las estrellas de las Pléyades, de 3,8.
Existe una serie de estrellas más brillantes que Aldebarán y, por consiguiente, de magnitud superior a 1,0. Procyon tiene una magnitud de 0,3, y Vega, más brillante aún, de 0,1. A las estrellas de máximo brillo es preciso asignarles magnitudes negativas. Canopo tiene una magnitud de —0,7 y Sirio de —1,4.
Además de las estrellas, es posible incluir en este esquema a los planetas, la Luna y el Sol. Venus, Marte y Júpiter poseen, en ocasiones, un brillo mayor que el de las estrellas más radiantes: Júpiter llega a alcanzar una magnitud de —2,5 Marte de —2,8 y Venus de —4,3. La Luna llena tiene una magnitud de —12,6 y el Sol de -26,9.
Trasladándonos al extremo opuesto podemos decir que existen estrellas más tenues que la sexta magnitud, aun cuando a simple vista son invisibles. La primera vez que Galileo enfocó su telescopio hacia los cielos, en el año 1609, observó cientos de estrellas que hasta entonces le habían resultado imposibles de detectar. Hoy día se observan y estudian estrellas de magnitud 7, 8, 9 y mucho más arriba en la escala numérica y abajo en la escala de brillos. Los telescopios más potentes con que se cuenta en la actualidad son capaces de distinguir miles de estrellas de magnitudes superiores a 23,5.
Si todas las estrellas tuvieran el mismo brillo intrínseco (o «luminosidad»), cabría suponer que la diferencia en el brillo aparente era debida única y exclusivamente a la distancia. Las estrellas más cercanas parecen más brillantes que las lejanas, por la misma razón que las farolas cercanas parecen emitir una luz más intensa que las distantes.
Nada permitía suponer en 1700 que todas las estrellas poseyeran un brillo intrínseco idéntico. Podría suceder que todas ellas se encontraran a la misma distancia de la Tierra y que la diferencia de brillo fuese una diferencia real, no aparente: las estrellas brillantes eran simplemente más luminosas que las tenues, igual que algunas bombillas son intrínsecamente más luminosas que otras.
Ahora bien, había un hecho que hacía mella de un modo contundente en la hipótesis de la equidistancia de las estrellas.
Los griegos de la Antigüedad habían registrado las posiciones relativas de las estrellas visibles, y los primeros en hacerlo fueron Aristilos y Timocares de Alejandría, en el siglo III a. J. Hiparco procedió de una forma más sistemática: hacia el año 134 a. J. tenía registrada la posición de más de 800 estrellas. Suyo fue además el primer «mapa estelar» de cierta importancia. Este mapa fue preservado para la posteridad por Ptolomeo, quien lo enriqueció con unas doscientas estrellas más.
En 1718 Halley observó, a lo largo de sus estudios sobre la posición de las estrellas, que por lo menos tres de ellas (Sirio, Procyon y Arturo) no ocupaban el lugar que les habían asignado los griegos. La diferencia era tan grande que la posibilidad de que los griegos o Halley se hubiesen equivocado era muy remota. Halley comprobó, por ejemplo, que Arturo se había desplazado un grado (dos veces el diámetro aparente de la Luna) respecto a la posición registrada por los griegos.
Halley dio como evidente que estas estrellas se habían movido. Así pues, no se trataba de estrellas verdaderamente fijas, sino que poseían un «movimiento propio». El movimiento propio de estos astros era en extremo lento comparado con el de los planetas, por lo cual era imposible detectarlo en el transcurso de un día o incluso de un año. Pero al cabo de una generación las estrellas sí se desplazan de un modo perceptible contra el fondo celeste.
La mera existencia del movimiento propio de las estrellas supuso un golpe tremendo contra la hipótesis de un cielo sólido y consistente. Había que pensar que al menos algunas de las estrellas no estaban sujetas a la bóveda celeste, y pronto cundió la impresión de que quizá ninguna de ellas lo estuviera; es más, que tal bóveda no existía.
Ahora bien, el hecho de que las estrellas no se encontraran fijadas a un objeto sólido no excluía la posibilidad de que todas ellas estuviesen situadas prácticamente a la misma distancia. Cabía pensar que estos astros, sin estar fijados a nada, estuvieran distribuidos a lo largo de una estrecha franja del espacio.
Esta hipótesis resultó ser muy improbable porque sólo una minoría exigua de las estrellas exhibía un movimiento propio mensurable. No cabe duda de que una estrella dada podía moverse sin que este movimiento fuese observable, ni siquiera a lo largo de un período bastante prolongado, pues para ello bastaba con que su trayectoria fuese paralela a la línea visual. Pero si las estrellas se movían en direcciones arbitrarias y al azar, el número de las que se moviesen más o menos en ángulo recto a la línea de observación debería ser igual al de las que lo hiciesen en dirección paralela a esta línea. Y si las estrellas poseían movimiento propio, la mitad de ellas, como mínimo, deberían exhibirlo de un modo observable. Investigaciones sumamente minuciosas demostraron, sin embargo, que los movimientos propios mensurables constituían la excepción.
Pero ¿y si abandonáramos la suposición de que todas las estrellas se encuentran a una distancia más o menos igual? Supongamos, en cambio, que están situadas a distancias muy variables. Si todas ellas se mueven a la misma velocidad, o con velocidades que oscilan entre límites razonablemente estrechos, y lo hacen en direcciones aleatorias, podemos llegar a ciertas conclusiones.
Ninguna de las estrellas que se mueven en una dirección más o menos paralela a la línea visual manifestarán un movimiento propio mensurable, va se trate de estrellas distantes o cercanas. De aquellas que se mueven en dirección perpendicular a dicha línea, las más próximas a la Tierra poseerán un movimiento propio mayor que el de las más lejanas.

07.jpg

Figura 7. Movimiento propio y distancia.

Esta asociación de los movimientos propios grandes con una relativa proximidad viene apoyada por el hecho de que son precisamente las estrellas brillantes las que con mayor frecuencia presentan un movimiento propio semejante. Las tres primeras estrellas en que se detectó un movimiento propio —Sirio, Procyon y Arturo— figuran entre las ocho estrellas más brillantes del cielo. Es evidente que una estrella relativamente próxima presentará un brillo intenso a la par que exhibirá un movimiento propio. Según este punto de vista, resulta razonable que el número de estrellas que poseen un movimiento propio mensurable sea bastante reducido. Es perfectamente lógico pensar que sólo las más próximas están suficientemente cercanas para manifestar un movimiento propio, por muy pequeño que sea, y que más allá de éstas se encuentran millones de otras estrellas demasiado remotas para mostrar un movimiento perceptible, incluso a lo largo de varios siglos.
Hacia mediados del siglo XVIII estaba perfectamente establecido que no existía ni una bóveda celeste rígida, ni siquiera una franja relativamente estrecha por la cual circulaban las estrellas. Todo lo contrario: éstas se encontraban distribuidas a lo largo y a lo ancho de un espacio vasto e indefinido.
En realidad, esta idea había sido sugerida por algunos eruditos medievales, como el filósofo alemán Nicolás de Cusa (1401-1464); pero lo que en aquellos tiempos había sido mera especulación se convertía ahora en un resultado deducido de observaciones minuciosas.

§. Una multiplicidad de soles
Pero se planteaba una nueva cuestión: si la Tierra se mueve y si las estrellas se encuentran distribuidas a distancias arbitrarias ¿por qué no exhiben las más alejadas un paralaje estelar respecto a las más próximas?
Una de las explicaciones que se dieron de este hecho era tan obvia que fue admitida de un modo casi inmediato: aun las estrellas más próximas se encontraban a tal distancia que sus paralajes eran demasiado pequeños para ser detectados con los instrumentos de que se disponía hacia 1800. (De hecho, Copérnico había esgrimido este mismo argumento contra aquellas críticas que utilizaban la ausencia de paralajes estelares como prueba en contra de la teoría heliocéntrica.) Efectivamente, mediante diversos razonamientos lógicos se podía llegar a hacer una estimación grosera de la distancia de las estrellas más cercanas.
Supongamos, por ejemplo, que las estrellas se mueven realmente a la velocidad de los planetas. En este caso es posible estimar la distancia a la cual el movimiento propio de una estrella se reduce a ese reptar infinitamente lento y apenas mensurable que se observa desde la Tierra.
El movimiento propio más rápido lo posee la «estrella de Barnard», llamada así porque fue descubierta, en 1916, por el astrónomo americano Edward Emerson Barnard (1857-1923). Dicho movimiento es de 10,3 segundos de arco por año.
Para comprender la insignificancia de esta magnitud, recordemos que la circunferencia se divide en 360 grados, cada grado en 60 minutos y cada minuto en 60 segundos. Un segundo de arco representa 1/1.296.000 del circuito celeste. Puesto que la Luna tiene un diámetro de 31 minutos de arco, un segundo equivaldría también a 1/1860 del diámetro de la Luna. Júpiter aparece en el cielo como un simple punto de luz, pero el diámetro de su globo, observado a simple vista, es de 30-50 segundos de arco, según la distancia a que se encuentre de la Tierra.
Así pues, decir que la estrella de Barnard se mueve 10,3 segundos de arco al año equivale a afirmar que en un año recorre aproximadamente 1/180 del diámetro de la Luna o bien un cuarto del diámetro de este punto de luz que es Júpiter. Y a pesar de todo, este movimiento propio es tan rápido (comparado con los demás) que la estrella se denomina a veces «estrella fugitiva de Barnard». Lo más frecuente es que los movimientos propios sean del orden de 1 segundo de arco por año, o menos.
Supongamos, pues, que la estrella de Barnard se mueve realmente en dirección perpendicular a nuestra línea visual con la misma velocidad que la Tierra en su trayectoria alrededor del Sol: 28,8 km., por segundo. En un año habría viajado unos 940.000.000 de km. Para que esta distancia corresponda a sólo 10,3 segundos de arco, la estrella de Barnard tendría que encontrarse a unos dieciséis billones de kilómetros de la Tierra, es decir, miles de veces más lejos del Sol que Plutón. Y en estas condiciones, el paralaje que exhibiría la estrella de Barnard sólo sería de 1 segundo de arco. Suponiendo que esta estrella se moviera a una velocidad superior a la de la Tierra (como de hecho ocurre), llegaríamos a la conclusión de que su distancia es aún mayor y su paralaje, por consiguiente, más pequeño todavía.
La tarea de detectar en los cielos la diminuta elipse (1 segundo de arco, o menos, de eje mayor, por ejemplo) que describe una estrella ponía en serios apuros a los astrónomos. El tamaño de esta elipse sería, grosso modo , el de una moneda de cinco pesetas vista desde una distancia de seis kilómetros. Cierto que un movimiento propio de 1 segundo de arco por año no resulta demasiado difícil de observar, pero es que los movimientos propios progresan siempre en la misma dirección, acumulándose, por así decirlo, de año en año. Al cabo de un siglo, una estrella que se mueva a 1 segundo de arco por año se habrá desplazado casi 2 minutos de arco a través del cielo, y esta variación es perfectamente observable con el telescopio. Los movimientos paralácticos, por el contrario, oscilan eternamente de un lado para otro sin acumularse en el transcurso del tiempo.
Si las estrellas se encuentran de hecho a decenas de billones de kilómetros de nosotros como mínimo, resulta interesante pensar que, aun así, sean visibles. A dicha distancia, un objeto de brillo tan tremendo como el Sol aparecería como un diminuto punto de luz, es decir, daría la sensación de ser una estrella. Y a la inversa, cualquier estrella, observada desde una distancia equivalente a la que nos separa del Sol, adquiriría un brillo tan enorme que se nos antojaría otro objeto solar.
Dicho con otras palabras, el Sol es una estrella que sólo difiere de las demás en que la observamos desde una distancia de millones de kilómetros en vez de billones de kilómetros, como ocurre en todos los demás casos. Y también debemos considerar el Universo como un conjunto inmenso de soles, de los cuales el nuestro sólo es uno.
Supongamos ahora que la estrella Sirio fuese tan luminosa como el Sol y que si la luz que llega hasta nosotros es menor, ello se deba solamente a la gigantesca distancia que nos separa de dicha estrella. Sirio tiene una magnitud de —1,6 y el Sol de —26,9, es decir, éste es 25,3 veces más brillante que aquél. Puesto que cada magnitud representa un aumento de brillo por un factor de 2,512, el brillo observado del Sol es 13.200.000.000 de veces el de Sirio.
El brillo de una fuente luminosa varía en proporción inversa al cuadrado de la distancia, lo que equivale a decir que si alejamos la fuente a una distancia doble de la anterior, el brillo disminuirá en (1/2)2 ó 1/4; si la alejamos a una distancia equivalente a cinco veces la anterior, su brillo se reducirá en (l/5)2 ó 1/25.
Para que Sirio resplandezca con un brillo 1/13.200.000.000 veces inferior al del Sol, debe encontrarse 115.000 veces más lejos que éste, ya que-115.000 X 115.000 es igual a 13.200.000.000. Con este razonamiento y sabiendo que el Sol se halla a unos 150.000.000 de km. de nuestro planeta, llegamos a la conclusión de que Sirio debe estar a una distancia algo superior a los 16 billones de kilómetros. En resumen, sea cual fuere el argumento en que nos apoyemos —el del movimiento propio de las estrellas o el de su brillo— desembocamos siempre en las mismas distancias colosales, viéndonos obligados a esperar, en consecuencia, unos paralajes infinitamente pequeños.
Expresar una distancia en billones de kilómetros dice más bien poco. En lugar de ello podemos hacer uso de las unidades de distancia que se derivan de la longitud recorrida por la luz en una unidad concreta de tiempo. Ya dijimos que una hora-luz equivale a 1.080.000.000 de km., pero en lugar de horas-luz consideremos años- luz. A la velocidad de 300.000 km., por segundo, la luz recorre en un año 9.440.000.000.000 de km. Podemos decir, con una precisión aceptable, que un año-luz es igual a diez billones de kilómetros.
Utilizando esta unidad vemos que Sirio (por el razonamiento expuesto antes) se encuentra a unos 16 billones de kilómetros, o aproximadamente dos años-luz, de la Tierra. Y puesto que Sirio es, con toda seguridad, una de las estrellas más próximas (conclusión a que se llega tanto por el criterio del brillo como por el del movimiento propio), es forzoso deducir que todas las distancias estelares hay que medirlas, como mínimo, en años luz. Con el fin de establecer una comparación con el sistema solar, pensemos que un rayo de luz —que salva la distancia entre el Sol y la Tierra en ocho minutos y la que existe entre el Sol y el remoto Plutón en cinco horas y media— no alcanzaría las estrellas más próximas sino al cabo de un viaje de varios años.

§. La busca de los paralajes estelares
A medida que fueron pasando los años y la potencia de los telescopios fue creciendo, aumentaron también las esperanzas de poder detectar los diminutos paralajes estelares y de llegar a determinar las distancias de algunas de las estrellas más próximas, no a partir de supuestos más o menos endebles, sino de modo directo. Mas, por desgracia, sucedía que cuanto más de cerca se observaban estos astros, más complejo parecía el problema.
Por ejemplo, las estrellas más próximas, de las cuales cabía esperar un paralaje grande, eran también aquellas que poseían un movimiento propio bastante considerable, movimiento que era necesario discriminar del desplazamiento paraláctico.
La situación se complicó aún más en 1725, cuando el astrónomo inglés James Bradley (1693-1762), en el curso de una medición precisa de las posiciones estelares, observó pequeños desplazamientos que, efectivamente, hacían que la estrella en cuestión describiese una elipse diminuta en el cielo a lo largo de un año. El problema estribaba en que la posición de la estrella no variaba de acuerdo con lo que cabía esperar de un desplazamiento paraláctico. En vez de pasar por su posición más meridional en diciembre, la estrella lo hacía en marzo, conservando este retraso de tres meses a lo largo de toda la elipse.
En 1728 Bradley consiguió demostrar que este efecto se debía al movimiento de la Tierra a través de los rayos de luz que, procedentes de las estrellas, incidían sobre ella.

08.jpg
Figura 8. Aberración

Para aclarar este fenómeno se suele establecer una analogía con las gotas de lluvia. Si la lluvia cae vertical y el individuo permanece quieto en un mismo sitio, basta que sostenga el paraguas sobre su cabeza para no mojarse. Pero si empieza a andar hacia adelante, algunas gotas salvarán la barrera del paraguas e incidirán sobre el individuo. Lo que tiene que hacer éste entonces es inclinar ligeramente el paraguas en la dirección de la marcha. Cuanto más de prisa ande, más tendrá que inclinar el paraguas, y si cambia la dirección de la marcha también deberá modificar la dirección de aquél.
Algo parecido ocurre con la Tierra: puesto que ésta se mueve a través de una «lluvia» de rayos de luz, el astrónomo deberá inclinar su telescopio un cierto ángulo (muy pequeño) que depende del cociente entre la velocidad de la Tierra y la de la luz. A medida que la dirección de marcha de nuestro planeta va variando en su revolución en torno al Sol, el astrónomo deberá ir modificando la dirección del telescopio de modo acorde. El resultado final es que la estrella describe aparentemente una elipse en el cielo, pero una elipse que no es de origen paraláctico.
El fenómeno que acabamos de describir se denomina «aberración de la luz» y su efecto sobre la posición estelar es mayor que el que produciría el paralaje. Como consecuencia de la aberración, la posición aparente de una estrella puede llegar a desplazarse hasta cuarenta segundos de arco; para detectar el paralaje en estas condiciones habría que separarlo de aquel primer efecto, que es mucho mayor.[vi]
Bradley descubrió asimismo que la dirección del eje de la Tierra respecto a las estrellas oscila ligeramente con un período de dieciocho años y medio, como si nuestro planeta cabecease. Este movimiento se denomina «nutación» (de la palabra latina «nutare», cabecear). El movimiento de nutación se traduce en ligeros cambios en la posición aparente de las estrellas, efecto que también es preciso separar de cualquier posible desplazamiento paraláctico.
La busca del paralaje estelar, que condujo a Bradley al fenómeno de la aberración, llevó a Herschel (el descubridor de Urano) a un hallazgo aún más interesante.
Herschel pensó que eligiendo dos estrellas muy próximas entre sí le resultaría más fácil detectar los cambios minúsculos originados por el paralaje estelar. Este razonamiento se basaba en la hipótesis de que aunque ambas estrellas se encontraran muy cerca de la misma línea visual, una de ellas podría ser mucho más distante que la erra. En este caso, daría la sensación de que la más cercana se estaba moviendo con respecto a la otra. (La idea de llevar a cabo este experimento provino en origen ce Galileo.)
Herschel detectó ciertos desplazamientos casi de entrada, pero no podían atribuirse al paralaje estelar. Un desplazamiento paraláctico (después de eliminar los efectos del movimiento propio, aberración de la luz y nutación) debía producir una elipse completa en el lapso de tiempo de un año, cosa que los desplazamientos observados por Herschel no cumplían. Las estrellas observadas por este astrónomo describían elipses, pero no las completaban sino al cabo de un período mucho más largo que un año.
En 1793, Herschel llegó el convencimiento de que lo que estaba observando era el caso de dos estrellas girando una alrededor de la otra en torno a su centro de gravedad común. Los desplazamientos detectados sólo dependían de la atracción gravitatoria mutua y nada tenían que ver con el paralaje. No se trataba de dos cuerpos independientes que aparentaran estar juntos porque diese la casualidad de que ambos se encontraban próximos a la misma línea visual (aunque esta posibilidad no se excluye en algunos casos), sino que de hecho ambas estrellas estaban muy cerca una de otra. Herschel había descubierto las «estrellas binarias». A lo largo de los años subsiguientes descubrió unas 800 estrellas de este tipo, y desde aquellos tiempos hasta la fecha el número de estrellas binarias conocidas ha aumentado a 60.000.

09.jpg
Figura 9. El movimiento de Sirio

Pero había más: el movimiento producido por la presencia de una estrella vecina próxima podía detectarse aun cuando esta estrella en sí no fuese observable En 1844, el astrónomo alemán Friedrich Wilhelm Bessel (1784-1846), estudiando la estrella Sirio, comprobó que su movimiento propio no era una línea recta, como cabría esperar, sino una línea ondulada. Si hubiera existido una estrella concomitante, no habría resultado difícil explicar el origen de la trayectoria ondulada: sería la superposición del movimiento elíptico en torno a la estrella compañera, por una parte, y del movimiento propio rectilíneo, por otra. Pero esta estrella concomitante no era visible. Bessel sugirió la presencia de una «compañera oscura», quizá un trozo ya apagado de una estrella que en su día tuvo brillo propio; una compañera que ya no era visible, pero que seguía existiendo y ejerciendo una fuerza gravitatoria.
La idea de Bessel se vio confirmada en 1862, año en que el astrónomo norteamericano Alvan Graham Clark 1832-1897) detectó un punto de luz muy tenue cerca de Sirio. Este punto resultó ser la «compañera oscura» de Bessel. Después de todo, no era completamente oscura, Hinque su magnitud era de sólo 7,1.

§. La distancia de las estrellas más cercanas
A medida que los instrumentos astronómicos iban perfeccionándose y se iba suprimiendo obstáculo tras obstáculo —léase movimientos complejos de las estrellas—, seguía creciendo la esperanza de poder llegar algún día detectar el paralaje estelar. Los intentos en este sentido fueron adquiriendo mayor empuje y refinamiento, hasta que en los años 1830-39 se abordó el problema desde tres puntos diferentes y de forma independiente.
En Sudáfrica, el astrónomo escocés Thomas Hender- son (1798-1844) estaba dedicado a la tarea de registrar con exactitud la posición de Alpha Centauri. Se trata de una estrella que en la escala de brillo ocupa el tercer lugar (aunque se encuentra demasiado al sur para ser observada en las latitudes templadas septentrionales), lo cual le hacía suponer a Henderson que era también una de las más cercanas.
En las provincias bálticas de Rusia, el astrónomo germano-ruso Friedrich Georg Wilhelm von Struve (1793-1864) estaba registrando la posición de Vega, la cuarta estrella en la escala de brillo, lo cual también permitía pensar que se trataba de una de las más próximas.
En Königsberg, en Prusia oriental, Bessel (quien en la década siguiente descubriría el compañero de Sirio) seguía otros derroteros. El criterio que estaba utilizando para medir la proximidad de las estrellas no era el brillo, sino la rapidez del movimiento propio. Con este fin seleccionó una estrella conocida por 61 Cygni (en la constelación Cygnus, el Cisne), de la cual se sabía que poseía un movimiento propio de 5,2 segundos de arco por año. En aquel entonces este era el mayor movimiento propio de los que se conocían[vii].
Bessel estimó que 61 Cygni, a pesar de la falta de brillo, debía ser una estrella cercana. En el curso de sus trabajos midió las distancias entre 61 Cygni y dos estrellas vecinas y muy tenues (por lo que cabía esperar que fuesen también muy distantes), utilizando para ello un nuevo instrumento, el heliómetro, capaz de proporcionar medidas muy exactas de distancias angulares. Esta tarea le llevó más de un año.
Los tres astrónomos consiguieron al fin determinar el paralaje de las estrellas que estaban estudiando. Bessel fue el primero en anunciar sus resultados: lo hizo en 1838. Henderson, que había completado su trabajo antes que Bessel, esperó a volver a Inglaterra, por lo cual no hizo públicos sus resultados hasta 1839. Struve, por último, publicó los suyos en 1840.
Tras introducir, durante los años subsiguientes, ciertas mejoras en los resultados originales, resultó que Alpha Centauri (en realidad una estrella triple: dos de los miembros del sistema son de tamaño apreciable y muy próximos entre sí; el tercero es un compañero muy distante v tenue) tiene un paralaje de 0,760 segundos de arco. Y este paralaje, a pesar de equivaler a sólo tres cuartos de un segundo de arco, ha resultado ser el mayor de los detectados hasta la fecha. Así, pues, fuera de nuestro sistema solar el sistema más próximo a nosotros es Alpha Centauri, situado a 4,29 años-luz.
En cuanto a 61 Cygni se comprobó que también se trataba de una estrella doble. Su paralaje resultó ser de -29 segundos de arco y su distancia de 11,1 años-luz. De las tres estrellas, Vega fue la de t-rato más difícil por culpa de su lejanía. Su distancia es de unos 27 años-luz.
Una vez determinados los paralajes se puso de moda una segunda unidad de distancia, introducida por el astrónomo inglés Herbert Hall Turner (1861-1930), quien pensó que una unidad adecuada sería la distancia a la cual una estrella presenta un paralaje de un segundo. Zata unidad es el «paralaje-segundo», que se abrevia siempre como «parsec». Un parsec es igual a 3,26 años- luz, o 200.000 unidades astronómicas o 30 millones de kilómetros.
A continuación hemos tabulado las distancias a algunas de las estrellas más próximas en el cuadro que se inserta a continuación.

tabla05.jpg

Ahora ya no cabe duda de que el sistema solar se encuentra aislado en medio de un vacío gigantesco. Las estimaciones aproximadas que hicimos antes, en este mismo capítulo, resultan ser sobremanera tímidas. La estrella de Barnard, cuya distancia la estimamos en dieciséis billones d kilómetros basándonos en la hipótesis de que se movía a la misma velocidad que la Tierra, en realidad se mueve más deprisa y su distancia es de 56 billones de kilómetros. Sirio, cuya distancia se estimó en dieciséis billones de kilómetros basándonos en que fuese igual de luminosa que el Sol, en realidad es mucho más luminosa que éste y se encuentra a ochenta billones de kilómetros. E incluso la estrella más cercana, Alpha Centauri, dista unos 40 billones de kilómetros de la Tierra.
Dicho con otras palabras, la estrella más cercana dista del Sol unas 7.000 veces más que Plutón. Imaginemos que trazamos una circunferencia con centro en el Sol y Alpha Centauri es un punto de la circunferencia. Si reducimos ahora la escala de modo que el radio valga unos 8 metros (dentro de esta circunferencia cabría una casa de buen tamaño), entonces la órbita de Plutón alrededor del Sol aparecería como una elipse diminuta con un diámetro máximo de 1/4 de centímetro.
Una vez conocida la distancia real de una estrella es posible calcular su luminosidad a partir de su magnitud aparente; o a la inversa, determinar qué brillo presentaría a una distancia dada. El brillo de una estrella a la distancia (arbitraria) de 10 parsecs (o 32,6 años-luz) se denomina «magnitud absoluta» de la estrella.
Si el Sol se encontrara a una distancia de 10 parsecs (en vez de 0,000005 parsec como ocurre en realidad), tendría una magnitud de 4,9 y sería una estrella muy tenue. Si colocáramos a Sirio a una distancia de 10 parsecs en lugar de los 2,67 parsecs a que se encuentra en realidad, su brillo también se atenuaría, pero no excesivamente. Su magnitud absoluta es 1,4.
A distancias iguales de la Tierra, Sirio sería 3,5 magnitudes más brillante que el Sol. Puesto que 1 magnitud equivale a un factor de 2,512 en brillo, podemos decir que Sirio es (2,512)'3, s o veinticinco veces más luminosa que el Sol.
En la tabla siguiente damos cifras referentes a la magnitud absoluta y a la luminosidad de algunas estrellas bien conocidas:

tabla06.jpg

En otras palabras: el Sol, el objeto más glorioso de nuestro cielo y que Copérnico considerara como el centro del Universo, no sólo es simplemente una estrella, sino simplemente una estrella ordinaria. Hay muchas erras estrellas miles de veces más luminosas que el Sol.
Mas tampoco hay razón para sentirnos cohibidos, pues aunque el Sol no es la estrella más brillante, tampoco es la más tenue.
En efecto, de las cincuenta estrellas más próximas al Sol, sólo tres —Sirio, Procyon y Altair— son notablemente más luminosas que él. Las dos estrellas más grandes del sistema Alpha Centauri (Alpha Centauri A y Alpha Centauri B) son aproximadamente igual de luminosas que el Sol. Las cuarenta y cinco restantes son todas ellas más tenues que él, algunas de ellas incluso con gran diferencia.

Capítulo 4
La galaxia

Contenido:
§. La paradoja de Olbers
§. El lente de Herschel
§. El sol en movimiento
§. Cúmulos estelares
§. La paradoja de Olbers
Hemos visto que hacia 1840 los astrónomos consiguieron por fin resolver el problema de la distancia de las estrellas, o al menos de las más cercanas, hallando que se encontraban a algo más de un parsec.
La siguiente cuestión, en cierto modo inevitable era: ¿Dónde acaban las estrellas? ¿A qué distancia se encuentra la estrella más lejana? A fin de cuentas, la Tierra tiene una superficie finita y el sistema solar ocupa una porción limitada del espacio. Pero al establecer el siguiente «nivel» ¿estamos todavía en el dominio de lo finito o nos enfrentamos ya con lo infinito, ese concepto que desee el principio preocupó tanto a los hombres de ciencia?
Si nos restringimos a la porción de espacio que se puede ver a simple vista, no cabe duda de que el Universo es finito. Ahora bien, se sabe que, a! menos en la región que nos circunda, la distancia media entre dos estrellas cualesquiera es de unos 3 parsecs (10 años-luz). También sabemos que a simple vista se pueden observar unas 6.000. Si suponemos que fuera de ellas no existe ninguna más y que cada dos de ellas están separadas por la distancia promedio, bastaría una esfera de unos 100 parsecs de diámetro, o 330 años-luz, para abarcar esas 6.000 estrellas. Esta cantidad resulta ciertamente impresionante al lado de los patrones terrestres ordinarios. Un diámetro de 100 parsecs equivale aproximadamente a tres mil billones de kilómetros (3.000.000.000.000.000); el tamaño de la esfera correspondiente habría dejado atónito a cualquier astrónomo anterior al año 1600 y a más de uno de los que vivieron después.
Pero el número de estrellas no es de 6.000 ni por aproximación. Desde el mismo instante en que Galileo enfocó su primer telescopio hacia los cielos en 1609, descubrió un sinnúmero de estrellas tenues que a simple vista pasaban inadvertidas. Y cada vez que introducía una mejora en el telescopio, se desvelaba la existencia de una serie aún más copiosa de estrellas todavía más tenues.
De momento no parecía vislumbrarse ningún posible fin. En 1800 ya se había pasado de un Universo de 6.000 estrellas y un diámetro de 100 parsecs a otro con un número infinito de estrellas y carente por completo de fronteras. Siendo esto así, la pregunta « ¿A qué distancia se encuentra la estrella más lejana?» no tendría respuesta porque siempre cabía decir «si es que no hay una estrella que sea la más lejana».
Pero una vez más, la idea del infinito repelía a la mente humana. El ataque contra la hipótesis de un posible universo infinito se llevó a cabo en dos frentes: uno teórico, el otro basado en la observación.
Las razones teóricas para dudar de la existencia de un universo de infinitas estrellas surgieron de ciertas ideas expuestas por el astrónomo alemán Heinrich Wilhelm Mattháus Olbers (1758-1840), que en 1826 sugirió lo que más tarde se llegó a conocer por la «paradoja de Olbers». Para exponerla partamos de los siguientes supuestos:
  1. El Universo tiene una extensión infinita.
  2. Las estrellas son infinitas en número y están distribuidas uniformemente a través del Universo.
  3. Las estrellas tienen una luminosidad media uniforme a lo largo y a lo ancho de todo el Universo.
Imaginemos el sistema solar situado en el centro de tal Universo y consideremos que éste se halla dividido en tinas capas concéntricas como las de una cebolla.
El volumen de tales capas aumentaría proporcionalmente al cuadrado de la distancia. Si la capa A se encuentra tres veces más alejada de nosotros que la capa B, aquélla tendrá un volumen 32 ó 9 veces superior al de la capa B. Si las estrellas están distribuidas de un modo uniforme a través de todas las capas (Supuesto 2 de arriba), entonces la capa A, con un volumen nueve veces superior al de la B, contendría nueve veces más estrellas que esta última.
Por otra parte, la luz de una estrella cualquiera disminuiría con el cuadrado de la distancia. Si la capa A es tres veces más distante que la capa B y contiene 9 veces más estrellas que ésta, cada una de las estrellas de la capa A tendrá un brillo equivalente a sólo (1/3)2 ó 1/9 del brillo de una estrella cualquiera de la capa B (suponiendo una luminosidad media uniforme en todo el espacio: Supuesto 3).
Así pues, concluimos que la capa A tiene nueve veces más estrellas que la capa B y que cada una de las estrellas de la A posee un brillo equivalente a 1/9 del de una estrella cualquiera de la capa B, de suerte que la cantidad de luz total suministrada por la capa A al sistema solar sería de 9 X 1/9 la de la capa B. En resumen, ambas capas proporcionan al sistema solar la misma cantidad total de luz.
Pero el mismo argumento cabe aplicarlo a cualquier otra capa, y dado que el número de capas es infinito (Supuesto 1), la cantidad de luz que llegaría hasta nosotros sería infinita. Esto no es del todo exacto, pues las estrellas más cercanas obstruirían el paso a la luz de las más apartadas. Pero aun teniendo en cuenta este efecto de pantalla, como cabría llamarlo, el cielo brillaría como la superficie de un sol ingente, lo cual, desde luego, no es el caso.
Olbers sugirió que un modo de eludir esta paradoja sería admitir la existencia de nubes de polvo en el espacio; estas nubes absorberían la luz procedente de las estrellas muy alejadas, con lo cual nosotros sólo recibiríamos la luz emitida, por las relativamente cercanas. Esto no arreglaba nada, pues a medida que las nubes de polvo fuesen absorbiendo luz se irían calentando, hasta que en último término emitiesen una cantidad de luz igual a la que absorben: la luz que llegaría hasta nosotros seguiría siendo infinita.

10.jpg
Figura 10. La paradoja de Olbers

No cabe duda de que en los supuestos de Olbers tiene que haber algún fallo. La extensión del Universo quizá no sea infinita, o si lo es, el número de estrellas no debe ser ilimitado. Cabría esperar, por ejemplo, que el número de estrellas fuese finito (aunque muy grande) y que éstas se encontraran distribuidas a lo largo y a lo ancho de un espacio también finito (pero vastísimo).
Esta conclusión, basada en el razonamiento de Olbers, concordaba perfectamente con las cuidadosas observaciones astronómicas que por aquel tiempo estaba realizando William Herschel.

§. La lente de Herschel
Una al menos de las hipótesis en que se apoya la paradoja de Olbers resulta muy precaria a la vista de dichas observaciones. En principio nada se opone a que la distribución de las estrellas sea uniforme en todo el espacio, pero las observaciones de la porción del Universo visible desde la Tierra desde luego no parecen confirmar este punto de vista.
A lo largo de todo el cielo y atravesando las constelaciones de Orión, Perseo, Casiopea, Cisne, Águila, Sagitario, Centauro y Carena, se extiende una banda de suave luminosidad que corta al plano ecuatorial de la Tierra a un ángulo de 62°. En medio de las luces estridentes de una ciudad moderna se desvanece, pero en pleno campo y en una noche sin luna constituye una visión magnífica.
Los antiguos que no conocían la dudosa bendición (dudosa desde el punto de vista del astrónomo) de la luz eléctrica, conocían muy bien esta banda luminosa. Los griegos le dieron el nombre de «galaxias kyklos» («círculo lácteo») y los romanos la llamaron «vía láctea», nombre con que se la conoce actualmente. La palabra «galaxia» proviene de la versión griega de dicho nombre.
En 1610 Galileo observó la Vía Láctea a través de su telescopio rudimentario y comprobó que no se trataba de una nube luminosa y uniforme, sino de una colección ingente de estrellas muy tenues, como efectivamente habían sugerido algunos filósofos de los tiempos pretelescópicos.
Parece evidente, pues, que el número de estrellas debe ser mucho mayor en la dirección de la Vía Láctea que en cualquier otra. Además, las estrellas brillantes y visibles son relativamente más abundantes en dicha dirección que en otras, lo cual contradice abiertamente la hipótesis de una distribución estelar uniforme.
En su «escrutinio sistemático de los cielos», Herschel sabía muy bien que las estrellas eran más numerosas en unas direcciones que en otras. Pero no conformándose con una descripción meramente cualitativa, en 1784 decidió contar las estrellas y estudiar exactamente cómo variaba su abundancia de un lugar a otro. La tarea de contar todas las estrellas del cielo hubiera sido, qué duda cabe, una empresa imposible, por lo cual Herschel estimó oportuno limitarse a efectuar un mues- treo del cielo. Para ello eligió 683 regiones diseminadas* a lo largo y a lo ancho del cielo y contó las estrellas que se podían observar en cada una de ellas a través del telescopio. Comprobó que el número de estrellas por unidad de área celeste aumentaba continuamente en dirección a la Vía Láctea, alcanzaba un máximo en el plano de ésta y pasaba por un mínimo en la dirección perpendicular a dicho plano.
¿Qué explicación admitía este resultado? Quizá fuese que las estrellas se iban agolpando progresivamente a medida que se encontraban más cerca de la Vía Láctea. ¿Pero qué razón había para que esto fuese así? No parece que exista una razón simple que explique este acortamiento paulatino de las distancias interestelares. A Herschel se le antojaba mucho más razonable suponer que las estrellas se encontraban distribuidas a intervalos más o menos uniformes, pero dentro de un volumen espacial que no era esférico y que, por tanto, tampoco era simétrico en todas direcciones.
Supongamos que las estrellas están distribuidas uniformemente en un volumen de espacio con forma de lente o de piedra de afilar y que nuestro Sol se encuentra cerca del centro de masas del sistema total. Si miramos ahora en la dirección del plano de la piedra de afilar, veremos cierto número de estrellas brillantes cerca de nosotros, detrás una gran masa de estrellas distantes y, por ende, muy tenues, detrás de ellas una masa aún más numerosa de estrellas todavía más lejanas y oscuras, etc. El sinnúmero de estrellas que veríamos en la lejanía remota serían demasiado oscuras para discernirlas por separado, pero en masse conferirían al cielo una pálida luminosidad lechosa, que constituiría la Vía Láctea.
Por otra parte, apartando progresivamente la vista del plano principal de la piedra de afilar, lo que haríamos sería mirar a través de un espesor de estrellas cada vez más pequeño, de suerte que sólo veríamos las más próximas y brillantes, sin percibir detrás de ellas ninguna masa estelar distante ni luminosidad lechosa alguna.
Así pues, para Herschel las estrellas del Universo constituían un «sistema sidéreo» finito con una forma bien definida. (Con el tiempo, la palabra Galaxia llegó a significar el sistema sidéreo total, en vez de limitarse a la Vía Láctea visible, por lo cual cabría considerar el Sol como una de las estrellas de la Galaxia.)
Pero Herschel no se detuvo ahí, sino que, basándose en el número de estrellas que podía observar en distintas direcciones y apoyándose en su hipótesis de una separación interestelar uniforme, trató de hacer una estimación burda del tamaño del sistema sidéreo. La conclusión a que llegó fue que el diámetro máximo de esta Galaxia en forma de lente es unas 800 veces la distancia media entre dos estrellas (distancia que tomó como igual a la que existe entre el Sol y Sirio; este supuesto resultó ser correcto, al menos en lo que atañe a las estrellas vecinas del Sol). En cuanto al diámetro mínimo de la Galaxia, lo calculó en unas 150 veces la distancia media interestelar.
La idea de Herschel era, como vemos, la de una Galaxia que podía abarcar 300.000.000 de estrellas: 50.000 veces más que las que se podía observar a simple vista. Por otro lado, si tomamos la distancia media interestelar como 10 años-luz (aunque conviene recordar que este tipo de distancias no fueron determinadas sino dieciséis años después de la muerte de Herschel), la Galaxia resulta tener un diámetro máximo de 8.000 años-luz y un diámetro mínimo de 1.500 años-luz.

11.jpg
Figura 11. Sistema estelar en forma de lente

Además, parecía lógico suponer que el Sol ocupase un lugar próximo al centro de la Galaxia, habida cuenta de que la Vía Láctea daba la sensación de rodear el cielo por completo y de que su brillo parecía uniforme en todo punto.
Las observaciones de Herschel y el razonamiento de Olbers lograron enterrar durante un siglo entero la noción de un Universo infinito. La labor de los astrónomos del siglo XIX, en el sentido de contar y registrar con gran precisión un número aún mayor de estrellas, no tuvo otra consecuencia que refinar los detalles del esquema global de Herschel.
La penosa actividad de contar las estrellas «a ojo» culminó en el mapa celeste conocido con el nombre de Bonner Durchmusterung («Prospección de Bonn»), que empeló a publicarse en 1859 bajo la supervisión del astrónomo alemán Friedrich Wilhelm August Argelander (1799- 1875), de la Universidad de Bonn. En este mapa se llegó i registrar la posición de medio millón aproximadamente de estrellas.
Sin embargo, hacia la segunda mitad del siglo XIX, con el desarrollo de la fotografía y su aplicación a la astronomía, la tarea de detectar a ojo estrella por estrella dejó de ser un mal fatídico e inevitable. Bastaba tomar una fotografía de una región determinada del cielo para «congelar» esa zona de una vez para siempre: el recuento de estrellas se podía hacer con toda comodidad y en el momento y lugar que más le conviniesen al astrónomo.
Uno de los astrónomos que hicieron uso abundante de esta técnica fue el holandés Jacobus Cornelius Kapteyn 1851-1922). Kapteyn siguió el método de muestreo de Herschel, pero fue más lejos que éste: emprendió un recuento sistemático de las estrellas de cada magnitud.
Si el número de estrellas era infinito, la cantidad total de ellas contenidas en cada una de las capas sucesivas del espacio (volviendo a la figura que dibujamos en relación con la paradoja de Olbers) debería aumentar progresivamente, ya que a medida que nos movemos hacia el exterior las capas van teniendo un volumen mayor y son capaces de abarcar más estrellas. Y puesto que el trillo se atenúa en general con la distancia, debería observarse un aumento constante en el número de estrellas a medida que decrece el brillo.
Kapteyn observó, sin embargo, que el ritmo de aumento no era constante, sino que empezaba a decaer en las magnitudes mayores, lo cual significaba que en las capas muy distantes las estrellas empezaban a dispersarse; a partir de aquí Kapteyn pudo estimar de una forma aproximada la distancia de aquellas últimas capas en las que las estrellas concluían por desvanecerse.
Sus resultados confirmaron la imagen de Herschel de una Galaxia «lenticular» con el Sol situado en el centro o cerca del centro, si bien las cifras de Kapteyn relativas a las dimensiones de la Galaxia eran mayores que las de Herschel: en 1906, el holandés logró estimar el diámetro mayor de la Galaxia en 23.000 años-luz y el diámetro menor en 6.000 años-luz. Hacia 1920 aumentó dichas cifras hasta 55.000 y 11.000 años-luz respectivamente, dimensiones que suponían una Galaxia con un volumen 475 veces superior al de Herschel.

§. El Sol en movimiento
El sistema sidéreo esbozado por Herschel representó un nuevo golpe para las valoraciones del hombre en punto a su propia importancia.
En tiempos de la Antigüedad, el hombre solía considerarse a sí mismo literalmente como el eje del Universo. El Universo no sólo era geocéntrico (siendo la Tierra —la casa del hombre— el centro inmóvil de todo cuanto existía), sino también homocéntrico: el hombre era la medida de todas las cosas.
Después de los trabajos de Copérnico, y una vez que se fue afincando y aceptando paulatinamente la teoría heliocéntrica, resultaba difícil fijar la verdadera importancia del hombre en el Universo. A fin de cuentas, su planeta sólo era uno entre muchos y, por añadidura, tampoco era, ni de lejos, el más grande ni el más espectacular. La Tierra no podía competir con Júpiter en tamaño ni con Saturno en belleza.
Sin embargo, para los astrónomos de los siglos XVII y XVIII el Sol constituía el centro inamovible del Universo y el Sol, en cierto modo, nos pertenecía: era la fuente de j luz y de calor y el origen de toda la vida terrestre.
Pero a medida que se fue desvaneciendo la noción de la bóveda celeste rígida, parecía cada vez menos probable que el Sol pudiese tener esa importancia tan categórica. Si las estrellas se encontraban diseminadas en una región vastísima del espacio y el Sol no era sino una de dicha- estrellas, ¿qué razón había para suponer que éste fuese el centro del Universo? Por otra parte, si se admitía una Galaxia del tamaño sugerido por Herschel, una Galaxia poblada por cientos de millones de estrellas, ¿cómo era posible afirmar seriamente que nuestro Sol contaba tanto entre este sinfín de astros diseminados a tales distancias?
Más tarde, conforme se fueron observando los movimientos propios de un número cada vez mayor de estrellas, se vio que no parecía existir ningún indicio de que las estrellas en general describiesen órbitas gigantescas alrededor del Sol. La naturaleza de estos movimientos parecía más bien aleatoria, y esto empezó a despertar la sospecha de que todas las estrellas se movían de una forma más o menos caótica (como abejas en un enjambre)t que aquellas que no exhibían ningún movimiento propio —o se encontraban demasiado lejos para manifestar tal movimiento a corto plazo— no lo exhibían porque ¿aba la casualidad de que se movían justamente hacia nosotros o alejándose de nosotros, con lo cual resultaba imposible detectar ningún movimiento propio transversal.
Pero en estas condiciones también era razonable suponer que el Sol se moviera, pues de otro modo ¿a qué respondía que éste fuese el único astro inmóvil en un Universo de estrellas viajeras? Tal fue el razonamiento que hizo Herschel en 1783 y que le llevó a abordar la tarea de averiguar el posible movimiento del Sol.
Supongamos que el Sol se encuentra rodeado de estrellas, distribuidas uniformemente en el espacio. Aquellas que están próximas al Sol aparecerán separadas por distancias relativamente grandes, mientras que esas otras que se hallan muy lejos se nos antojarán bastante cercanas entre sí. Es el mismo fenómeno que se observa mirando los árboles de un vivero o los individuos de una forma- don en filas y columnas: se trata de un efecto de perspectiva.
Así pues, si transportásemos un grupo de estrellas a una distancia menor que la que ocupaban anteriormente, sin alterar su posición relativa, daría la sensación de que las estrellas se separan unas de otras. Es decir, en el proceso de acercamiento parecerían alejarse entre sí. Por otro lado, un grupo de estrellas que se alejasen del Sol darían la impresión de converger.
Invirtiendo el razonamiento, está claro que si el Sol se mueve a través de la Galaxia, las estrellas situadas delante de él y en la dirección del movimiento parecerían aproximarse al Sol y, por consiguiente, que divergen. (Este efecto quedaría enmascarado en parte por el hecho de que las estrellas no permanecen quietas, sino que poseen movimientos en todas direcciones; sin embargo, el enmascaramiento no sería total). Asimismo, las estrellas situadas detrás del Sol y en dirección opuesta a la de su avance parecerían alejarse de él y que convergen. Y por último, aquellas otras situadas en ángulo recto a la dirección del Sol poseerían los movimientos propios mayores, y estos movimientos tenderían a ser, en general, opuestos a la dirección de avance del Sol.
Pocos eran los movimientos propios que se conocían en tiempos de Herschel, pero basándose en ellos y en el razonamiento que acabamos de exponer, este astrónomo consiguió establecer que el Sol efectivamente se mueve y que lo hace en dirección a cierto punto de la constelación Hércules. Estimación que se ha comprobado no era ruda mala.

12.jpg
Figura 12. Movimiento del Sol

En el siglo y medio que siguió a la obra de Herschel se determinaron otros muchos movimientos propios, pero hoy día se sigue considerando que el «ápex», o punto hacia el cual parece huir el Sol, no difiere gran cosa del que determinó Herschel. Según las observaciones cois precisas de que se dispone en la actualidad, dicho punto parece hallarse en la constelación de Lira, vecina ¿e Hércules. El Sol se mueve hacia el ápex a una velocidad (en relación con las estrellas más cercanas) de unos 19 kilómetros por segundo.

§.Cúmulos estelares
Así pues, el hecho de que el Sol parezca hallarse en el centro (o cerca del centro) del modelo Herschel-Kapteyn de la Galaxia no debe tomarse como un hecho demasiado significativo. Se trata más bien de una circunstancia fortuita, pues si la Humanidad hubiera realizado sus observaciones astronómicas en otra época del pasado remoto o del futuro lejano, se habría encontrado situada en un extremo u otro de la Galaxia.
Afirmar que el Sol (y con él la Tierra y el propio hombre) se encuentra en el centro de todas las cosas por pura casualidad no es precisamente un regalo para la vanidad humana. Pero incluso esta concepción empezó a tambalearse y a resultar cuestionable a medida que Kapteyn fue puliendo los últimos detalles de su modelo en las dos primeras décadas del siglo XX.
Los problemas con que tropezó el modelo Herschel- Eapteyn se derivaban de ciertos resultados que concernían no tanto a las estrellas tomadas una a una como a grupos de ellas.
Tales grupos son perceptibles incluso a simple vista.
El más conocido son las «Pléyades», un pequeño cúmulo de estrellas de brillo moderado en la constelación Tauro, el Toro. Nueve de las estrellas del cúmulo son suficientemente brillantes para poder ser observadas a simple vista, aunque algunas de ellas se encuentran muy juntas y es difícil discernirlas por separado. Un hombre de vista normal puede distinguir seis o siete. (Este cúmulo se denomina a veces «Siete Hermanas».)
Cuando en 1610 Galileo enfocó su telescopio hacia las Pléyades, comprobó que podía contar sin esfuerzo alguno, 36 estrellas en dicho grupo. Los métodos fotográficos modernos revelan 250 como mínimo y el número total asciende probablemente a cerca de 750.
Las Pléyades constituyen una asociación auténtica de estrellas; no se trata de la imagen accidental de una serie de estrellas situadas a distancias variables, pero todas ellas cerca de una misma línea visual. Esto quedó ya demostrado en 1840 cuando Bessel comprobó que el movimiento propio de todos los miembros de este cúmulo era de 5,5 segundos de arco por siglo en la misma dirección. Si se tratara de estrellas independientes, sería demasiada coincidencia que todas ellas se moviesen en la misma dirección y a la misma velocidad.
Los astrónomos han estimado que la distancia media entre las estrellas del cúmulo de las Pléyades equivale sólo a un tercio de la separación interestelar media en las proximidades de nuestro sistema solar. Hoy se sabe que el grupo entero se encuentra a unos 400 años-luz de nosotros y que abarca una región del espacio de unos 70 años-luz de diámetro.
Aun cuando las Pléyades son el cúmulo más grandioso de cuantos se pueden observar a simple vista, no constituyen sino una muestra sumamente pálida de los espectáculos que se nos ofrecen a través del telescopio.
Sin proponérselo, el astrónomo francés Charles Messier (1730-1817) consiguió vislumbrar estas glorias mayores mientras buscaba objetos celestes mucho más modestos. Messier era un «cazador de cometas» y a lo largo de su vida descubrió buen número de ellos. Pero cansado de verse burlado por objetos celestes difusos, permanentemente fijos y que, por tanto, no eran cometas, trazó en 1751 un mapa detallado señalando la posición de cuarenta de tales objetos con el fin de que él mismo, y otros cazadores de cometas, conocieran su situación y aprendieran a ignorarlos en lo sucesivo. Con el tiempo, Messier y otros astrónomos incrementaron hasta cien el número de objetos de la lista.
Entre estos cien figuraba un objeto difuso con aspecto de estrella, que había sido observado por primera vez por Halley en 1714. Como en la lista de Messier ocupaba el puesto decimotercero, a veces recibe el nombre de MI3. Décadas más tarde, Herschel estudió MI3 con ayuda de un telescopio mucho más perfecto que el de Messier y comprendió que lo que tenía ante sus ojos no era un simple borrón de luz, sino un conglomerado esférico de estrellas densamente empaquetadas.
Las Pléyades consistían en un grupo de estrellas relativamente separadas, por lo que recibieron el nombre genérico de «cúmulo abierto»; el objeto M13, por el contrario, era una aglomeración de estrellas muy juntas, razón por la cual fue denominado «cúmulo globular» El cúmulo M13 también se conoce con el nombre de «Gran Cúmulo de Hércules», debido a que está situado en la constelación de ese nombre. Un cúmulo globular se compone, no ya de cientos, sino de miles de estrellas. En el Gran Cúmulo de Hércules se han contado unas 30 000 estrellas, y el número total seguramente excede de 100.000 y quizá se aproxime al millón. Cerca del centro del cúmulo, las estrellas deben de estar distribuidas con separaciones bastante menores de 1 año-luz.
Ahora bien, éste no es el único cúmulo globular. En la lista de Messier aparecen varios otros, entre ellos M3 en la constelación Canes Venatici (Lebreles) y M22 en la constelación de Sagitario. Hoy día se conocen cien cúmulos globulares y se supone que son unos trescientos los que existen en total en nuestra Galaxia.
Un hecho curioso es que los cúmulos globulares no están distribuidos de modo uniforme en el cielo; el primero en señalarlo, a principios del siglo XIX, fue John Herschel (1792-1871), hijo del famoso William Herschel y a su vez un astrónomo de fama. En efecto, casi todos los cúmulos globulares están localizados en uno de los hemisferios del cielo y un tercio de ellos se agolpan en la constelación de Sagitario, que sólo ocupa un 2% de la superficie celeste. John Herschel opinó que este fenómeno, lejos de ser accidental, debía poseer algún significado.
Pero el significado mismo se les escapó a los astrónomos durante todo el siglo siguiente, debido en parte a que se ignoraba la posición real de estos cúmulos globulares en el espacio. Su distancia era demasiado grande para poder medir el paralaje; y hasta el siglo XX este método, el del paralaje, era el único que se conocía para determinar las distancias sidéreas.

§. Estrellas variables
A principios del siglo XX, y en conexión con el estudio de cierto tipo de «estrellas variables», se halló un método adecuado para afrontar el problema de los cúmulos globulares. (Las estrellas variables son aquellas cuyo brillo cambia periódicamente.)
La historia de las estrellas variables resulta sorprendentemente breve si tenemos en cuenta que existen estrellas, con brillo suficiente para ser observadas a simple vista, cuya luz varía de un modo ostensible. Los astrónomos antiguos no nos legaron ningún comentario acerca de tales variaciones. De hecho, el punto de vista griego, representado por Aristóteles, venía a afirmar que todo cuanto hay en los cielos es permanente e inmutable. Mas esta opinión oficial y categórica en nada cambiaba el hecho de que las estrellas variables existen, demostrando que en los cielos se producen cambios.
Entre las estrellas variables y observables a simple vista la más notable es Beta Persei, que ocupa el segundo lugar en la escala de brillo de la constelación de Perseo. Esta estrella se apaga y se ilumina de un modo perfectamente perceptible. Cada dos días y veintiuna horas pierde en poco tiempo algo más de una magnitud de brillo durante un breve período, recuperando luego la pérdida con igual rapidez.
Ni los griegos ni los árabes (estos últimos los grandes astrónomos de la Alta Edad Media) hicieron mención alguna de este fenómeno, aunque es posible que algún individuo aquí o allá lo registrase, con gran estupor por su parte. Los griegos, en su fantástica descripción de las estrellas de esta constelación, imaginaban a Beta Persei situada en la cabeza de Medusa, sostenida ésta por Perseo. Medusa era un ser demoníaco: tenía por cabello serpientes vivas y su rostro era tan horrible que cualquiera que lo contemplaba se convertía en piedra. Beta Persei era conocida a veces con el nombre de «Estrella del Diablo», lo cual ya indica que en ella se había observado algo fuera de lo normal. El nombre árabe de la estrella es Algol («el vampiro»), que también sugiere algo escalofriante.
En 1782, el astrónomo inglés John Goodricke (1764- 1786) estudió la estrella Algol con detalle y llegó a la conclusión de que alrededor de ella giraba otra muy tenue, describiendo una órbita cuyo plano aparecía casi de canto visto desde la Tierra. De este modo, cada vez que se interponía entre Algol y nuestro planeta, ocultaba parte del brillo de aquélla. Esta hipótesis no fue tomada en serio en aquel tiempo, pero las observaciones efectuadas desde entonces han venido a demostrar con certeza casi absoluta que era correcta. Hoy día, Algol pasa como el mejor ejemplo conocido de una «binaria con eclipse». No es que su luz crezca y mengüe en realidad, sino que se ve obstruida periódicamente.

13.jpg
Figura 13. Curvas de luz de las variables con eclipse

Pero el sistema es todavía más complicado. Las dos estrellas que se eclipsan mutuamente se encuentran separadas por una distancia de más de tres millones de kilómetros, pero alrededor de ambas gira todavía una tercera, mucho más lejana aún, con un período de 22 meses.
La variabilidad de la luz debida a los eclipses no tiene nada que ver con la estructura interna o las propiedades de la estrella. Si el compañero de Algol girase alrededor de él en otro plano, sin interponerse entre la Tierra y Algol, ésta no sería considerada como una estrella variable.
Muy diferente es el caso de la estrella Omicron Ceti, perteneciente a la constelación Cetus (la Ballena). El primero en observar de una forma detenida esta estrella fue el astrónomo alemán David Fabricius (1564-1617) en 1596. En sus momentos de máximo brillo, Omicron Ceti llega a alcanzar una magnitud de 2 y en sus momentos más tenues es demasiado oscura para percibirla a simple vista. Este fenómeno le valió el nombre de «Mira» («maravillosa»). Su período de variación —o tiempo que transcurre entre dos momentos de máximo brillo consecutivos— es de once meses: período más bien largo para una estrella variable, por lo cual Mira se incluye entre las «variables de período largo».
A diferencia de Algol, Mira es auténticamente variable. La conclusión a que han llegado los astrónomos es que el aumento y disminución de brillo no son aparentes, sino reales. De ahí que Mira también se clasifique entre las «variables intrínsecas».
Otro ejemplo de variable intrínseca es Delta Cephei, la cuarta estrella, en cuanto a brillo, de la constelación de Cefeo. Delta Cephei difiere notablemente de Mira: en primer lugar, el período de variación de aquélla es corto, de 5,37 días, y en segundo lugar es regular.
Aparte de Delta Cephei se han descubierto otras estrellas variables con períodos de variación cortos y regulares. Por lo común, éstos oscilan entre dos y cuarenta y cinco días; los períodos de aproximadamente una semana son muy usuales. La manera en que el brillo de estas estrellas crece y disminuye es también muy típico, por lo cual se las agrupa bajo la denominación de «variables Cefeidas» o simplemente «Cefeidas», por ser una estrella de la constelación de Cefeo la primera de este grupo que se estudió.
Aunque las Cefeidas eran objetos curiosos e interesantes, al principio no parecieron poseer una importancia especial. Concepción que cambió radicalmente en 1912, cuando la astrónomo americana Henrictta Swan Leawitt (1868-1921) comenzó a localizar y a estudiar sistemáticamente cientos de variables Cefeidas en la Nube Pequeña de Magallanes, trabajando en un observatorio instalado por la Universidad Harvard en Arequipa, Perú.
La Nube Pequeña de Magallanes es una de dos zonas luminosas (la otra es la Nube Grande de Magallanes) que comparecen como manchas aisladas en la Vía Láctea. Están situadas bastante al sur, por lo cual resultaban invisibles desde la zona septentrional templada. Fueron descritas por primera vez en 1521 por el cronista que acompañó a Magallanes en su viaje alrededor del globo; de ahí su nombre.
Las Nubes de Magallanes no fueron estudiadas con detalle hasta 1834, año en que John Herschel las observó desde el observatorio astronómico del Cabo de Buena
Esperanza. Al igual que la Vía Láctea, estaban constituidas por un sinfín de estrellas muy tenues; y se suponía que esta tenuidad se debía a su enorme distancia.
De hecho, las Nubes están tan lejos de nosotros que la diferencia de distancia entre las estrellas más próximas y las más distantes (dentro de las mismas Nubes) puede considerarse como poco importante en términos relativos. Esto es análogo a decir que todos los habitantes de Chicago se encuentran a la misma distancia de Times Square en Nueva York; evidentemente, la gente de los barrios del Oeste de Chicago se encuentran un poco más próximos que los del Este de dicha ciudad, pero la diferencia es insignificante al lado de la distancia total.
En otras palabras, podemos pensar que todas las estrellas de la Nube Pequeña de Magallanes, y en particular todas las Cefeidas, distan lo mismo de la Tierra. Si una Cefeida exhibe un brillo mayor que las demás, esta diferencia sólo se puede atribuir a que de hecho es más brillante (más luminosa), sin necesidad de especular con el factor distancia.
En sus estudios sobre las Cefeidas de la Nube Pequeña de Magallanes, Henrietta Leavitt observó que cuanto más brillante era una variable Cefeida, mayor era también su período. Una Cefeida de esta Nube con una magnitud de 15,5 tenía un período de dos días; otra de magnitud 14,8, un período de cinco días; y el período de una tercera de magnitud 12,0 era de 100 días. Al parecer, la luminosidad y el período estaban ligados por alguna relación regular.
Además de para las Cefeidas de las Nubes de Magallanes, esta relación debía ser válida para aquellas que se hallan en la vecindad de nuestro sistema solar. (Los científicos suelen suponer que si una relación se cumple en cierto lugar o bajo un conjunto dado de condiciones, también será válida en cualquier otro lugar o bajo otro conjunto de condiciones, al menos mientras no se demuestre lo contrario.) Entonces ¿por qué no se observaba dicha relación en las proximidades de nuestro sistema?
El problema estriba en que en nuestra vecindad inmediata la luminosidad puede quedar enmascarada como resultado de la distancia. Una Cefeida muy luminosa con un período largo es posible que parezca tenue como consecuencia de su enorme distancia, mientras que otra mucho menos luminosa y con un período corto quizá se encuentre cerca de nosotros, antojándosenos muy brillante. En tal caso, las estrellas brillantes parecerán tener períodos cortos, y los tenues períodos largos. La confusión inducida por las distancias lleva incluso a pensar que no existe conexión alguna entre el brillo y el período. Y es que de hecho no existe: la relación es entre la luminosidad y el período; a partir del brillo aparente de una estrella es imposible deducir la luminosidad real, a menos que conozcamos la distancia de la estrella.
Desgraciadamente, en 1912 no se conocía la distancia de ninguna Cefeida. Para medir distancias sólo se disponía del método de paralajes, y esta técnica tenía muchas limitaciones: cuanto más lejana la estrella, menor el paralaje y mayor la dificultad para medirlo. Incluso en nuestros días, el método paraláctico resulta inaplicable para distancias superiores a los 150 años-luz, y ninguna variable Cefeida se halla a una distancia tan exigua La más próxima dista como mínimo 400 años-luz.
Henrietta Leavitt fue capaz de observar la relación luminosidad-período en la Nube Pequeña de Magallanes, no porque conociera la distancia de la Nube, sino porque dentro de ésta las distancias no importaban. Dentro de la Nube, el brillo era proporcional a la luminosidad, por lo cual la relación luminosidad-período se manifestaba en una conexión brillo-período fácil de detectar.
Ahora bien, una vez descubierta esta relación podía ser aplicada a nuestra vecindad próxima como patrón de medida para determinar distancias muy superiores a las que se podían hallar por el método paraláctico.
Supongamos, por ejemplo, que observamos que dos Cefeidas tienen períodos iguales, pero una de ellas es más brillante que la otra. Sus luminosidades deben ser iguales puesto que sus períodos lo son, de suerte que la diferencia en el brillo aparente sería un efecto de la distancia. El resto no plantearía problemas: averiguar cuánto más lejos debe encontrarse una Cefeida que la otra para explicar la diferencia de brillo observada.
En el caso contrario de que las dos Cefeidas tuviesen períodos diferentes, también era posible calcular su diferencia de luminosidad. La diferencia en la magnitud aparente podía medirse directamente y ambos datos juntos permitían calcular las distancias relativas.
Este tipo de cálculos de distancias relativas lo único que proporcionaba era una imagen a escala de la galaxia (como antes las leyes de Kepler en relación con el sistema solar), pero no decían nada acerca de las distancias reales. Sin embargo, el método no estaba completamente desprovisto de valor.
En los años que siguieron al descubrimiento de Leavitt, el astrónomo americano Harlow Shapley (n. 1885) aprovechó la escala Cefeida para estudiar los cúmulos globulares. Muchos de estos cúmulos contenían cierto número de variables Cefeidas. Midiendo los períodos de estas variables, Shapley podía determinar su luminosidad relativa, y comparando este factor con el brillo aparente era posible conocer las distancias relativas de las Cefeidas y, por ende, las distancias relativas de los cúmulos globulares a que aquéllas pertenecían. Cuando un cúmulo no contenía ninguna Cefeida claramente visible, Shapley medía la magnitud aparente de las estrellas más brillantes del cúmulo en cuestión, suponiendo que en todos los casos el brillo intrínseco de éstas era el mismo.
Todos estos cálculos parecían indicar que los cúmulos globulares estaban distribuidos en una configuración esférica, constituyendo algo así como un gran balón con su centro en la dirección de la constelación Sagitario. Los astrónomos terrestres, observando este balón de cúmulos globulares desde el exterior —desde un exterior muy remoto— veían esta estructura gigantesca como localizada en una porción relativamente exigua de los cielos en las inmediaciones de Sagitario.

14.jpg
Figura 14. Distribución de cúmulos globulares

¿Cuál era la razón de que los cúmulos globulares estuviesen dispuestos de esta forma tan peculiar? Shapley creyó lógico suponer que los cúmulos se agrupaban en torno al centro masivo de la Galaxia, del mismo modo que los planetas se apiñaban alrededor del Sol, el centro masivo del sistema solar. Si esta hipótesis fuese cierta, el Sol se encontraría muy lejos del centro galáctico, es decir, no nos hallaríamos en el centro, sino en las afueras de la Galaxia.
Para saber a qué distancia se encontraba el centro galáctico, o lo que es lo mismo, a qué distancia en las afueras se hallaba nuestro sistema solar, sólo faltaba averiguar, pues, la distancia que mediaba entre nosotros y la esfera de cúmulos globulares. Y para ello bastaba determinar la distancia de una sola Cefeida: así quedaría resuelto el problema de las dimensiones reales de la Galaxia (y posiblemente del Universo, caso de que éste se redujese a la Galaxia).
Mas ¿cómo llegar a conocer la distancia de las Cefeidas, cuando ninguna de ellas está suficientemente próxima para medir su paralaje?
Si queremos explicar el método que utilizó Shapley para soslayar este contratiempo puramente fortuito, no tendremos más remedio que zambullirnos en un digresión más bien larga y retroceder unos tres cuartos de siglo en el tiempo.

Capítulo 5
El tamaño de la galaxia

Contenido:
§. El efecto Doppler
§. El espectro
§. Líneas espectrales
§. El centro galáctico
§. Las dimensiones galácticas
§. El efecto Doppler
Aquellos de entre nosotros que, por su edad, vivieron los días en que el ferrocarril era un medio de transporte mucho más común que en la actualidad, saben que el sonido del silbato de un tren es más agudo cuando éste se aproxima que cuando se encuentra en reposo con relación a nosotros[viii], y que cuando se aleja es más grave que cuando se halla quieto con respecto al observador. Un viajero que se hallara esperando en una estación y que viera aproximarse un tren, luego pasar delante de él sin parar y por último alejarse, percibiría un descenso brusco en la altura del silbido en el momento en que el tren pasase delante de él.
Este fenómeno fue explicado con todo detalle en 1842 por el físico austríaco Christian Johann Doppler (1803- 1853).
De entrada diremos que el sonido consiste en una serie de compresiones y rarificaciones del aire. La distancia que media entre una región cualquiera de compresión y la siguiente es la longitud de onda del sonido. A mayor longitud de onda, más baja es la altura (frecuencia) del sonido percibido; y cuanto más corta sea aquella longitud, mayor será la altura.
Supongamos que un tren, en reposo con respecto al observador, está tocando el silbato con una altura de sonido constante. Alrededor del silbato se originará una región de compresión que se propagará hacia afuera, seguida de otra región de las mismas características, después otra, etc. Las regiones de compresión están separadas por una cierta distancia constante.
Pero imaginemos ahora que el tren, junto con el silbato, se está moviendo en dirección al observador; en este caso, la segunda región de compresión será emitida un poco más cerca del observador que la primera. El tren se ha movido hacia la primera región de compresión, con lo cual la segunda queda un poco más cerca de ella que en el caso de que el tren hubiera estado en reposo. Y lo propio ocurre con las regiones tercera, cuarta, etcétera. Mientras el tren siga aproximándose al observador, irá ganando terreno a las ondas sonoras y, como consecuencia de ello, las regiones de compresión aparecerán más apretadas unas a otras que si el tren se encontrara en reposo. En resumen, la longitud de onda del sonido será más corta y su frecuencia más alta.
Cuando el tren se aleja, el proceso es justamente el contrario. La segunda región de compresión se produce más lejos del observador y más lejos también de la primera región; la tercera se originará más lejos aún, y así sucesivamente. En resumen: la longitud de onda de un sonido producido por un silbato que se aleja es más larga —y la frecuencia más baja— que en el caso de que el tren se encontrara en reposo.
Cuanto mayor sea la velocidad con que el tren se aproxima hacia el observador, menos separadas entre sí estarán las ondas sonoras y mayor será la altura del sonido; y cuanto más deprisa se aleje el tren, mayor será la separación de las ondas sonoras y menor la altura del sonido. Conociendo la altura normal del silbato y la altura del sonido que se percibe cuando el tren está en movimiento, es posible determinar, sin ningún dato adicional, si el tren se aleja o se acerca y a qué velocidad lo hace.
Este cambio de frecuencia debido al movimiento se denomina «efecto Doppler» en honor al físico de este nombre.

§. El espectro
En teoría, este mismo efecto debe observarse en el caso de cualquier tipo de ondas radiadas hacia el exterior desde una fuente, y en particular debe detectarse en el caso de la luz, como Doppler mismo señaló.
La luz, al igual que el sonido, es una forma de ondas (aunque no del mismo tipo). La luz también posee longitud de onda y las diferencias en estas longitudes de onda son susceptibles de ser percibidas por los sentidos como diferencias de color. Las longitudes de onda más largas (de entre las visibles) se perciben como rojo. A medida que la longitud de onda disminuye, el color va pasando por el naranja, amarillo, verde, azul y violeta, en este orden. Los colores no se diferencian de una manera tajante, naturalmente, sino que la transición de unos a otros es gradual. Obsérvese, por ejemplo, el arco iris.
Isaac Newton fue el primero en estudiar con detalle un arco iris artificial. En 1666, Newton hizo el siguiente experimento: dejó que un rayo de luz penetrase en un cuarto oscuro a través de un orificio practicado en la persiana y que dicho rayo atravesara luego un trozo de vidrio triangular o «prisma».

lamina01.jpg
Las Pléyades. (Fot. Observatorios Mount Wilson y Palomar.) Gran Cúmulo de Hércules. (Fot. Observatorios M. Wilson y Palomar.)

Al pasar por el prisma, el rayo de luz se refractaba, yendo a incidir sobre la pared opuesta del cuarto en forma de una mancha extensa formada por colores sucesivos, de aspecto similar al arco iris. Newton bautizó esta banda de colores con el nombre de «espectro».

lamina02.jpg
La Nube Grande de Magallanes (Fot. Observatorio Lick), Nebulosas Obscuras Fot. Observatorios Mount Wilson y Palomar)

De este modo, Newton demostró que la luz solar no era una entidad pura y sin mezcla alguna, pues de haber sido así la luz se habría refractado en bloque, como un todo, incidiendo sobre la pared en la forma de un rayo de luz blanca exactamente igual que el rayo original. Pero las cosas no ocurrían así; parecía más bien que estuviese compuesta efectivamente por una mezcla de una gama muy amplia de tipos de luz, cada uno de los cuales se refractaba con un ángulo ligeramente diferente y era interpretado por el sentido de la vista como un color distinto. La mezcla de todas estas variedades, en las proporciones en que aparecen en la luz solar, es percibida por el hombre como luz blanca.
Llegados a este punto diremos que los distintos tipos de luz que componen la luz solar se distinguen entre sí por su longitud de onda. El ángulo con el cual un trozo de vidrio refracta un rayo de luz depende de la longitud de onda de ésta; a menor longitud de onda, mayor refracción. La luz naranja se refracta más que la roja, la amarilla más que la naranja, etc. La luz violeta es la que sufre una refracción mayor. En el espectro final, la luz roja ocupa el extremo menos refractado, es decir, aquel que se halla más próximo a la dirección de marcha del rayo de luz original, todavía sin refractar. La luz violeta ocupa el extremo opuesto.
Dentro de un mismo color —naranja, por ejemplo— las longitudes de onda más largas, rayanas ya en el rojo, se encuentran situadas hacia el extremo rojo del espectro, mientras que las más cortas, bordeando ya el amarillo, se hallan hacia el extremo violeta del espectro.
Supongamos ahora que intentamos aplicar el efecto Doppler a la luz. En líneas generales cabe decir que el Sol ni se aproxima a la Tierra ni se aleja de ella, debido a lo cual produce lo que para nuestros sentidos es un espectro equilibrado, compuesto de una mezcla que nuestra vista interpreta como blanca. Ahora bien, si el Sol se moviera hacia la Tierra ¿acaso no sería lícito suponer que las longitudes de onda de la luz se comprimirían y que cada una de las longitudes de onda que llegasen hasta nosotros sería más corta que lo normal? De este modo, el espectro entero se desplazaría hacia el extremo de las longitudes de onda cortas. Cada fragmento de la banda roja se desplazaría hacia el naranja, cada fragmento del naranja se correría correspondientemente hacia el amarillo, y así sucesivamente. Dado que el corrimiento global sería hacia el extremo violeta del espectro, se habla de un «corrimiento al violeta» [corrimiento, desplazamiento y desvío son expresiones equivalentes. N. del T.]
En tales condiciones no cabe esperar ya que la mezcla de luz del espectro produzca un blanco característico En el extremo rojo habría una deficiencia y en el violeta un exceso, con lo cual el color del Sol (en el supuesto de que se moviese en dirección a la Tierra) tomaría un tinte azulado. Siguiendo este razonamiento, cuanto más .deprisa se aproximara el Sol hacia nosotros, más azul sería su luz.
El mismo argumento, pero invertido, valdría para predecir lo que ocurriría si el Sol se alejase de nosotros. En este caso, las crestas de las ondas luminosas tenderían a separarse unas de otras. Las longitudes de onda se alargarían más de lo normal y el espectro se correría en bloque hacia el extremo rojo: entonces se habla de «corrimiento al rojo». Si el Sol se moviese alejándose de nosotros, su luz adquiriría un tinte naranja. Y cuanto más rápido fuese este alejamiento, más naranja sería la luz.
Pues bien, a pesar de que este razonamiento parece impecable, los hechos lo traicionan. El problema estriba en que la luz que vemos en un espectro no constituye ni mucho menos el espectro completo.
En 1800, William Herschel estudió el espectro producido por la luz del Sol (el «espectro solar») y observó el efecto térmico inducido sobre un termómetro por las diferentes porciones del espectro, midiendo de este modo el contenido energético total de cada una de dichas porciones. En este sentido era natural esperar que el aumento de-temperatura se hiciese cada vez menos marcado y concluyese por desaparecer a medida que nos moviésemos hacia el extremo del espectro. Pero en el caso del extremo rojo las cosas no ocurrían así. El aumento de temperatura en un punto situado algo más allá del extremo rojo era mayor que el correspondiente a cualquier otro punto del espectro.
Herschel dedujo de aquí que la luz del Sol incluía longitudes de onda más largas que las que nuestra vista puede detectar. Tales longitudes de onda se refractarían aún menos que las de la luz roja y estarían localizadas más allá del extremo rojo del espectro. Se trataría de «radiación infrarroja» («por debajo del rojo»).
Tal radiación sería desde luego real y sólo diferiría de la luz ordinaria en el tamaño de su longitud de onda y en el hecho de que no es perceptible para la vista humana. De suerte que hacia 1800 ya no podía hablarse simplemente de «luz» para designar aquello en virtud de lo cual percibimos visualmente, sino que era preciso hablar de «luz visible». La luz invisible dejaba de ser una contradicción intrínseca para convertirse en un hecho real (aun cuando hoy día la luz infrarroja se detecta fácilmente con instrumentos apropiados, no obstante ser invisible para el hombre).
Pero tampoco el extremo violeta- del espectro era un extremo propiamente dicho. En 1801 el físico alemán Tohann Wilhelm Ritter (1776-1810) estaba estudiando la capacidad de la luz para inducir ciertas reacciones químicas. Por ejemplo, la luz era capaz de provocar la descomposición de un producto químico blanco, el cloruro de plata, liberando minúsculas partículas de plata metálica. Fraccionados en partículas diminutas, los metales adquieren por lo general un color negro; también el cloruro de plata, expuesto a la luz, se ennegrecía progresivamente. Ritter observó que las distintas partes del espectro solar no se mostraban igual de eficaces a la hora de provocar este cambio. Cuanto más corta era la longitud de onda, más rápido era el proceso de ennegrecimiento del cloruro de plata. Inspirado por el descubrimiento que Herschel hiciera el año anterior, Ritter empezó a trabajar con la región situada más allá del extremo violeta del espectro, en la cual la luz ya no era visible. El resultado no dejaba lugar a dudas: el cloruro de plata se oscurecía más deprisa que trabajando con cualquier otra zona del espectro visible.
La conclusión a deducir era que en la luz solar existían longitudes de onda más cortas que cualquiera de las que se podían detectar con la vista. Tales longitudes de onda se refractarían aún más que las de la luz violeta y estarían localizadas más allá del extremo violeta del espectro. Es lo que se denomina «radiación ultravioleta» («más allá del violeta»).

15.jpg
Figura 15. Más allá del espectro visible

Así pues, el espectro producido por el Sol (y por otras estrellas) debemos imaginárnoslo como compuesto no sólo por los colores visibles (rojo hasta violeta), sino también por regiones de luz invisible más allá del rojo y del violeta. Cuando una estrella se mueve hacia nosotros, de modo que las longitudes de onda de la luz que emite se acortan y su espectro experimenta un corrimiento al violeta, la luz no se «apila» en el extremo violeta, sino que se «derrama» por encima de éste e invade la región ultravioleta invisible. Y este corrimiento tampoco deja una zona vacante en el extremo rojo: la radiación infrarroja se convierte en radiación roja visible por arte del acortamiento de la longitud de onda, pasando así a ocupar el hueco.
El espectro se desplaza en bloque, pero la porción visible permanece inalterada; lo que pierde en un extremo lo gana en el otro. El mismo argumento sería válido en el caso de que la estrella se alejase de nosotros, sólo que entonces el corrimiento sería hacia el rojo.
No cabe duda de que si la estrella se aproximara hacia nosotros a tal velocidad que toda la región infrarroja penetrase en la zona visible, o si se alejara tan deprisa que la región ultravioleta entera invadiese dicha zona, se produciría efectivamente un desplazamiento visible de color hacia el violeta o hacia el rojo, según los casos. Sin embargo, las velocidades de aproximación o de alejamiento necesarias para originar tales desplazamientos globales en el color son tan grandes, que parecía inconcebible (al menos en el siglo XIX) que tales velocidades pudieran darse entre los objetos celestes.
Y sin embargo, existen diferencias de color entre las estrellas. Algunas de ellas —Antares, por ejemplo— son marcadamente rojizas; otras, como Vega, son de color azulado. ¿Hay que deducir de ello que Antares se aleja velozmente de nosotros o que Vega se acerca a la Tierra a gran velocidad?
Por desgracia, no necesariamente, pues hay otras causas capaces de producir diferencias de color.
El Sol enrojece a la hora del crepúsculo a pesar de que no se está alejando de la Tierra. Lo que ocurre es que en ese momento la luz del Sol tiene que atravesar un espesor muy ancho de atmósfera hasta llegar a nosotros, por lo que las moléculas y las partículas de polvo contenidas en aquélla poseen muchas más oportunidades de reflejar y dispersar la luz solar. Este proceso de dispersión es más eficaz para las longitudes de onda cortas que para las largas. De día, el cielo se ve azul debido a la dispersión de las longitudes de onda cortas del espectro. La cantidad de luz dispersada de esta forma cuando el Sol está alto no es suficiente para modificar el color de la luz solar de un modo apreciable. Pero a medida que el Sol se aproxima al horizonte, la cantidad de radiación corta dispersada y eliminada por ese espesor cada vez mayor de atmósfera polvorienta va aumentando y la parte que queda es de un color marcadamente rojo[ix].
Por otra parte, una sustancia incandescente cambia de color al variar su temperatura. Si calentamos progresivamente una bola de hierro, llega un momento en que emitirá un color rojo intenso. Si seguimos aumentando la temperatura, adquirirá un rojo más brillante, después se tornará naranja, luego blanquecino y por último blanco azulado. Cuánto más alta es la temperatura, mayor es el desplazamiento global de la luz emitida hacia las longitudes de onda más cortas. Y, evidentemente, tal fenómeno no implicaría ningún movimiento de la esfera de hierro: ni hacia el observador ni alejándose de él.
Por último, el color puede variar con la composición química. En el caso de que el objeto sea visible por medio de la luz que refleja, la afirmación anterior es obvia: tintes o pigmentos diferentes reflejan también luz de colores diferentes. Pero incluso cuando la fuente de luz es la sustancia misma, es decir, cuando ésta no es un mero reflector pasivo, el color puede depender de la composición química. Si calentamos hasta la incandescencia un poco de sal común (un compuesto del metal sodio), se observará una luz de tinte claramente amarillo. Los compuestos de estroncio, calentados, emiten luz roja; los de bario, luz verde; los de potasio, luz violeta, etc.
¿Debemos deducir de todo esto que, a pesar del efecto Doppler, la luz de las estrellas no nos dicen nada acerca de su movimiento? Ni mucho menos. La situación es incluso más esperanzadora de lo que cabría esperar. Examinando el espectro de una estrella es posible deducir, no ya su movimiento, sino otras muchas propiedades Los espectros son bastante más que un simple arco iris de colores.

§. Líneas espectrales
En 1814 el óptico alemán Joseph von Fraunhofer (1787-1826) revolucionó el estudio de los espectros. Fraunhofer era de oficio constructor de prismas de vidrio fino y solía verificar la calidad de sus productos observando el espectro que producían. Siguiendo los pasos del químico inglés William Hyde Wollaston (1766- 1828), Fraunhofer hacía pasar el rayo de luz solar a través de una ranura muy fina antes de que aquél atravesara el prisma. Cada longitud de onda se refractaba con un ángulo característico, produciendo así, sobre la pantalla en que se proyectaba la luz, una imagen de la ranura en cada uno de los colores. Las diversas imágenes se solapaban, dando como resultado un espectro casi continuo a modo de arco iris.
Y decimos «casi continuo» porque algunas longitudes de onda no estaban presentes en la luz solar. Estas ausencias se manifestaban como líneas oscuras en el espectro: imágenes de la ranura ausentes, por así decirlo. Tales líneas oscuras del espectro solar habían sido observadas ya por Wollaston; pero con los excelentes prismas de Fraunhofer aparecían mucho más claras y además era posible observar un número mayor de ellas: cientos de líneas. Fraunhofer fue el primero en estudiar con detalle estas líneas oscuras y en localizar su posición exacta en el espectro. Por esta razón se denominan «líneas de Fraunhofer» o, con más generalidad, «líneas espectrales». El modelo de líneas espectrales del espectro solar es muy típico. Otros objetos con luz propia, como las estrellas en general, exhiben también líneas oscuras en sus espectros respectivos, pero siguiendo una pauta que a menudo difiere de un modo marcado de la del espectro solar. No obstante, ciertas líneas espectrales —en particular las más definidas, que Fraunhofer había designado con las letras A a K del alfabeto— aparecían como elementos invariables del espectro de la mayor parte de las estrellas.
Midiendo el ángulo de refracción asociado con una línea espectral concreta es posible determinar su longitud de onda correspondiente; para ello basta medir con exactitud la posición de la línea sobre una pantalla provista de una escala de referencia. Si por cualquier razón la longitud de onda correspondiente a la línea espectral se acorta, el ángulo de refracción asociado a ella aumentará y la posición de la línea se moverá hacia el extremo violeta del espectro. Por el contrario, si la longitud de onda se alarga, la línea se desplazará hacia el extremo rojo del espectro.
Poco tiempo después de que Doppler explicase la variación de frecuencia de un sonido como una consecuencia del movimiento, el físico francés Armand Hippolyte Louis Fizeau (1819-1896) señaló que para detectar este efecto en la luz no era preciso preocuparse de los cambios de color, sino que bastaba con medir la posición exacta de las líneas espectrales y observar su desplazamiento.
Para aclarar esto, imaginemos una barra larga, desprovista de todo relieve y de la cual sólo podamos ver un pequeño trozo. Si la barra se desplaza ligeramente no cabe duda de que estaremos viendo una porción distinta de la de antes; pero como esta nueva porción sigue careciendo de relieve o rasgos distintivos, no podremos decir cuánto se ha desplazado la barra, ni en qué dirección, ni siquiera si se ha movido o no. Por el contrario, si el trozo de barra que veíamos al principio llevase una marca, sería muy fácil detectar cualquier movimiento sin más que observar el desplazamiento de esta señal.
Esta es precisamente la explicación de por qué las líneas espectrales permiten detectar cualquier desplazamiento Doppler en la luz. Aquéllas vienen a ser las marcas del espectro. Puesto que Fizeau fue quien señaló esto por vez primera, a veces se habla del «efecto Doppler- Fizeau» en relación con la luz.
El efecto es pequeño, no obstante, y difícil de medir. El sonido se desplaza relativamente despacio —unos 331 metros por segundo— y los trenes pueden alcanzar fácilmente velocidades equivalentes a una décima parte de la velocidad del sonido. Las ondas sonoras pueden comprimirse y estirarse con gran facilidad. La luz, en cambio, viaja a 300.000.000 de metros por segundo, es decir, casi un millón de veces la velocidad del sonido. La mayor parte de las estrellas se mueven (en relación con nosotros) a menos de una diezmilésima de dicha velocidad, lo cual significa que las longitudes de onda de la luz de las estrellas se ven muy poco afectadas por el movimiento de éstas.
Fue preciso esperar hasta 1868 para que el astrónomo inglés William Huggins (1824-1910) consiguiera detectar un pequeño desplazamiento en las líneas espectrales de la brillante estrella Sirio, demostrando que ésta se movía alejándose del Sol.
En relación con lo anterior es importante darse cuenta que los movimientos estelares han de visualizarse en mes dimensiones. Desde luego es posible que una estrella se mueva en una dirección exactamente perpendicular a muestra línea visual o exactamente paralela a ella. Sin embargo, ambos casos son en extremo improbables. Mucho más probable es, por el contrario, que la estrella no se mueva ni paralela ni perpendicularmente a la línea visual, sino en cualquiera de las direcciones intermedias. El movimiento se puede separar entonces en dos componentes: una en la dirección de la línea de observación y otra formando ángulo recto con ella. Gráficamente, esto se lleva i cabo representando el movimiento real como la diagonal de un rectángulo, cuyos dos lados adyacentes serían las dos componentes de que hemos hablado. Las longitudes de la diagonal y de los dos lados son proporcionales al movimiento real y a las dos componentes del movimiento, respectivamente.
La componente situada sobre la línea visual se denomina «velocidad radial», debido a que es un movimiento hacia nosotros o alejándose de nosotros, pero siempre a lo largo de un radio imaginario que conectase nuestro ojo con la vasta esfera celeste. La componente perpendicular a la línea de observación es la «velocidad transversal» (la velocidad que «atraviesa» la línea visual). Es precisamente la velocidad transversal la que desplaza materialmente la estrella a través de los cielos y la que se manifiesta como el movimiento propio del objeto celeste.

16.jpg
Figura 16. Componentes del movimiento

La magnitud relativa de ambas componentes depende del ángulo que forme el movimiento de la estrella con la línea visual. Y a la inversa: conociendo los valores de la velocidad radial y de la transversal, es posible determinar la velocidad real de la estrella.
Las dos componentes de la velocidad se calculan de modos completamente diferentes. La velocidad radial se refleja en el espectro de la estrella en virtud del efecto Doppler-Fizeau. Midiendo la magnitud del desplazamiento de las líneas espectrales, se puede calcular la velocidad radial (hacia nosotros, si el corrimiento es al violeta; apartándose de nosotros, si el corrimiento es al rojo) directamente en kilómetros por segundo. El cálculo es absolutamente independiente de la distancia a que se encuentre la estrella. Las longitudes de onda de las líneas espectrales tienen unos valores fijos, por lo cual un corrimiento dado en dichos valores delatan una velocidad radial específica: igual da que la estrella se encuentre a cuatro años luz que a cuatro mil. El único requisito es que la estrella sea suficientemente brillante para que en el espectro resultante se pueda medir la posición de las líneas. La velocidad transversal de un cuerpo celeste no se refleja para nada en el espectro, pero sí se manifiesta en forma de un desplazamiento material a través de la bóveda celeste. En consecuencia, se detecta como un movimiento propio y se mide en ángulos de arco. Si a continuación queremos convertir el movimiento propio (en segundos de arco) en una velocidad transversal (en kilómetros por segundo) necesitamos conocer la distancia de la estrella. Por ejemplo, si la estrella de Barnard se encuentra a 6,1 años-luz de distancia y se mueve a través del cielo a razón de 10,3 segundos de arco por año, su velocidad transversal será de unos 90 kilómetros por segundo.

§. El centro galáctico
Llegados a este punto, podemos volver al problema ¿e calcular la distancia de las variables Cefeidas.
Supongamos que enfocamos la cuestión desde un punto de vista estadístico. Para aquellas estrellas que se mueven en direcciones próximas a la línea visual, la velocidad radial es mayor que la transversal, mientras que en el caso de aquellas otras que viajan más o menos en ángulo recto a dicha línea, la velocidad transversal será mayor que la radial.Por término medio, sin embargo, estas dos tendencias opuestas tienden a cancelarse, con lo cual las velocidades radial y transversal pueden tomarse, en general, como iguales.
Siendo esto así, el movimiento propio observado de una Cefeida (en ángulo de arco por año) puede considerarse equivalente, no sólo a la velocidad transversal, sino también a la radial; y la velocidad radial se puede medir directamente, por métodos espectrales, en kilómetros por segundo. Si se conoce la expresión de una velocidad como un cierto ángulo de arco por año y como un determinado número de kilómetros por segundo, es posible calcular la distancia del objeto en cuestión; pues sólo a una distancia concreta, una velocidad de tantos kilómetros por segundo produce un desplazamiento de tal ángulo de arco por año.
Para una Cefeida concreta este tipo de cálculo puede llegar a proporcionar un resultado disparatado, pues en un caso particular puede ocurrir que la velocidad radial sea mucho mayor o mucho menor que la transversal. Pero si en vez de ello tomamos cierto número de Cefeidas pertenecientes a un mismo cúmulo, todas ellas con el mismo período, y determinamos la distancia correspondiente a cada una de ellas, es muy probable que ladistancia media se aproxime a la realidad.
El astrónomo danés Ejnar Hertzsprung (1873-1967) utilizó en 1913 este método para determinar la distancia de algunas de las Cefeidas, y varios años más tarde
Shapley aplicó esta técnica estadística al problema concreto de averiguar la estructura de la Galaxia. Para ello calculó las distancias de varias Cefeidas de distintos períodos; con este dato y conociendo el brillo aparente de las Cefeidas, consiguió calcular la luminosidad de estas estrellas.
Haciendo una gráfica de las luminosidades así calculadas, en función de los períodos, era de esperar que se obtuviese, al menos aproximadamente, una línea recta, siempre que se prescindiese de cierta dispersión debida a la incertidumbre intrínseca del método. Esto era lo mínimo que se debía obtener si es que el método tenía alguna validez. Por otra parte, si este método estadístico fuese completamente inservible, las distancias calculadas estarían equivocadas, las luminosidades no se corresponderían, por tanto, con la realidad y no existiría una correlación clara entre luminosidad y período.
Mas cuando Shapley trazó la gráfica luminosidad- período, obtuvo una recta bastante aceptable, lo cual significaba que sus resultados podían considerarse como esencialmente correctos. Y dado que conocía tanto la luminosidad como el período de algunas Cefeidas representativas, estaba en condiciones de determinar la distancia de cualquiera de ellas. La escala Cefeida era ya absoluta.
De este modo Shapley pudo determinar las distancias efectivas de los distintos cúmulos globulares, pasando luego a calcular la distancia del centro de la esfera dentro de la cual aquéllos se encontraban distribuidos. Shapley tomó como centro de esta esfera el centro de la Galaxia, que según sus cálculos resultaba encontrarse a 50.000 años-luz (15.500 parsecs) del Sol.
Así, pues, hacia 1920 la posición del hombre en el Universo sufrió de nuevo una alteración drástica y, una vez más, esta alteración se produjo en el sentido de una mayor humillación. Copérnico había demostrado que la Tierra no era el centro del Universo, pero nunca dudó de que el Sol ocupase dicho centro como parte de la ordenación natural. Herschel y Kapteyn, por su parte, habían creído que el Sol ocupaba el centro de la Galaxia v por tanto del Universo), al menos por accidente, si es que no por ordenación de la naturaleza. Y ahora Shapley demostraba, de un modo perfectamente convincente, que ello no era así, que el Sol se hallaba muy lejos en las afueras de la Galaxia.
En lugar del Universo geocéntrico de Ptolomeo y del Universo heliocéntrico de Copérnico, teníamos ahora el «Universo excéntrico» de Shapley, en el cual el Sol se encontraba —como la palabra misma indica— fuera del centro.
El Universo excéntrico de Shapley planteaba, sin embargo, ciertos problemas. Si el grueso de la Galaxia se bailaba a uno de los lados del Sol, en dirección a la constelación de Sagitario, ¿por qué la banda de la Vía Láctea no era muchísimo más brillante (en vez de algo más brillante) en esa dirección que en la opuesta, donde sólo existían las últimas estribaciones de la Galaxia?
La respuesta a esta pregunta vino de la mano de la siguiente constatación: el Universo no se agota en aquello que es perceptible para el ojo humano. No todo lo que reluce en los cielos más allá del sistema solar es una estrella. Existían también objetos de brillo más difuso, algunos de los cuales habían sido registrados convenientemente por Messier, mientras que de otros se tenían ya noticia antes de la llegada de este astrónomo.
En 1694, por ejemplo, el astrónomo holandés Christian Huygens (1629-1695) incluyó en su diario la descripción de una zona brillante y difusa en la constelación de Orión. Las regiones de estas características, cuyo aspecto se asemeja al de una nube luminosa, recibieron el nombre de «nebulosas» («nébula» es nube en latín). La descrita por Huygens es la «Nebulosa de Orión».
La Nebulosa de Orión es un objeto descomunal. Se sabe que está situada a una distancia de 1.600 años-luz; v para que a esta distancia nosotros observemos el diámetro aparente que vemos, el diámetro real tiene que ser de 30 años-luz. Se trata de una ingente nube de partículas de polvo muy dispersas si lo medimos por los patrones terrestres; en efecto, esta nebulosa es un millón de veces menos densa que los vacíos más perfectos que podemos conseguir en el laboratorio, pero es tan voluminosa que encierra en su interior una serie de estrellas calientes, cuya luz refleja y dispersa. Hoy día se conocen otras muchas nebulosas luminosas de este tipo, algunas de ellas sobremanera hermosas.
Pero así como los astrónomos se dieron cuenta de que ciertas regiones del espacio despedían una luminosidad suave y difusa, también advirtieron la existencia de zonas que mostraban una falta sorprendente de luminosidad. Estudiando con detenimiento la Vía Láctea, William Herschel observó ciertas regiones en las que existían muy pocas estrellas, aun cuando en ocasiones estaban rodeadas por otras zonas que reventaban materialmente de ellas. Herschel, sin complicarse la vida, interpretó estas zonas oscuras como regiones desprovistas de estrellas, añadiendo que la Tierra estaba situada de tal suerte que al mirar hacia los cielos se veía directamente el interior de tales regiones vacías. «No cabe duda —dijo Herschel—, se trata de un agujero en los cielos.»
A medida que se estudió un número creciente de tales zonas, parecía menos probable que, carentes por completo e inexplicablemente de estrellas, pudiesen existir en cantidades tan profusas y que todas ellas estuvieran situadas de tal modo que la perspectiva nos permitía observar el «agujero». En 1919, E. E. Barnard había registrado ya la posición de 182 regiones oscuras y hoy día su número se eleva a más de 350.
A Barnard y al astrónomo alemán Max Franz Cornelius Wolf (1863-1932) se les antojaba que estas zonas oscuras no eran simples agujeros; no fue ausencia de materia lo que observaron, sino precisamente la presencia de ella: ingentes nubes de partículas de polvo que absorbían y bloqueaban la luz de las estrellas situadas detrás de aquéllas, igual que las nubes de la atmósfera terrestre absorben e interceptan la luz del Sol.
En resumen, al lado de las nebulosas brillantes existían también «nebulosas oscuras». Las primeras resplandecían debido a que en su interior albergaban estrellas; las segundas eran oscuras porque tales estrellas no existían.

17.jpg
Figura 17. La porción visible de la galaxia.

Entre las nebulosas oscuras más famosas figura la «Nebulosa Cabeza de Caballo» en la constelación de Orión, que resalta como una cabeza de caballo oscura contra el fondo luminoso de otra nebulosa brillante. (El autor opina, sin embargo, que esta nebulosa se parece más bien a la cabeza y hombros de la figura del Lobo Feroz de Walt Disney.) Otra nebulosa oscura es el «Saco de Carbón», una región de intensa lobreguez cerca de la Cruz del Sur.
Si las nebulosas oscuras están distribuidas de un modo más o menos uniforme a lo largo y a lo ancho de la Galaxia, es lógico esperar que su abundancia fuese máxima precisamente allí donde las estrellas también abundan más. Efectivamente, la mayor parte de las nebulosas oscuras se encuentran localizadas en el plano de la Vía Láctea y, en particular, en la dirección de Sagitario, donde se hallan situados el centro galáctico y el grueso de la estructura de la Galaxia. Ya vemos, pues, por qué el centro galáctico y todo cuanto se halla detrás de él aparece oscurecido: la luz procedente de aquellos lugares se ve interceptada permanentemente por las nubes de polvo.
Cerca del plano de la Vía Láctea existe también una región en la cual tampoco se observan cúmulos globulares ni ninguno de los objetos distantes que son comunes en otras porciones del cielo. Esta región se denomina «zona de vacío».
La razón de que la banda de la Vía Láctea muestre un brillo aproximadamente igual en todas direcciones no estriba en que el sistema solar se halle cerca del centro de la Galaxia, sino únicamente en que la mayor parte de la luz de ésta se ve obstruida por las nebulosas oscuras. El fragmento de Vía Láctea que se observa desde la Tierra sólo es una porción de nuestra vecindad, por así decirlo; únicamente un extremo de la Galaxia.
Concluyendo: la idea de Shapley de que el sistema solar ocupa una posición excéntrica en la Galaxia se mantuvo firme, a pesar de que la naturaleza de la Vía Láctea parecía indicar que nuestro sistema ocupa una posición central.

§. Las dimensiones galácticas
Sin embargo, la conclusión de Shapley no era correcta en todos sus detalles. Por primera vez en la Historia del hombre, y tras miles de años de subestimar invariablemente el tamaño del Universo, un astrónomo sobreestimaba las dimensiones de una porción importante del mismo.
Una vez más, la dificultad surgió en relación con lo no visible. Admitida la existencia de las nebulosas oscuras, parece razonable preguntarse si existe alguna parte del espacio que sea perfectamente transparente.
Establezcamos una analogía con la atmósfera. Nadie ignora que una concentración excesiva de partículas de polvo (ya sean sólidas, como en el humo, o líquidas, como en la niebla, bruma o nubes) puede obstruir la luz, incluso la luz de un objeto tan brillante como el Sol. Cuan- ¿o las partículas se encuentran casi a ras del suelo (en especial en forma- de niebla) la visión resulta imposible 3 distancias relativamente cortas; en casos extremos, la visibilidad se pierde a unos cuantos metros, lo cual demuestra el poder que tienen las partículas de niebla o de humo para dispersar la luz.
Parece lógico pensar que cuando el aire está diáfano y libre de cualquier traza visible de nubes o de bruma, será perfectamente transparente y no interferirá para nada con la luz. Pero esto es ilusorio. Incluso en los momentos de máxima claridad, la atmósfera no es perfectamente transparente. Siempre dispersará algo de luz, como lo demuestra el simple hecho de que el cielo sea de color azul la radiación azul proviene de la luz solar dispersada). E incluso en las noches más claras, el aire absorbe una fracción importante de la luz sidérea que cae sobre la Tierra.
Así, pues, no cabe esperar una transparencia perfecta como no sea del vacío absoluto. El espacio interestelar es casi un vacío perfecto: mucho más transparente —incluso en el interior de una nebulosa— que la atmósfera terrestre, aunque no llega tampoco a una transparencia absoluta. Y el hecho de que no sea absoluta se debe a la presencia esporádica, aquí y allá, de una partícula de polvo en el inmenso vacío del espacio interestelar, partícula que interceptará y desviará ocasionalmente un rayo de luz sidérea. Tomado por separado, este efecto es insignificante, pero en un intervalo de años-luz como el que existe de una estrella a otra pueden intervenir un número suficiente de partículas para que el efecto de dispersión se acumule y resulte en un fenómeno observable.
El mejor método para detectar este minúsculo efecto de dispersión se basa en el hecho de que la luz de onda corta se dispersa con más facilidad que la de onda larga. El proceso de dispersión elimina, por tanto, el extremo azul-violeta del espectro, y la luz que queda es cada vez más rojiza. En consecuencia, si se comprobara que las estrellas distantes son más tenues y rojizas de lo normal y que este efecto aumenta continuamente con la distancia, la presencia de polvo interestelar sería un hecho muy probable.
El primero que demostró de forma concluyente la presencia de este efecto fue el astrónomo suizo-americano Robert Julius Trumpler (1886-1956), y lo demostró en conexión con sus estudios de los cúmulos estelares. Tales cúmulos poseen un tamaño medio y un brillo medio determinados, y ambos factores deben disminuir de la misma forma, a saber, proporcionalmente al cuadrado de la distancia. De aquí se seguía que un cúmulo globular que ocupase una extensión dada del espacio debía poseer también un brillo determinado.
En 1930, sin embargo, Trumpler constató que la luz de los cúmulos globulares más distantes era más tenue de lo que cabía esperar a partir de su tamaño. Y cuanto más alejado el cúmulo, mayor era esta divergencia respecto al brillo esperado. El área del cúmulo decrecía efectivamente de acuerdo con el cuadrado de la distancia, pero el brillo parecía disminuir según el cuadrado de la distancia más cierto factor atenuante adicional. Por otra parte, cuanto más distante era el cúmulo, más rojizo era su aspecto.
La manera más fácil de explicar este fenómeno consistía en suponer que en el espacio interestelar existían conglomerados minúsculos de polvo y que estos conglomerados ejercían un efecto atenuante y enrojecedor a lo largo de distancias gigantescas. A lo largo de estas distancias ingentes el polvo conseguía oscurecer y enrojecer el brillo de los cúmulos lejanos, igual que el polvo contenido en la atmósfera atenúa y enrojece la luz solar durante el crepúsculo. En el plano de la Vía Láctea, donde la concentración de polvo es máxima, se estima que la mitad de la energía de un rayo de luz se dispersa al cabo de un viaje de 2.000 años-luz; la mitad de lo que queda se elimina al cabo de otros 2.000 años-luz, y así sucesivamente. Al cabo de 30.000 años-luz (la distancia que nos separa del centro galáctico) sólo quedaría 1/32.000 de la energía de los rayos luminosos, aun suponiendo que no atravesara ninguna de esas concentraciones poco usuales de polvo que son las nebulosas oscuras. No es de extrañar, pues, que resulte imposible ver el centro de la Galaxia con luz visible. (La luz infrarroja atraviesa el polvo con más facilidad; en un punto del cielo correspondiente al centro invisible de la Galaxia se ha conseguido detectar una mancha infrarroja.)
Este efecto atenuador tiene importancia en relación con las lejanas Cefeidas. A partir del período de una Cefeida concreta se puede determinar su luminosidad, y comparando ésta con el brillo observado se puede calcular su distancia, puesto que es muy fácil averiguar a qué distancia se tiene que encontrar una estrella para que su luminosidad se reduzca aparentemente a ese simple punto de luz que se observa desde la Tierra. Ahora bien, este cálculo descansa sobre el supuesto de que la reducción de brillo se debe única y exclusivamente al factor distancia, cuando lo cierto es que la presencia de polvo interestelar contribuiría a oscurecer también la luz de una Cefeida lejana. De no ser por la presencia del polvo interestelar, la Cefeida parecería mucho más brillante, amolándosenos, por tanto, más cercana. En otras palabras, la existencia de este polvo (suponiendo que fuese tenida en cuenta) induce a estimar las distancias por exceso.
La estimación de Shapley, según la cual el centro de la Galaxia se halla a 50.000 años-luz de nosotros, se basaba en el supuesto de que las Cefeidas sólo perdían brillo por causa de la distancia. Teniendo en cuenta la presencia de polvo interestelar como un segundo agente atenuador, el centro de la Galaxia resulta estar a menos de 30.000 años luz. Esto nos sigue situando lejos del centro galáctico, pero quizá sirva de consueto saber que sólo nos encontramos a 45 años-luz del plano galáctico (el plano imaginario que pasa por el centro y corta la Galaxia longitudinalmente). Esta es la razón por la cual la Vía Láctea parece dividir el cielo en dos mitades aproximadamente iguales.

18.jpg
Figura 18. Las nubes de Magallanes y la Vía Láctea

Así, pues, a principios de la década de 1930-39 se había logrado por fin determinar las dimensiones de la Vía Láctea tal y como se aceptan hoy día. La Galaxia es un objeto en forma de lente, de unos 80.000-100.000 años- luz de diámetro; nuestro sistema solar está situado a unos 27.000 años-luz del centro. El espesor de la Galaxia es de 16.000 años-luz en el centro y de 3.000 en el punto donde se baila situado el Sol. Los cúmulos globulares están distribuidos esféricamente alrededor del centro de la Galaxia y esta esfera de cúmulos tiene un diámetro global de 100.000 años-luz.
Así, pues, a principios de la década de 1930-39 se había logrado por fin determinar las dimensiones de la Vía Láctea tal y como se aceptan hoy día. La Galaxia es un objeto en forma de lente, de unos 80.000-100.000 años- luz de diámetro; nuestro sistema solar está situado a unos 27.000 años-luz del centro. El espesor de la Galaxia es de 16.000 años-luz en el centro y de 3.000 en el punto donde se baila situado el Sol. Los cúmulos globulares están distribuidos esféricamente alrededor del centro de la Galaxia y esta esfera de cúmulos tiene un diámetro global de 100.000 años-luz.

lamina03.jpg

Nebulosa luminosa (Fot. Observatorio Link). Nebulosa Cabeza de Caballo (Fot. Observatorio M. Wilson y Palomar

Por otra parte, basándose en las observaciones de las Cefeidas pertenecientes a las Nubes de Magallanes, fue posible calcular las distancias de éstas. La Nube Grande de Magallanes dista unos 155.000 años-luz de nosotros, y unos 165.000 años-luz la Nube Pequeña.

lamina04.jpg
Nebulosa Andrómeda. (Fotografía del observatorio Lick)

Su posición queda indicada en la figura de abajo; hay razones para pensar que entre ambas Nubes se extienden conexiones débiles, de suerte que ambas formarían un único sistema. Cabe la posibilidad de que la Nube Grande se encontrara en tiempos pasados mucho más cerca de nosotros, y es probable que hace 500 millones de años «rozase» nuestra era Galaxia, aproximándose a unos 65.000 años-luz de su centro.
Ahora bien, el tamaño de la Galaxia no es sólo cuestión del volumen de espacio que ocupa. ¿Cuántas estrellas contiene?
Para responder a esta pregunta, Jan Oort supuso que la Vía Láctea se concentra fuertemente en su centro, de modo que la región central contuviese un 90% de todas las estrellas de la Galaxia. En la hipótesis de que esto fuese cierto, las estrellas situadas en las afueras de la Galaxia (nuestro Sol, por ejemplo) girarían alrededor del centro, de la misma forma que la Tierra gira en torno al Sol.
Además, las estrellas que se encontraran más cerca del centro galáctico girarían a una velocidad también mayor, mientras que las más alejadas rotarían más despacio.
Esto es una consecuencia de la teoría gravitatoria y análogo al hecho de que Mercurio, por ejemplo, que se encuentra más cerca del Sol que la Tierra, se mueve alrededor de él a una velocidad mayor que la de nuestro planeta, mientras que Júpiter, más lejano que nuestro planeta, gira a una velocidad menor.)

19.jpg
Figura 19. Rotación Galáctica

Estas consideraciones sólo son válidas cuando las órbitas de los distintos cuerpos que giran alrededor del centro son circulares o casi circulares, como ocurre en el caso ¿e los planetas del sistema solar. El análisis no sería tan directo en el caso de estrellas cuya órbita en torno al centro galáctico fuese muy excéntrica.
Ahora bien, si tomamos en consideración un número grande de estrellas, los efectos de la excentricidad orbital se compensarán mutuamente. Entonces es fácil ver que las estrellas que se encuentran entre nosotros y el centro galáctico tenderán a moverse más de prisa que nuestro sistema: irán ganando terreno y acercándose progresivamente hacia nosotros en dirección radial. Una vez que hayan pasado a nuestra altura, empezarán a alejarse cada vez más (radialmente) de nuestro sistema. En cambio, las estrellas que se encuentran más apartadas que nosotros del centro se moverán más despacio: poco a poco les vamos ganando terreno, aproximándonos a ellas radialmente, pasamos a su altura y nos volvemos a alejar.
Así pues, en términos generales debería existir cierta regularidad, tanto en las velocidades transversales como en las radiales, entre las estrellas más o menos cercanas a nosotros. Y de hecho existe. Fue precisamente esta regularidad en las velocidades radiales lo que permitió detectar el movimiento aparente del Sol hacia el ápex (véase pág. 76); se trata de un movimiento menor, relativo únicamente a las estrellas más próximas. En 1904 Kapteyn consiguió extraer conclusiones de tipo más general, afirmando que existían dos corrientes de estrellas que se movían en direcciones opuestas.
En 1925 Oort demostró que las dos corrientes de Kapteyn no eran sino las estrellas interiores que iban ganando terreno al Sol, por un lado, y las exteriores que iban quedando descolgadas, por otro. Oort consiguió determinar la naturaleza de la rotación general de la Galaxia, y a partir de ahí calcular la dirección y la distancia del centro galáctico por un método independiente de la posición de los cúmulos globulares. Demostró que el centro se hallaba a unos 30.000 años-luz- de distancia, en la dirección de Sagitario. Este resultado concordaba con los cálculos deducidos a partir de los cúmulos globulares (una vez tomada en cuenta la presencia del polvo interestelar) y esta concordancia bastó para que el modelo excéntrico de Shapley fuese aceptado con carácter general por los astrónomos.
Basándose en el estudio de los movimientos relativos de las estrellas, Oort también logró demostrar que el Sol gira en una órbita aproximadamente circular alrededor del centro galáctico y a una velocidad (en relación con dicho centro) de 220 km., por segundo, completando una vuelta al cabo de 230.000.000 de años.
Para que a esa distancia la atracción gravitatoria impulse al Sol a dicha velocidad, el centro galáctico debe tener una masa 90.000 millones de veces superior a la del Sol. Si suponemos que el 90% de la masa de la Galaxia está concentrada en el centro, la masa total de la Galaxia resulta ser 100.000 millones de veces superior a la del Sol.
Los estudios estadísticos de las estrellas parecen indicar que el Sol es una estrella de masa media, por lo cual cabe especular que la Galaxia contiene unos 100.000 millones de estrellas, aun cuando ciertas estimaciones dan cifras más altas.
Teniendo en cuenta la inmensa distancia que nos separa de las Nubes de Magallanes, vemos que la región que ocupan éstas en el espacio es bastante respetable El diámetro máximo de la Nube Grande quizá sea de unos 40.000 años luz, es decir, casi la mitad del diámetro de la Galaxia. Sin embargo, las Nubes de Magallanes tienen una población estelar mucho menos densa que la de nuestra Galaxia, y éste es quizá el hecho decisivo. La Nube Granee de Magallanes seguramente no contiene más de 5.000-10 000 millones de estrellas, ni la Nube Pequeña más de 1.000-2.000 millones. En cuanto al contenido de estrellas, las dos Nubes juntas no suponen sino una décima parte de la Galaxia, por lo cual cabría concebirlas como «satélites» de ésta.
Sin embargo, a pesar del menor tamaño de las Nubes de Magallanes, éstas contienen algunos tipos de objetos que superan en tamaño y espectacularidad a cualquiera de los que se encuentran en nuestra Galaxia (al menos en aquellas partes que nos es dado observar). Por ejemplo, la estrella más luminosa que se conoce, S Doradus, se encuentra emplazada en la Nube Grande de Magallanes (la estrella se llama así porque la Nube Grande está en la constelación Dorado, el Pez Espada). S Doradus es una estrella de octava magnitud que no posee un brillo suficiente para ser observada a simple vista. Pero exhibir ese brillo a una distancia como la de la Nube Grande de Magallanes supone una luminosidad monumental. S Doradus es treinta veces más luminosa que Rigel —la estrella más luminosa de las que se encuentran relativamente cerca de nosotros— y unas 600.000 veces más luminosa que el Sol.
La Nube Grande de Magallanes contiene asimismo la nebulosa Tarántula, una nube de polvo brillante, parecida a la nebulosa Orión, pero 5.000 veces mayor. La Nebulosa Tarántula es mucho más grande y espectacular que cualquier objeto similar que se pueda observar en nuestra Galaxia.
Ya tenemos, pues, una imagen clara de esa porción del Universo que abarca el gigantesco cúmulo de estrellas a que pertenecemos. Si imaginamos una esfera con centro en el punto medio de la Galaxia y un radio de unos 200.000 años-luz, dicha esfera contendría la Galaxia entera y las Nubes de Magallanes, con un total de 150.000 millones de estrellas, más o menos.

Capítulo 6
Otras galaxias

Contenido:
§. La nebulosa de Andrómeda
§. Novas
§. La galaxia de Andrómeda
§. Las galaxias espirales
§. La nebulosa Andrómeda
La idea que el Hombre tenía del tamaño del Universo había evolucionado enormemente en 2.000 años. Recapitulemos.
En el año 150 a. J. había sido definido ya de un modo preciso el sistema Tierra-Luna. Se comprobó que el diámetro de la órbita de nuestro planeta medía unos novecientos mil kilómetros y se sospechaba que el diámetro de las órbitas planetarias era del orden de millones de kilómetros.
Hacia 1800 se había logrado ya fijar la escala del sistema solar. Su diámetro no era cuestión de millones de kilómetros, sino de miles de millones. La distancia de las estrellas seguía siendo una incógnita, aunque se suponía que oscilaba alrededor de los billones de kilómetros como mínimo (es decir, varios años-luz).
En 1850 se había logrado ya precisar la distancia de las estrellas más cercanas, comprobando que no era sólo de billones de kilómetros, sino de decenas y centenas de billones. Aún no se conocía el diámetro de la Galaxia, pero se suponía que oscilaba alrededor de varios miles de años-luz.
En 1920 quedó establecido definitivamente el diámetro de la Galaxia, pero no en algunos miles de años-luz, sino en muchas decenas de miles de años-luz.
En cada nuevo estadio, el tamaño de aquella región del Universo cuyas dimensiones se trataba de averiguar resultaba superior a las estimaciones más optimistas efectuadas durante la etapa anterior. Pero además se observa que en cada estadio prevalecía siempre la opinión conservadora, en el sentido de que la porción cuyas dimensiones acababan de ser fijadas constituía la totalidad o la casi totalidad del Universo, opinión que, hasta 1920, siempre resultó ser errónea.
El sistema Tierra-Luna había quedado reducido a la insignificancia al lado del tamaño del sistema solar. El sistema solar, a su vez, resultó ser diminuto comparado con la distancia de las estrellas más próximas. Y el sistema de estrellas más cercanas era insignificante comparado con la Galaxia en su totalidad.
¿Continuaría este proceso o, por el contrario, representaban la Galaxia y sus satélites Magallánicos el fin definitivo? ¿Habían avanzado ya los astrónomos hasta los últimos confines del Universo?
Todavía en 1920 parecía muy posible que por fin triunfara la concepción conservadora y que la Galaxia y las Nubes de Magallanes abarcaran toda la materia que existía en el Universo; más allá de ellas podía decirse que no había nada.
Esta vez la concepción conservadora venía respaldada por argumentos teóricos muy fuertes. Recordemos que la paradoja de Olbers parecía implicar la existencia de un Universo finito, lo cual venía apoyado por el hecho de que, al parecer, las estrellas estaban confinadas dentro de una Galaxia finita y en forma de lente. Si se comprobaba que fuera de la Galaxia y de sus satélites existían otros muchos objetos de enorme tamaño, la paradoja de Olbers plantearía sin duda a los astrónomos en dilema irresoluble.
Mas los astrónomos no podían darse por satisfechos con ese Universo finito de 200.000 años-luz de diámetro. Había razones para sospechar que fuera, muy fuera de la Galaxia podían existir objetos de gran tamaño y muy numerosos; argüir contra la existencia de esta sospecha resultaba en extremo difícil.
Uno de los objetos más embarazosos consistía en una mancha de luz de aspecto nuboso en la constelación de Andrómeda; debido a su situación y a su aspecto, esta mancha recibió el nombre de «nebulosa de Andrómeda».
La nebulosa de Andrómeda puede observarse a simple vista y aparece como un pequeño objeto de cuarta magnitud, con el aspecto de una estrella débil y difusa. Algunos astrónomos árabes la habían registrado en sus cartas celestes, pero el primero en describirla, dentro ya de los Lempos modernos, fue el astrónomo alemán Simón Marres (1570-1624) en el año 1612. En el siglo siguiente Messier la incluyó en su lista de objetos difusos que no eran cometas. Y como en esta lista figuraba en el puesto trigésimo primero, la nebulosa de Andrómeda se conoce a menudo como «M31».
En un principio no había razón alguna para pensar que la nebulosa de Andrómeda difería esencialmente de otras nebulosas, como la de Orión, por ejemplo. La nebulosa de Andrómeda aparecía en los cielos como una nube luminosa, y eso era todo.
Algunos astrónomos del siglo XVII llegaron incluso a concebir un lugar para tales nubes dentro del esquema general de cosas. ¿No sería que las estrellas se originaron a partir de masas de gas en rotación que, con el tiempo, se dilataron? Bajo el efecto de su propia gravitación, tajes nubes empezarían a contraerse y a condensarse y, como consecuencia de ello, a girar con una velocidad cada vez mayor. A medida que aumentara la velocidad de rotación, la nube se iría aplanando en una forma lenticular y, ocasionalmente, emitiría un anillo de gas de su parte más abultada (el ecuador). Conforme el movimiento de giro siguiese acelerándose, se desgajaría un segundo anillo, después un tercero, etc. Cada uno de éstos se fundiría en un pequeño cuerpo planetario y lo que restara de nube se condensaría finalmente en una enorme estrella incandescente situada en el centro de una familia entera de planetas.
Una teoría tal explicaría ciertamente el hecho de que todos los planetas del sistema solar giran más o menos en el mismo plano y que todos ellos rotan alrededor del Sol en el mismo sentido. Además, cada uno de los planetas posee a su vez un sistema de satélites que giran en torno al centro en un mismo plano y en el mismo sentido: era como si en el proceso de contracción a partir de un anillo gaseoso los planetas hubieran emitido a su vez anillos más pequeños.
El primero que asignó al sistema solar un origen de este tipo fue el filósofo alemán Immanuel Kant (1724- 1804) en el año 1755. Medio siglo más tarde, el astrónomo francés Pierre Simón de Laplace (1749-1827) publicaba una teoría similar (a la cual llegó de un modo independiente) en un apéndice a un libro muy famoso sobre astronomía.
Resulta interesante constatar que Kant y Laplace sostenían puntos de vista opuestos acerca de la nebulosa de Andrómeda; y esta oposición dio lugar a una polémica entre los astrónomos que duró siglo y medio.
Laplace concebía la nebulosa de Andrómeda como (posiblemente) un sistema planetario en proceso de formación; y de hecho, su estructura es tal que parece denotar claramente un rápido movimiento de rotación. Incluso se puede distinguir (o al menos convencerse a uno mismo de que se distingue) un anillo de gas a punto de desgajarse. Por esta razón, la idea de Laplace en punto al método de formación de los sistemas planetarios se conoce con el nombre de «hipótesis nebular».
Si Laplace estuviera en lo cierto y la nebulosa de Andrómeda fuese un volumen de gas que sirviera de precursor para un único sistema planetario, dicha nebulosa no podía ser un objeto demasiado grande y —en vista de su tamaño aparente en el telescopio— tampoco demasiado distante.
La hipótesis nebular de Laplace fue bien acogida entre los astrónomos del siglo XIX, y sus ideas acerca de la nebulosa de Andrómeda representaron la opinión mayoritaria a lo largo de toda esa época. En 1907 se publicaron ¿artos cálculos del paralaje de esta nebulosa que, al parecer, demostraban que su distancia era de 19 años-luz: esto parecía, ciertamente, dejar sentada la cuestión.
Sin embargo, no había que olvidar la concepción opuesta de Kant. A pesar de que este filósofo también había concebido una hipótesis nebular, no se dejó arrastrar por la tentación de aceptar la nebulosa de Andrómeda como un puntal indiscutible de su teoría, sino todo lo contrario: sugirió que la nebulosa de Andrómeda, así como otros cuerpos similares, quizá representaran descomunales conglomerados de estrellas, cuyo aspecto de minúsculas manchas difusas sólo respondía a que se hallaban a una distancia enorme. Kant tenía la sensación de que se trataba «universos islas», de galaxias independientes, por así decirlo.
Estas hipótesis no se basaban, empero, en datos empíricos a los cuales pudiesen recurrir los astrónomos de aquella época, razón por la cual ganaron muy pocos adeptos. Es más, examinadas a fondo, las especulaciones de Kant corrían el peligro de verse descartadas como pura ciencia ficción.
Pero la idea de Kant no se extinguió. De vez en cuando habrían de surgir observaciones que no cuadraban completamente en el esquema ortodoxo de Laplace. Entre ellas figuraba, en lugar destacado, la cuestión de los datos espectroscopios.
Hablando en términos generales, las estrellas producen una luz tal que al atravesar un prisma se descompone en ~a espectro casi continuo, interrumpido únicamente por la presencia de líneas espectrales oscuras. Ahora bien, si calentamos hasta la incandescencia un gas o un vapor de composición química relativamente sencilla, la luz que emite da lugar, después de pasar a través de un prisma, a un «espectro de emisión» consistente en líneas brillantes y aisladas. (La posición concreta de las líneas brillantes depende de la composición química del gas o vapor.)
Por otro lado, un espectro continuo presupone por lo general (aunque no siempre) luz blanca, mientras que un espectro de emisión suele ser el producto de luz de color, ya que por lo común el brillo total viene dominado por una de las líneas luminosas correspondientes a un color concreto.
Muchas de las nebulosas brillantes exhiben efectos de color muy delicados (que, naturalmente, no se manifiestan en las fotografías ordinarias en blanco y negro). Por ejemplo, cuando Huggins estudió la luz de la nebulosa de Orión, obtuvo un espectro de emisión con una línea especialmente marcada en el verde, lo cual permitía concluir que dicha nebulosa, así como otros objetos afines, contenía grandes masas de gas incandescente.[x]
La luz procedente de la nebulosa de Andrómeda era en cambio de un color blanco pardusco; en 1899 se logró registrar su espectro y se comprobó que era continuo.
Si el espectro de la nebulosa de Andrómeda hubiera consistido en líneas brillantes, la cuestión habría quedado zanjada: la nebulosa estaría formada por una masa de gas incandescente, sin una importancia mayor para la estructura del Universo que la que pudiera tener la nebulosa de Orión. Pero tal y como vinieron los hechos la disputa se mantenía en pie. Ambos factores juntos —luz blanca y espectro continuo— significaban que la nebulosa de Andrómeda quizá consistiera en una masa de estrellas tan lejanas que desde la Tierra no era posible distinguirlas por separado. Por otra parte, tal conclusión no era inmediata, toda vez que en determinadas circunstancias las nebulosas gaseosas quizá pudieran emitir luz blanca y un espectro continuo.
La posibilidad que acabamos de apuntar se basa en lo siguiente. Los espectros de emisión provienen de gases incandescentes que emiten luz propia. Supongamos, sin embargo, una masa de gas frío que se limitara simple- diente a reflejar de un modo pasivo la luz sidérea. En este caso, el espectro de la luz sidérea reflejada sería, en senda, el mismo que el de la luz original (igual que el espectro de la luz de la Luna es similar al de la luz solar).
Si fuera cierto que la nebulosa de Andrómeda se limitaba a reflejar la luz estelar, todo quedaría explicado: su espectro concordaría con la teoría de que se trataba de una mancha de gas no demasiado grande y bastante próxima al Sol.
Pero quedaba un cabo sin atar. Si la nebulosa de Andrómeda sólo reflejaba la luz sidérea, ¿dónde se hallaban las estrellas cuya luz reflejaba aquélla? Dentro de la nebulosa de Orión se veían claramente estrellas, y era precisamente la radiación de éstas la que calentaba la nebulosa hasta una temperatura suficiente para originar un espectro de emisión. ¿Pero dónde estaban las estrellas en caso de la nebulosa de Andrómeda? Nadie conseguía detectarlas.
Precisemos: nadie consiguió detectarlas en lo que tocaba a estrellas permanentes, pues de vez en cuando sí se observó un objeto de aspecto sidéreo asociado de forma pasajera con la nebulosa de Andrómeda. Toda vez que este fenómeno resultó ser altamente significativo, hagamos un paréntesis con el fin de estudiar con cierto detalle la cuestión de los objetos pasajeros de aspecto sidéreo.

§. Novas
A cualquier observador casual de la esfera celeste las configuraciones estelares se le deben antojar necesariamente como fijas e inmutables. Prueba de ello es que los filósofos griegos basaron la diferencia entre tierra y cielo en este hecho. En la Tierra —tal era la opinión de Aristóteles— los cambios eran continuos y perpetuos, pero los cielos permanecían absolutamente invariables.
Cierto que, de vez en cuando, aparecían «estrellas fugaces», fenómeno que un observador poco experto interpretaría como estrellas que se habían caído del cielo. Pero el hecho es que por muchas estrellas fugaces que aparecieran, nunca se observaba la falta de un solo astro en los cielos. Esto llevó a los griegos a clasificar las estrellas fugaces dentro de la categoría de los fenómenos atmosféricos, considerándolas, en pie de igualdad con la variación de las nubes o la caída de la lluvia, como parte de la esfera variable de la Tierra y no de la esfera inamovible de los cielos. La palabra «meteoro», que se aplica a las estrellas fugaces, se deriva de un vocablo griego que significa «algo que está en el aire»[xi]
Los griegos no se equivocaron al suponer que el relámpago de luz que acompaña a una estrella fugaz es un fenómeno atmosférico. El objeto que origina el relámpago es, sin embargo, un cuerpo velocísimo (un «meteoroide») cuyo tamaño oscila entre el de una cabeza de alfiler y el de un objeto de varias toneladas. Antes de penetrar en la atmósfera terrestre el meteoroide es un cuerpo independiente del sistema solar. En el momento en que ingresa en la atmósfera, comienza a calentarse como consecuencia de la fricción hasta el punto de resplandecer con una luz brillante. Si el meteoroide es pequeño, se consume en el proceso; si es grande, parte de él sobrevive e incide sobre la superficie terrestre en forma de «meteorito».
Otra categoría de habitantes temporales de los cielos eran los cometas esporádicos, acompañados a menudo de esas largas proyecciones de aspecto nuboso que recuerdan a una cola ondulante o una cabellera al viento. Los astrónomos de la Antigüedad se inclinaban seguramente por esta última representación, pues «cometa» proviene de la palabra latina que significa «cabellera». Los cometas iban y venían de un modo errático, por lo cual los filósofos griegos no dudaron en incluirlos también entre los fenómenos atmosféricos. Pero en esto se equivocaron de medio a medio, pues los cometas existen mucho más allá de la atmósfera terrestre y son, a todos los efectos, miembros del sistema solar: un conjunto de miembros tan independientes como los planetas mismos.
Supongamos ahora que modificamos la concepción griega y afirmamos que el cambio es una propiedad del sistema solar y que las estrellas que se hallan fuera de éste son inmutables. Con esta hipótesis se eliminan no sólo los meteoros y los cometas, sino también tales variaciones como las fases de la Luna, las manchas del Sol y los complejos movimientos de los planetas. ¿Esta concepción restringida de la invariabilidad es sostenible?
A simple vista (en el sentido literal de la expresión) parecería casi que sí. Cierto que la intensidad de la luz emitida por algunas estrellas varía, pero tales casos son muy raros y poco espectaculares, aparte de que no son evidentes para un observador casual. Ciertas estrellas poseen también un movimiento propio importante, mas este fenómeno es todavía menos palpable que el anterior: llevaría muchos siglos para asegurarse de la existencia de tales movimientos sin la ayuda de un telescopio.
Sin embargo, había un tipo de cambio espectacular que sí podía operarse en los cielos, y operarse de un modo tan claro que hasta el observador menos minucioso sería rapaz de advertirlo. Nos estamos refiriendo a la aparición real en los cielos de una estrella completamente nueva y, a veces, sobremanera brillante. No cabía duda de que tales estrellas eran estrellas, pues carecían por completo de ese aspecto difuso de los cometas y tampoco eran relámpagos momentáneos, como los meteoros, sino que persistían durante semanas y meses enteros.
Estas estrellas nuevas demostraban de dos formas la posibilidad de que se operasen cambios entre los astros ¿el cielo: por una parte, y como ya hemos dicho, porque aparecían y volvían a desvanecerse al cabo de cierto tiempo; por otra parte, porque durante su breve estancia en el firmamento en calidad de objetos visibles su brillo variaba de un modo ostensible. Sólo el hecho de que tales objetos fueran tan escasos en número justificaba el que los astrónomos de la Antigüedad ignoraran su existencia y siguieran aceptando la idea de la invariabilidad de los cielos.
Efectivamente, hay pruebas de que durante toda la época de la astronomía griega sólo apareció una de estas estrellas nuevas, y dichas pruebas tampoco son demasiado convincentes. Se cree que Hiparco registró uno de estos fenómenos en el año 134 a. C., aunque este extremo no está confirmado, dado que prácticamente ninguna de sus obras ha llegado hasta nuestros días. Fue el enciclopedista romano Plinio (23-79 d. C), quien, dos siglos más tarde, hizo referencia al fenómeno, añadiendo que esta nueva estrella incitó a Hiparco a confeccionar la primera carta celeste con el fin de que en lo sucesivo resultara más fácil detectar apariciones de este tipo.
De las estrellas nuevas, la que quizá quepa considerar como la más espectacular de los tiempos históricos no fue observada en Europa, ya que apareció (en la constelación Tauro, en junio de 1054) en una época en que la astronomía europea prácticamente no existía. El hecho de que tengamos noticia de este suceso debemos agradecérselo a los astrónomos chinos y japoneses, quienes en tal fecha registraron la aparición de lo que ellos llamaron una «estrella huésped». Este astro persistió en los cielos durante dos años, y su brillo llegó a ser tan feroz que en los momentos de máxima luminosidad la nueva estrella superó el resplandor de Venus, haciéndose fácilmente visible durante el día. A lo largo de casi un mes fue el objeto más brillante del cielo, después del Sol y de la Luna.
Más tarde, en noviembre de 1572, apareció otro objeto de esta especie en la constelación Casiopea, con un brillo que en su apogeo equivalía a cinco o diez veces el de Venus. Por entonces la astronomía florecía de nuevo en Europa, coincidiendo además con la juventud impresionable de un astrónomo de primera fila. Este no era otro que el danés Tycho Brahe, que observó con detenimiento la nueva estrella y publicó luego, en 1573, un opúsculo sobre ella. Una versión abreviada de su título en latín es De Nova Stella («Acerca de la nueva estrella»). Desde entonces, las estrellas que aparecen de un modo repentino allí donde antes no se observaba ninguna se denominan «novas».
Uno de los puntos importantes que Tycho constató en conexión con la nova de 1572 fue que carecía de un paralaje mensurable, lo cual venía a significar que su distancia era mucho mayor que la de la Luna y que no podía tratarse de un fenómeno atmosférico ni, por ende, formar parte del conjunto de fenómenos variables de la Tierra. ¡Tycho hizo en 1577 la misma observación para cierto cometa y demostró que éstos, los cometas, tampoco eran fenómenos atmosféricos.) En 1604 apareció otra nova, esta vez en la constelación de Ofiuco. Fue observada por Kepler y Galileo, y aunque mucho menos brillante que la de Tycho, la nova de 1604 seguía siendo un fenómeno notable que en sus momentos de auge rivalizaba con el planeta Júpiter en ponto a brillo.
Por un capricho curioso del azar, en los tres siglos y cedió que han transcurrido desde 1604 ninguna otra nova de brillo superlativo ha venido a-adornar los cielos. Hecho más bien lamentable, pues varios años después de 1604 surgió el invento del telescopio, con lo cual la astronomía entraba en una nueva era en la que tales fenómenos espectaculares habrían podido ser estudiados de un modo mucho más provechoso que antes.
Pero esto no quita para que la revolución que trajo consigo el telescopio en la astronomía afectara de inmediato las ideas relativas a estas novas. En primer lugar, se comprobó en seguida que las estrellas observables a simple vista no agotaban, ni mucho menos, el número total de estrellas existentes. Las novas, por tanto, no eran necesariamente estrellas nuevas, pese a su nombre; pues podía tratarse de una estrella tenue —demasiado tenue, por lo común, para ser detectada a simple vista— que por cualquier razón adquiriera un brillo suficiente para resultar visible. A medida que los astrónomos fueron descubriendo un número mayor de estrellas variables, tales cambios de brillo dejaron de parecer fenomenales o incluso poco comunes. Lo que de raro tenían las novas no era el cambio de brillo, sino la amplitud del cambio. No había ningún inconveniente en clasificar a las novas como un tipo de estrella variable, pero siempre que fuese dentro de un tipo particular que recibió el nombre de «variables cataclísmicas». Los cambios de brillo no parecían ser el mero resultado de un proceso más o menos periódico y tranquilo, sino la consecuencia de algún cataclismo de grandes proporciones: algo así como la diferencia que existe entre la actividad periódica de un geiser y las erupciones esporádicas e imprevisibles de un volcán.
Por otra parte, mientras que en los días pre telescópicos sólo se podían observar de un modo directo cambios de brillo muy pronunciados, la invención del telescopio permitió detectar sucesos mucho menos drásticos.
El hecho de que las novas fuesen asociadas a brillos poco usuales tuvo como consecuencia el que nadie se ocupara de las más tenues: durante dos siglos y medio no se registró la presencia de ninguna nova. Más tarde, en 1848, el astrónomo inglés John Russell Hind (1823- 1895) observó en Ofiuco una estrella que se abrillantó de súbito. En sus momentos de máximo resplandor no pasó de la quinta magnitud, de modo que a simple vista debió de percibirse como una estrella tenue; en los tiempos pre telescópicos seguramente habría pasado inadvertida. Sin embargo, era una nova.
Desde entonces se empezó a buscar novas de todos los brillos posibles, descubriendo un número sorprendente de ellas. La que apareció en la constelación de Aquila en 1918 («Nova Aquilae») resplandeció durante un período muy breve, pero con un brillo semejante al de Sirio. Sin embargo, ninguna se aproximó a ese brillo planetario de las novas de 1054, 1572 y 1604.
Hoy día se estima que cada año aparecen unas dos docenas de novas diseminadas por la Galaxia, aunque son relativamente escasas las que surgen en una situación tal que permitan ser vistas desde la Tierra.

§. La galaxia de Andrómeda
La cuestión de las novas entró en conexión con el provenía de la nebulosa de Andrómeda en 1885, cuando en la zona central de ésta se hizo visible una estrella de aquel tipo: era la primera vez que se observaba una estrella distinguible en la nebulosa de Andrómeda.
Dos posibilidades cabían: que la estrella se encontrara situada entre la nebulosa y la Tierra, dando la sensación de hallarse en aquélla debido sólo a que su posición (la de la estrella) coincidía con la línea visual del observador, y en ese caso la nebulosa y la estrella no guardarían una conexión auténtica entre sí; o bien que la nebulosa de Andrómeda estuviera compuesta de estrellas demasiado tenues para ser visibles desde nuestro planeta y que una de ellas se hubiera encendido súbitamente, convirtiéndose en una nova y resultando observable, por tanto, con ayuda del telescopio.
Si esta segunda hipótesis fuese cierta, sería posible determinar la distancia de la nebulosa de Andrómeda siempre que se admitiera que las novas alcanzaban invariablemente la misma cota máxima de luminosidad; pues en ese caso las variaciones del brillo aparente se deberían sólo a una diferencia de distancia, y calculando la distancia de una nova cualquiera se podía averiguar el alejamiento de todas las demás. La oportunidad se presentó en 1901, con la aparición de cierta nova en la constelación de Perseo («Nova Persei»). Se trataba de un ejemplar bastante más cercano que lo usual, y su distancia se estimó por el método del paralaje en unos 100 años-luz.
La nova que surgió en la nebulosa de Andrómeda, y que hoy día se conoce como «S Andromedae», alcanzó en sus momentos de máximo brillo sólo la séptima magnitud (imposible de detectar sin ayuda del telescopio); |Nova Persei llegó en cambio a una magnitud de 0,2. Admitiendo que ambas novas habían adquirido la misma luminosidad, S Andromedae tendría que ser unas dieciséis veces más distante que Nova Persei para compensar la diferencia de brillo. Así pues, en 1911 se llegó a la conclusión de que la distancia de S Andromedae era de 1.600 años-luz.
Si S Andromedae formaba parte, efectivamente, de la nebulosa de Andrómeda, ésta se hallaría, igual que la estrella, a 1.600 años-luz. Si, por el contrario, sucediera que S Andromedae se hallaba simplemente en la línea visual del observador terrestre, la nebulosa tendría que estar situada más allá de la nova y, por consiguiente, a más de 1.600 años-luz de nosotros. En cualquier caso, pues, la nebulosa distaba como mínimo 800 veces más de lo que se había calculado a partir de los datos paralácticos obtenidos en 1907. Y a una distancia de 1.600 años-luz, la nebulosa tenía que ser bastante grande para aparecer a través del telescopio con el tamaño con que aparece. Era difícil que representara un único sistema planetario en proceso de formación, como Laplace había supuesto. Sin embargo, el punto de vista kantiano tampoco podía aceptarse sin más. Aun a 1.600 años-luz de distancia, la nebulosa Andrómeda tenía que ser simplemente una componente de nuestra Galaxia.
Ahora bien, el razonamiento anterior se basaba en el supuesto de que S Andromedae y Nova Persei alcanzaban realmente la misma luminosidad. ¿Y si esta hipótesis no fuera válida y S Andromedae fuese en realidad mucho más luminosa que Nova Persei o, por el contrario, mucho menos luminosa? ¿Cómo averiguarlo?
El astrónomo americano Heber Doust Curtís (1872- 1942) pensó que el único modo de llegar a alguna conclusión en este problema era seguir buscando novas en la nebulosa de Andrómeda, pues lo que en el caso de una estrella resultaba imposible de juzgar quizá saltara a la vista en un estudio comparativo de muchas de ellas. En consecuencia, puso manos a la obra y estudió cierto número de novas en la nebulosa de Andrómeda, llegando por fin a dos conclusiones.
En primer lugar, el número de novas localizadas en la nebulosa era tan grande (unas cien se han detectado hasta ahora) que había que excluir la posibilidad de que no estuvieran asociadas con la nebulosa. Resultaba ridículo suponer que todas aquellas novas habían surgido, por pura casualidad, precisamente entre las estrellas situadas en la línea visual que unía al observador terrestre con la nebulosa. Tal concentración fortuita de novas era un suceso en extremo improbable. Ello significaba, además, que nebulosa de Andrómeda no era simplemente una nube de polvo y gas que reflejaba de un modo pasivo la luz solar, sino todo lo contrario: tenía que componerse de numerosas estrellas; muchas, en efecto, para que entre rilas apareciesen tantas novas (un tipo muy raro de estrellas). El hecho de que todas esas estrellas no se pudieran discernir ni siquiera con ayuda de un telescopio de buen tamaño indicaba que la nebulosa se hallaba a una distancia enorme. En segundo lugar, todas las novas observadas en la nebulosa de Andrómeda después de 1885 eran mucho más tenues que lo que había llegado a ser S Andromedae. En 1918 Curtis señaló que estas otras novas debían compararse a Nova Persei y que S Andromedae constituía un caso excepcional de brillo extraordinario.
Equiparando la luminosidad de las novas ordinarias de la nebulosa de Andrómeda a la de Nova Persei, la distancia que explicaría la extrema tenuidad de aquéllas tendría que rondar los cientos de miles de años-luz como mínimo. La distancia explicaría asimismo el hecho de que la nebulosa no se pudiera desglosar telescópicamente en estrellas aisladas y distintas. A esas distancias las estrellas resultaban demasiado débiles para poderlas discernir por separado, a menos, claro está, que se abrillantaran de un modo radical como ocurre con las novas.
Así pues, si la nebulosa de Andrómeda se hallaba efectivamente a una distancia del orden que acabamos de señalar, tenía que estar situada muy fuera de los límites de la Galaxia; y para que desde nuestro planeta se la observase del tamaño que la vemos, debía ser un gigantesco conglomerado compuesto de un sinfín de estrellas. En otras palabras, un universo isla del tipo que Kant había descrito años atrás.
La conclusión de Curtis no fue aceptada ni mucho menos por otros astrónomos; Shapley mismo era contrario a ella.
Por aquel entonces apareció en escena el astrónomo americano Edwin Powell Hubble (1889-1953). Hubble opinaba que el argumento de las novas no podía ser concluyente desde el momento en que no se sabía lo suficiente acerca de ellas. Pero si la nebulosa de Andrómeda fuera efectivamente un universo isla, la construcción de un nuevo telescopio —más potente que los utilizados por los astrónomos del siglo XIX— podría zanjar la cuestión al poner de manifiesto las distintas estrellas de la nebulosa. A partir de las estrellas ordinarias, mucho menos misteriosas que las novas, sería entonces posible extraer conclusiones más sólidas acerca de la nebulosa.
En 1917 se instaló un nuevo telescopio (el «telescopio Hooker», construido gracias a las donaciones de John D. Hooker, de Los Angeles) en Mount Wilson, justo al noreste de Pasadena. Llevaba un espejo de 100 pulgadas de diámetro que convertía a este telescopio en el más potente —y con gran diferencia— del mundo, privilegio que habría de conservar durante toda una generación.
Hubble dirigió el telescopio de Mr. Wilson hacia la nebulosa de Andrómeda y logró discernir estrellas aisladas en las afueras de la nebulosa. Esto ponía punto final a uno de los problemas: la nebulosa estaba compuesta de estrellas, no de gas y polvo.
Hacia finales de 1923 Hubble consiguió identificar una de las estrellas como una variable que poseía todas las características de una Cefeida. Poco después localizó otras Cefeidas.
Esto era exactamente lo que necesitaba. Por aquellos días Shapley había conseguido ya determinar la escala Cefeida, de forma que conociendo el período de variación de las Cefeidas de Andrómeda, Hubble podía deducir inmediatamente la luminosidad real de dichas estrellas, siempre que fuese lícito suponer que las leyes que gobernaban a las Cefeidas de nuestra Galaxia y a las de las Nubes de Magallanes fuesen las mismas que regían para las Cefeidas de la nebulosa de Andrómeda.
Una vez calculada la luminosidad de las Cefeidas de la nebulosa de Andrómeda podía pasarse a calcular su distancia, apoyándose para ello en su brillo aparente; la distancia determinada proporcionaba directamente la lejanía de la nebulosa. Hubble calculó que dicha distancia era de unos 800.000 años-luz.
Así pues, hacia mediados de la década de 1920-29 la cuestión quedó resuelta y desde entonces no ha sido puesta nunca en duda. La nebulosa de Andrómeda no es un miembro de la Galaxia, sino que está localizada mucho más allá de sus fronteras. Es un conglomerado inmenso e independiente de estrellas: un universo isla. Kant estaba es lo cierto; Laplace se había equivocado.
En consecuencia, Hubble sugirió que la nebulosa de Andrómeda debía considerarse como uno de los miembros de cierta clase de «nebulosas extragalácticas» a distinguir de las «nebulosas galácticas» ordinarias como la de Orión. Shapley, que entretanto se había convertido a la nueva concepción, juzgó inadecuada esta terminología. La nebulosa de Andrómeda no podía ser comparada a la nebulosa de Orión ni siquiera en la terminología; tan sólo podía equipararse a la Galaxia. La nebulosa de Andrómeda era otra Galaxia con todas las de la ley; Shapley sugirió que a todos los objetos de este tipo se les diese el nombre de «galaxias».
Hoy día se habla, por tanto, de la «galaxia Andrómeda». Para distinguir a nuestra propia Galaxia se la escribe con mayúscula, anteponiendo además el artículo definido, «la Galaxia», como hemos venido haciendo en los últimos capítulos de este libro, o bien se la denomina «la galaxia de la Vía Láctea».

§. Las galaxias espirales
Ahora bien, la galaxia de Andrómeda no era un ejemplar único de algo situado más allá de la Galaxia. Era sólo un miembro de un grupo muy numeroso, aunque ciertamente el de aspecto mayor (con gran diferencia) y, prescindiendo de las Nubes de Magallanes, el único observable a simple vista[xii].

lamina05.jpg
Galaxia del Torbellino. (Fotografía del Observatorio Mount Wilson y Palomar)

En su catálogo de 1781 Messier alistó varias docenas de nebulosas que, al igual que la de Andrómeda, no podían resolverse en estrellas bien distintas aunque débiles, ni exhibían dentro de ellas cierto número de astros brillantes; estas nebulosas registradas por Messier resultaron ser galaxias. William Herschel localizó, a lo largo de su escrutinio general del firmamento, nada menos que unas 2.500 nebulosas de este tipo; y su hijo John Herschel, en una investigación similar del hemisferio austral, observó otras tantas.

lamina06.jpg
Galaxia Sombrero (Observatorios Mount Wilson y Palomar). Nebulosa planetaria (Mount Wilson y Palomar.)

Tales nebulosas fueron observadas en todas las regiones del cielo excepto en el plano de la Vía Láctea; esta ausencia se debía, como bien señalaron los astrónomos, a que las nebulosas que pudieran hallarse en esa zona se veían oscurecidas por las nubes de polvo y las masas estelares localizadas en dicho plano.
A principios del siglo XX se conocían ya unas 13 000 nebulosas del tipo de la de Andrómeda, y todo parecía indicar que restaban otras muchas por detectar. Hoy día sabemos que existen 50.000 nebulosas de esta clase con brillo mayor que la magnitud 15 y muchos millones más de brillo menor.
El astrónomo irlandés William Parsons, tercer Conde de Rosse (1800-1867), estudió estas nebulosas de una forma mucho más minuciosa que cualquier otro científico del siglo XIX. A este efecto instaló en sus posesiones un telescopio de 72 pulgadas; pero el tiempo solía ser tan malo que poco fue el provecho que pudo sacar del nuevo instrumento. Sin embargo, esto no le impidió estudiar las nebulosas, observando en 1845 que algunas de ellas exhibían claramente una estructura de espiral, algo así como si se tratara de torbellinos de luz destacando contra el fondo negro del espacio.
Estas estructuras presentan un aspecto aplanado, y vistas de canto parecen objetos alargados en forma de lente como nuestra Galaxia) en los cuales no resulta visible la estructura espiral (en los casos en que ésta existe). Algunas nebulosas están situadas de tal modo que desde nuestro planeta se observan de plano, y entonces sí se roñe claramente de manifiesto la estructura espiral. Un ejemplo sobremanera espectacular es «M51», conocida también por su forma con el nombre de «Nebulosa de Torbellino» (hoy decimos «galaxia de Torbellino»): fue la primera nebulosa en que Parsons detectó una estructura espiral. En 1888, y gracias a las imágenes tomadas por Isaac Roberts, un fotógrafo aficionado inglés, se comprobó que la galaxia de Andrómeda poseía también una forma espiral.
Como resultado de todos estos hallazgos, los astrónomos comenzaron a hablar de un nuevo tipo de objetos: las «nebulosas espirales» o, como se dice hoy día, las «galaxias espirales», que consisten en una condensación central —relativamente pequeña en algunos casos, mucho mayor en otros— llamada «núcleo galáctico», y en los «brazos espirales», que rodean al núcleo.
Al parecer existe una diferencia bien marcada entre sus propiedades del núcleo galáctico y las de los brazos espirales. Los núcleos se asemejan a gigantescos cúmulos globulares, y al igual que éstos parecen estar relativamente exentos de nubes de polvo. Los brazos espirales, por el contrario, son ricos en este tipo de nubes, que a menudo resultan claramente visibles.
El polvo galáctico es muy ostensible en el caso de ciertas galaxias espirales que nos es dado observar «de canto». Un ejemplo de ellas es NGC 891 [xiii] en la constelación de Andrómeda. En esta galaxia, las nubes de polvo situadas a lo largo de la línea del ecuador producen una franja oscura y recortada. Lo mismo ocurre en el caso de cierta galaxia de aspecto maravilloso situada en la constelación de Virgo; el núcleo galáctico es enorme y los brazos espirales bastante compactos. Desde la Tierra se observa casi de canto, por lo cual el polvo de los brazos produce el efecto de una elipse muy achatada alrededor del borde. La imagen resultante es casi idéntica a la que nos ofrece Saturno con sus anillos oscuros. El borde oscuro recuerda al ala de un sombrero, por lo cual este objeto recibe el nombre, un tanto familiar, de «galaxia Sombrero».
Hacia 1900, el astrónomo americano James Keefer (1857-1900) demostró que aproximadamente un 75% de las galaxias tienen una estructura espiral. Entre ellas figura, como ya dijimos antes, la galaxia de Andrómeda, aun cuando nosotros, desde la Tierra, la percibimos tan de canto que sus brazos espirales no resultan tan evidentes como quizá nos gustase. Aun así, el aspecto de la galaxia de Andrómeda recuerda claramente a un remolino, hasta el punto de que aquella idea de Laplace que interpretaba esta galaxia como una masa de gas en rotación resulta más que plausible.
La opinión que prevalece hoy día es que nuestra Galaxia también posee una estructura espiral, idea que sugirió en origen el astrónomo americano Stephen Alexander (1806-1883) en el año 1852. Muy bien pudiera ser que su aspecto fuese muy similar al de la galaxia de Andrómeda (aunque los datos más recientes parecen indicar que la Galaxia posee un núcleo menos prominente). El Sol está localizado en uno de los brazos galácticos y ello hace que estemos rodeados por nubes de polvo que oscurecen el cuerpo principal de la Galaxia.
Aproximadamente un 20% de las galaxias poseen una forma elipsoidal o esferoidal y éstas, al parecer, no consisten más que en un núcleo galáctico sin brazos espirales. Este tipo se denomina por lo común «galaxias elípticas».
El 5% restante está compuesto por «galaxias irregulares» sin ninguna estructura simple y definida. Las Nubes de Magallanes se ponen a menudo como el ejemplo más conocido de esta categoría, aun cuando tal concepción fue puesta en tela de juicio hacia los años 1950-59 por el astrónomo galo-americano Gerard Henri de Vaucouleurs (n.. 1918), afirmando que poseían una estructura espiral. Señaló que la Nube Grande de Magallanes tiene un único brazo que se extiende hacia afuera a lo largo de varias decenas de miles de años-luz. La Nube Pequeña de Magallanes se ve prácticamente de canto, lo cual impide distinguir la estructura espiral, caso de que existiera.
Los astrónomos modernos no pueden dar una cota máxima del número de galaxias. A medida que los instrumentos astronómicos van perfeccionándose y las observa- dones van siendo más cuidadosas, el número de galaxias visibles también aumenta; hasta la fecha no parece que la densidad de estos objetos decrezca en ninguna dirección. Los astrónomos sospechan que el número total de galaxias localizadas en aquella región del Universo que nos es dado observar con los instrumentos más perfectos puede ser de 100.000 millones, y hoy por hoy nada nos autoriza a pensar que el número de las que existen en realidad no es infinitamente mayor.
Por otra parte, la galaxia de Andrómeda es el miembro más brillante de las espirales (nos referimos a aquellas raya estructura es claramente espiral) y, entre las de tamaño mayor, la más cercana. Si dicha galaxia dista 50.000 años-luz de nosotros, las más tenues que podemos discernir en el firmamento tienen que hallarse a muchos cientos (posiblemente miles) de millones de años- luz de distancia.
Vemos, pues, que hacia 1925 la noción que tenía el hombre acerca del tamaño del Universo experimentó otra ampliación colosal. Tanto es así que los astrónomos se vieron de nuevo enfrentados con el problema del infinito. Un siglo antes, la paradoja de Olbers parecía refutar la posibilidad de un Universo infinito, y la observación de Herschel de una Galaxia finita apoyaba esta teoría. Durante un siglo entero, la noción de un Universo finito imperó de una forma indiscutida.
Mas ahora, en ese nuevo Universo ampliado de las galaxias, en plural, no había signo alguno de finitud Se imponía abordar de nuevo el problema de la paradoja de Olbers, pero esta vez con galaxias en lugar de estrellas.
En este nuevo intento se comprobó que el problema de la extensión del Universo en el espacio —es decir, la cuestión de si era o no infinito— resultó estar íntimamente ligado con el problema de la extensión del Universo en el tiempo: si era o no eterno.
En este nuevo intento se comprobó que el problema de la extensión en el espacio. Antes de proseguir en esta dirección, resultará útil atender al problema de la extensión en el tiempo.

Capítulo 7
La edad de la Tierra

Contenido:
§. Momento angular
§. La conservación de la energía
§. Energía nuclear
§. Momento angular
La idea de que los cielos son invariables (idea que sostuvieron los astrónomos durante mucho tiempo) implicaba como corolario que éstos, los cielos, son también eternos. No cabe duda de que el principio y el fin son los cambios más drásticos de cuantos puedan concebirse, y las observaciones astronómicas realizadas en tiempos de la Antigüedad no aportaban prueba alguna de un posible principio o fin. (Cierto que algunos hombres hablaban de la creación o destrucción del Universo por parte de ciertos agentes sobrehumanos, pasando luego a describir estos procesos con detalle, pero tales descripciones son producto de la inspiración interna, no de hechos astronómicos reales).
Sin embargo, con la llegada de los tiempos modernos hubo que reconocer que los cielos no eran absolutamente mutables; buena prueba de ello eran las novas. De este modo, se planteó el problema de si esta posibilidad de variación implicaba o no un cambio último, en el sentido de un principio y de un fin, y en caso afirmativo cuándo había comenzado y cuándo terminaría el Universo.
Lo más fácil era abordar primero el problema en conexión con el sistema solar, que hacia 1700 ya se conocía con bastante detalle.
En 1687 Newton había establecido la teoría de la gravitación universal, según la cual todo cuerpo en el Universo atraía a cualquier otro con una fuerza proporcional al producto de las masas e inversamente proporcional al cuadrado de la distancia que separa a ambos.
En el sistema solar, la masa del Sol predominaba de una manera tan abrumadora que permanecía casi inmóvil, mientras que los planetas, mucho menos masivos, respondían a la fuerza gravitatoria solar con un movimiento de rotación alrededor del Sol siguiendo órbitas elípticas. (En realidad el Sol también se mueve en respuesta a la atracción gravitatoria de los planetas. El centro de gravedad del sistema solar, alrededor del cual se mueven los planetas y el Sol, está situado cerca del centro de este astro, pero no coincide exactamente con él. Y en ocasiones se encuentra tan alejado de dicho centro que llega a caer incluso un poco fuera de la esfera solar. Sin embargo, esto no pasa de ser un simple detalle en una estructura de proporciones inmensas, por lo cual no se comete una imprecisión demasiado grave si se supone que los planetas giran en torno a un Sol esencialmente inmóvil).
El sistema solar no puede considerarse invariable, en el sentido de fijo e inmóvil, desde el momento en que todas sus partes componentes (incluido el propio Sol) se mueven constantemente con respecto al centro de gravedad del sistema.
Ahora bien, ya que no existe un equilibrio estático, quizá haya por lo menos un equilibrio dinámico. En otras palabras: aunque todas las partes del sistema se muevan, pudiera ocurrir que todos los movimientos fuesen periódicos, repitiéndose una y otra vez indefinidamente y sin experimentar cambios importantes; en este sentido cabría considerar el sistema solar como invariable.
Pero ¿es lícito suponer que dichos movimientos son verdaderamente periódicos? La Tierra giraría alrededor de! Sol de una manera absolutamente periódica, sin cambiar su órbita, siempre que estos dos cuerpos fuesen los trucos objetos en el Universo. Pero de hecho no lo son; existen otros muchos y cada uno de ellos afecta al sistema Tierra-Sol por medio de la gravedad. Los planetas vecinos influyen sobre el movimiento de la Tierra a través de la fuerza de gravitación, igual que influyen la Luna e incluso las estrellas remotas.
A la hora de hacer cálculos precisos de la órbita terrestre es necesario tener en cuenta estos efectos menores sobre el movimiento de nuestro planeta («perturbaciones»). De igual modo, los movimientos de los demás planetas también se ven afectados por perturbaciones.
A corto plazo, estas perturbaciones no influyen de un modo serio en el sistema solar. A lo largo de toda la historia del hombre, el día y el año han permanecido esencialmente invariables, y los movimientos de los planetas han persistido con una constancia casi absoluta. Mas la historia de las observaciones astronómicas tiene una antigüedad de sólo algunos miles de años como mucho, y esto no representa sino un instante en la historia del sistema solar. ¿Y el proceso a largo plazo?
Teóricamente sería posible recurrir a la ley de la gravitación universal para predecir el movimiento de cualquier objeto del Universo bajo la influencia gravitatoria de todos los demás. Podríamos entonces hacer funcionar (matemáticamente) la maquinaria del sistema solar hacia atrás y hacia adelante en el tiempo y a lo largo de períodos de duración ilimitada, lo mismo que se hace, aunque para lapsos breves, en los modernos planetarios. De esta forma cabría comprobar si existen o no cambios sistemáticos que acabaron por reunir a los distintos cuerpos del sistema solar en el pasado remoto o que concluirán por disgregarlos en el futuro lejano.
Por desgracia, un estudio directo de esta especie no es viable. Las ecuaciones que hay que plantear para estudiar los movimientos de sólo tres cuerpos, relacionados gravitatoriamente, son ya tan complicadas que no admiten una solución completa. ¿Qué decir, entonces, acerca de un sistema solar que consiste en una docena de cuerpos mayores y un número incontable de objetos menores? Era preciso, por tanto, hacer aproximaciones drásticas, pero aun en estas condiciones el problema exigía la dedicación plena de cerebros de primera fila.
El problema fue abordado por el astrónomo francés Joseph Louis Lagrange (1736-1813), seguido más tarde por Laplace. Fue éste último quien finalmente resolvió la cuestión de un modo satisfactorio en su libroMecánica Celeste , publicado en cinco volúmenes entre 1799 y 1825. Laplace demostró que si bien las perturbaciones introducían pequeñas variaciones en las órbitas planetarias, estas variaciones eran periódicas; es decir, las características de la órbita cambiarían en una dirección, luego en la otra, y así indefinidamente. A la larga, la forma media de la órbita permanecería constante.
En otras palabras, el sistema solar se encontraba en equilibrio dinámico: podía continuar indefinidamente en el futuro y quizá tuviera ya a sus espaldas un pasado indefinido. (Esto sólo reza en el supuesto de que no intervengan influencias perturbadoras desde fuera del sistema solar, de que ninguna estrella invada nuestras proximidades inmediatas, de que las estrellas, tal y como están situadas en la actualidad, ejercen influencias gravitatorias demasiado pequeñas para ser tenidas en cuenta, etcétera. Esta hipótesis es bastante razonable, incluso para períodos de tiempo prolongados.)
Aunque en la naturaleza intrínseca de la mecánica gravitatoria del sistema solar no hay nada que le impida ser eterno, el concepto de eternidad es un concepto embarazoso que para la mente humana resulta tan poco aceptable como el de infinito. Por esta razón se emprendió la búsqueda de un posible comienzo, añadiendo algo más a la fuerza de gravedad.
Por ejemplo, si la atracción gravitatoria del Sol fuese la única fuente de movimiento en el sistema solar los planetas reaccionarían desplomándose inmediatamente hacia aquel astro. El hecho de que girasen alrededor de él —lo mismo que los cometas y los asteroides— y de que los distintos satélites rotaran de un modo similar en torno a los planetas significaba que cada uno de estos cuerpos poseía un movimiento más o menos perpendicular a la fuerza de gravitación del Sol. Pero este movimiento no se había ni podía haberse originado a partir de la atracción gravitatoria del Sol. ¿Cómo había surgido entonces?
Formulémoslo de otra manera. Cualquier movimiento fundamentalmente circular, ya sea el de un objeto que pira alrededor de su propio eje o el de un cuerpo que rota en su totalidad en torno a un objeto mayor que él, lleva implícita la posesión, por parte del cuerpo en movimiento, de una propiedad llamada «momento angular». La cantidad de momento angular que posee un cuerpo depende de tres factores: su masa, la velocidad del movimiento circular y la distancia que separa al cuerpo (o a las diversas partes que lo componen) del centro alrededor del cual gira.
En el siglo XVIII los físicos vieron claramente, a través de observaciones de fenómenos propios de nuestro planeta, que el momento angular ni se creaba ni se destruía, pero que podía transferirse, sin pérdidas ni ganancias, de un cuerpo a otro. Esta es la «ley de la conservación del momento angular». No había razón (ni la hay hoy día) para pensar que el momento angular no se conserva en el Universo como un todo, igual que se conserva en la Tierra. Así pues, cualquier teoría que pretenda describir el origen del Universo o de una parte importante de él debe respetar esta ley.
Ahora bien, si el momento angular no se crea, ¿cómo es que existe? Una forma de salir de este aparente dilema consiste en percatarse de que el momento angular puede darse en dos variedades diferentes, según la dirección de giro. Hay momentos angulares «en el sentido de las manillas del reloj» y momentos angulares «en sentido contrario a las manillas del reloj». Si el momento angular en el sentido de las manillas del reloj se toma como positivo, el otro debe tomarse como negativo. Al sumar cantidades iguales de las dos variedades, aquéllas se cancelan mutuamente, formando un sistema combinado sin ningún momento angular. De modo análogo, un sistema sin momento angular puede dividirse en dos sistemas, uno de los cuales posea cierta cantidad de momento angular en el sentido de las manillas del reloj y el otro una cantidad idéntica de momento angular contrario a las manillas. De esta forma, el momento angular parece crearse y destruirse, pero todo ello sucede en realidad sin violar la ley de conservación del momento angular. Cabría suponer, por ejemplo, que en un principio el Universo no contenía momento angular alguno, pero que durante el proceso de formación ciertas porciones adquirieron una de las variedades y el resto la otra.
Si miramos el sistema solar desde un lugar situado muy por encima del polo norte de la Tierra, veríamos que el Sol, la Tierra y la mayor parte de los cuerpos del sistema giran alrededor de sus respectivos ejes en dirección contraria a las manillas del reloj. Por otra parte, también se observaría que casi todos los planetas y satélites rotan en torno a sus cuerpos centrales respectivos en ese mismo sentido. Esto significa que el sistema solar no posee cantidades iguales de los dos tipos de momento angular y que, por ende, no puede ser considerado como un sistema fundamentalmente exento de momento angular. Al contrario: el sistema solar posee gran cantidad de momento angular, y cualquier teoría que pretenda explicar el origen de este sistema debe tenerlo en cuenta.
Supongamos, por ejemplo, que el sistema solar comenzó en la forma de una vasta nube de polvo y gas muy dispersos, de acuerdo con la idea de Laplace formulada en su hipótesis nebular. La nube quizá poseyera ya cierta reserva de momento angular, reserva que representaría la parte que le correspondió a la nube en el momento en que el Universo, como un todo, adquirió existencia propia. O bien, si suponemos que la nube no poseía en origen momento angular alguno, pudiera haber ocurrido que aquélla entrara en la esfera de influencia de la debilísima atracción gravitatoria de estrella relativamente cercana, la cual tendería a tirar con más fuerza del extremo de la nube más próximo a ella que del extremo opuesto. Esto ejercería un «par» sobre la nube, imprimiéndole un movimiento circular. Naturalmente, la nube habría recibido este momento angular a expensas de la cantidad poseída en origen por la estrella, con lo cual la reserva de momento angular que esta tuviera en origen se vería mermada de un modo correspondiente.
Sea cual fuere la fuente de la rotación, la nube, girandoya lentamente, se encontraría sometida a la influencia de la atracción gravitatoria mutua de sus partículas constituyentes y empezaría a contraerse paulatinamente. A medida que la nube se contrajera, las diversas partes que la componen se irían aproximando cada vez más al centro común en torno al cual todas ellas giran. Este acortamiento de la distancia global al centro bastaría, por sí solo, para destruir parte del momento angular, si no fuera porque esta disminución se viese contrarrestada por un aumento de la velocidad de rotación. (No olvidemos que el momento angular depende de estos dos factores, además del de la masa; sin embargo, en las condiciones anteriores la masa no varía, por lo cual sólo hace falta considerar la distancia y la velocidad angular. Una disminución de cualquiera de estas dos implica automáticamente el aumento de la otra.)
La ley de la conservación del momento angular exige por tanto que ese esferoide inmenso de gas en rotación comience a girar más deprisa a medida que se contrae. Bajo la influencia de un efecto centrífugo en constante aumento el ecuador comienza a proyectarse hacia afuera, transformando el esferoide en un elipsoide cada vez más aplastado. Por último, del plano ecuatorial del elipsoide empiezan a desgajarse diversas porciones a intervalos diferentes, que más tarde se condensan en planetas.
La hipótesis nebular de Laplace parecía explicar muchos hechos y llevaba el marchamo de una teoría perfectamente plausible. A lo largo de todo el siglo XIX gozó de gran popularidad entre los astrónomos, así como entre el público en general. Conforme fueron transcurriendo las décadas de este siglo se comprobó que la hipótesis nebular parecía ajustarse muy bien a ciertos descubrimientos clave de la Física y que podía constituir un método para determinar la edad de la Tierra.

§. La conservación de la energía
En la década de 1840-49 vino a establecerse de una forma muy sólida una nueva ley de conservación, aún más potente que la que gobernaba el momento angular Se trata de la «ley de la conservación de la energía», producto del trabajo de muchos hombres, pero enunciada por vez primera de un modo claro por el físico alemán Hermann Ludwig Ferdinand von Helmholtz (1821-1894) en el año 1847.

20.jpg
Figura 20. La hipótesis nebular

La ley de la conservación de la energía afirma que la energía puede ser transferida de un lugar a otro, pero nunca ser creada ni destruida.
El sistema solar posee una reserva descomunal tanto de energía como de momento angular; procede, por tanto, preguntarse de dónde proviene dicha energía.
En primer lugar debemos señalar que existe una diferencia esencial entre el problema de la oferta de energía del sistema solar y el problema de su oferta de momento angular. En lo que atañe al momento angular, podemos decir que las reservas del sistema solar se crearon en el momento en que se formó el sistema (del modo descrito en la sección anterior) y, una vez establecido esto, descansar tranquilos. El sistema solar no pierde una cantidad apreciable de momento angular Este sólo puede disiparse interacción con las remotísimas estrellas o con las diminutas briznas de materia que pululan por el espacio. Tales procesos robarían o añadirían ciertamente momento angular a las reservas del sistema solar, pero a un ritmo lento (comparado con la cantidad total disponible) el proceso, en conjunto, podría ser ignorado incluso períodos de tiempo muy dilatados. Parece perfectamente lícito suponer que el sistema solar posee hoy el mismo momento angular que poseía hace millones de o que poseerá dentro de millones de años, ponga por caso.
¡No sucede lo mismo con la energía. En el sistema solar la energía se manifiesta bajo formas muy diversas, y una de ellas es la radiación que mana continuamente del Sol. La cantidad de energía que representa esta radiación es sencillamente colosal, y casi toda ella se derrama a un enorme en los vastos espacios situados más allá del sistema solar. Además, según los conocimientos que tenemos hoy día, la cantidad de energía que regresa al sistema es prácticamente nula.
Esto significa que la cantidad total de energía del sistema solar tiene que decrecer de un modo constante y llegará un día en que el nivel llegue a ser tan próximo a cero que el sistema, tal y como lo conocemos ahora, pueda considerarse, a todos los efectos, como extinguido. Si miramos hacia atrás en el tiempo, la cantidad de energía del sistema solar es mayor, y tanto mayor cuanto más nos remontemos en el pasado. A menos que nos contentáramos con postular la existencia de una cantidad infinita de energía con la cual comenzara el sistema (hipótesis que no acepta ningún astrónomo), es preciso admitir que el sistema solar nació, en un momento dado, provisto de una cantidad inicial de energía mucho mayor de la que posee hoy día.
Helmholtz mismo fue el primero en plantearse esta cuestión y en preguntarse cuál sería la fuente de esa energía que el Sol derramaba en el espacio de una forma tan pródiga y en cantidades tales que la minúscula porción interceptada por el globo diminuto de la Tierra a una distancia de 150.000.000 de kilómetros bastaba para satisfacer con creces las necesidades de energía de la humanidad.
En lo que toca a las formas de energía producidas por el hombre, la fuente más común en el siglo XIX era la combustión del carbón. En este caso, el calor y la luz se obtenían a expensas de la energía química que mantiene unidos a los átomos. El anhídrido carbónico que se forma cuando se combinan el carbón y el oxígeno necesita, para mantener unidas a sus moléculas, una cantidad de energía química menor que la que requieren el carbón y el oxígeno antes de combinarse. El exceso de energía que ya no se emplea para los enlaces químicos es emitido entonces en forma de calor y luz.
Ahora bien, la cantidad de energía que podía obtenerse de la combinación de un volumen dado de carbón y oxígeno era conocida, y también se sabía cuánta energía emitía el Sol cada segundo. En estas condiciones es muy fácil demostrar que si la masa total del Sol (cantidad también conocida) estuviera compuesta de carbón y oxígeno en las proporciones correctas, el fuego resultante mantendría el ritmo presente de actividad solar durante 1.500 años solamente.
Aunque existen algunas reacciones químicas que suministran más energía por kilogramo que la combustión carbón, no se conoce ninguna que hubiese sido capaz mantener la actividad solar a lo largo de los tiempos históricos, por no hablar de los largos evos de la prehistoria. Helmholtz se vio obligado a buscar la fuente de energía en alguna otra parte.
Una fuente colosal de energía era el campo gravitatorio mismo. Los meteoritos, al incidir sobre la atmósfera terrestre a una velocidad enorme, adquirida en respuesta a campos de gravitación que actúan sobre ellos, convierten la energía del movimiento en calor y luz. Un meteorito del tamaño de una cabeza de alfiler basta para crear un brillo que se puede observar a más de cien kilómetros.
Supongamos, pues, que en el Sol se están zambullendo constantemente meteoros y que la energía de su movimiento (adquirido merced a la fuerza de gravitación) se convirtiera en radiación. Puede demostrarse que si tales colisiones meteóricas tuvieran lugar al ritmo necesario para mantener la actividad del Sol, éste no experimentarla ningún cambio visible en el curso de los tiempos históricos. En efecto, este bombardeo podría continuar durante 300.000 años antes de que la masa del Sol aumentara en un 1% como consecuencia de ello.
Esta hipótesis parece esperanzadora, pero ciertas consideraciones adicionales dan al traste con ella. Como resultado del bombardeo de meteoros que sería preciso para mantener la actividad solar, la masa del Sol aumentaría ciertamente muy despacio, pero el aumento bastaría para inducir un fortalecimiento perceptible de su campo gravitatorio. La Tierra, atraída con más y más fuerza, se movería cada vez más rápido, de suerte que cada año se acortaría dos segundos con respecto al anterior: diferencia pequeña, no cabe duda; pero los astrónomos son capaces de detectar tales cambios sin gran dificultad y prácticamente al instante. Y como jamás se ha observado un cambio de este tipo, es preciso abandonar la teoría del bombardeo meteórico.
En 1853 Helmholtz examinó otra alternativa. Podía ser que el Sol mismo estuviera experimentando un proceso de contracción, de modo que sus capas exteriores cayeran, por así decirlo, hacia el centro. La energía de este movimiento inducido por vía gravitatoria podía convertirse en radiación, igual que ocurría con los meteoros, y ello sin originar ningún cambio en la masa del Sol, con lo cual el año terrestre tampoco sufriría alteración alguna.
La cuestión era: ¿Qué contracción había que postular con el fin de mantener la radiación solar al ritmo necesario? La respuesta obtenida fue: muy pequeña.
Podía demostrarse que en los 6.000 años de la historia del hombre civilizado, el diámetro total del Sol se habría contraído sólo 900 kilómetros, que en un diámetro de 1.390.000 kilómetros pueden considerarse prácticamente insignificantes. La reducción del diámetro del Sol a lo largo de los 250 años que median entre la invención del telescopio y los tiempos de Helmholtz equivaldría sólo a 37 kilómetros, cantidad indetectable incluso con los instrumentos más refinados de la época.
La fuente de la energía solar quedaba así explicada de una forma que en aquellos tiempos parecía satisfactoria Además, la hipótesis de contracción de Helmholtz era susceptible de ser combinada con la hipótesis nebular de Laplace, concibiendo así la producción de energía como un proceso constante que se hubiera llevado a cabo a medida que la nebulosa originaria de Laplace se contraía. La contracción actual del Sol no sería sino la fase final de esta contracción nebular general.
Por otra parte, si suponemos que a lo largo de todo este proceso de contracción la energía se produjo desde el principio al mismo ritmo con que se engendra hoy día, es posible calcular en qué momento de su marcha hacia la formación de ese Sol relativamente pequeño e incandescente que conocemos hoy, en qué momento, repetimos, la nebulosa original adquirió un grado concreto de condensación.
Por ejemplo: hace 18.000.000 de años la nebulosa primitiva se habría contraído ya hasta un diámetro de 320.000.000 de kilómetros, aunque su hinchada esfera llenaría todavía el espacio que se extiende hasta la órbita normal de la Tierra. En consecuencia, tuvo que ser hace .18.000.000 de años cuando se liberara el anillo de materia (según la concepción laplaciana) que más tarde se recondensaría y daría origen a la Tierra. Esto significaba que nuestro planeta no podía tener una edad de más de 18.000.000 de años.
Siguiendo esta línea de razonamiento, los planetas que se encuentran más próximos al Sol que la Tierra —Venus y Mercurio— tendrían una edad mucho menor que 18.000.000 de años, mientras que los planetas exteriores —Marte, Júpiter, etc. , se habrían formado mucho antes. La vida total del sistema solar, desde los comienzos de la contracción nebular, quizá fuese de varios cientos de millones de años.

§. Energía nuclear
Si Helmholtz hubiera presentado su teoría en 1803 en lugar de en 1853, esa edad de 18.000.000 de años que asignó a la existencia de la Tierra habría pasado por una cifra incluso excesiva. En efecto, a comienzos del siglo XIX la mayor parte de los científicos europeos se hallaban aún bajo el hechizo del lenguaje literal de la Biblia y suponían que la Tierra sólo existía desde hace unos 6.000 años. Dieciocho millones de años se les habría antojado una cifra rayana en la blasfemia.
Mas la primera mitad del siglo XIX había presenciado una importante revolución en la actitud general de la ciencia. En 1785 el geólogo escocés James Hutton (1726- 1797) había publicado un libro tituladoTheory of the Earth [«Teoría de la Tierra»] en el cual se estudiaban los lentos cambios que experimentaba la superficie terrestre: el depósito de sedimentos, la erosión de las rocas, etc. Hutton sugirió el «principio de uniformidad», el cual venía a afirmar que cuantos cambios se producían hoy día sevenían produciendo ya en el pasado prácticamente al mismo ritmo. De acuerdo con este principio sería necesario trabajar con enormes lapsos de tiempo para explicar los espesores de sedimentos y la erosión que se observa en nuestro planeta, así como los plegamientos y demás cambios violentos a que la superficie de la Tierra había estado expuesta.
Hutton no logró convencer a sus contemporáneos. Pero sucedió que entre 1830 y 1833 otro geólogo escocés. Charles Lyell (1797-1875), publicóThe Principies of Geology [«Principios de Geología»], libro en el cual se resumían, divulgaban y respaldaban con pruebas adicionales los trabajos de Hutton. Esto volvió las tornas, y los geólogos comenzaron a interpretar la historia de la Tierra en función de cientos de millones de años.
Cuando Helmholtz entró en escena con la cifra de 18.000.000 de años como límite máximo para la edad de la Tierra, los geólogos quedaron estupefactos. Parecía de todo punto imposible que 18.000.000 de años atrás surgiera un anillo de polvo y gas, se condensara lentamente y experimentara los cambios necesarios para formar un cuerpo sólido y compacto con océanos y atmósfera, sufriendo más tarde, después de solidificarse, todos los demás cambios de los cuales daba testimonio la corteza terrestre.
Por otra parte, los biólogos estaban llegando a la conclusión de que las distintas formas de vida habían ido modificándose de un modo lento en el transcurso del tiempo. En 1859 el naturalista inglés Charles Rober. Darwin (1809-1882) publicó El origen de las especies, obra en la que sostenía que tales modificaciones habían sido producto de las presiones de la selección natural, proceso sobremanera lento y que exigía evos enteros para dar lugar a los cambios que se observan en los testimonios fosilizados de formas de vida extinguidas.
Las ideas de Darwin tropezaron con grandes dificultades para imponerse a los prejuicios «bibliocentristas» de la época, pero cada vez fueron más los biólogos que las aceptaron, comprobando al mismo tiempo que era imposible admitir la cifra de Helmholtz. Sin embargo, las ideas de los biólogos no estaban en conflicto con la lógica utilizada por Helmholtz, ni violaban tampoco la ley de conservación de la energía.
La segunda mitad del siglo XIX fue así testigo de un enfrentamiento equilibrado en cuanto al origen temporal del sistema solar, y en particular de la Tierra. Los físicos eran partidarios de una longitud de vida corta, mientras que los geólogos y biólogos se inclinaban por una vida larga.
El equilibrio se rompió finalmente en la década de 1890-99, durante la cual las ciencias físicas experimentaron una auténtica revolución. En 1896 el físico francés Antoine Henri Becquerel (1852-1908) descubrió que los compuestos de uranio constituían fuentes dé radiación muy energética. (Este fenómeno fue llamado «radiactividad».) Evidentemente, existían fuentes de energía mucho más intensas que las que se basaban en reacciones químicas o incluso en la contracción gravitatoria.
En 1911, el físico británico Ernest Rutherford (1871- 1937), nativo de Nueva Zelanda, consiguió demostrar que el átomo no era una esfera indiferenciada, sino que consistía en un diminuto «núcleo atómico» (situado en el centro y que contenía prácticamente toda la masa del átomo) y en una serie de partículas ligeras llamadas «electrones» que rodeaban a dicho núcleo. Las reacciones químicas tenían mucho que ver con las fuerzas que mantenían a los electrones ligados al núcleo, siendo precisamente estas fuerzas la fuente de energía de fenómenos tales como la combustión del carbón.
El núcleo atómico se componía a su vez de partículas; éstas se dividían, según se descubrió más tarde, en dos variedades: «protones» y «neutrones», unidos entre sí en el núcleo por fuerzas mucho mayores que las que mantenían a los electrones en torno al núcleo o que aquellas otras que ataban diferentes átomos o moléculas. Existen «reacciones nucleares» que implican cambios en la combinación de neutrones y protones y que suministran una intensidad de energía muy superior a la que puede proporcionar una reacción química. La radiactividad es una forma de reacción nuclear.
En 1905, el físico germano-suizo Albert Einstein (1879-1955) puso de relieve, de forma sorprendente un aspecto particular de las reacciones nucleares. Demostró que la propia masa era una modalidad, en extremo concentrada, de la energía y presentó la siguiente fórmula, hoy día muy conocida: e= mc2, donde e representa la energía,m la masa y c la velocidad de la luz en el vacío.
Si recordamos que el valor de c es muy grande (300.000.000 de metros por segundo) y tenemos en cuenta que c2 es el resultado de multiplicar esta enorme cantidad por sí misma, comprenderemos que incluso una porción exigua de masa equivale ya a una energía muy grande. Un gramo de masa se puede convertir 21.500.000.000 de kilocalorías, cantidad que se puede obtener también mediante la combustión completa de unos 2.500.000 litros de gasolina.
La liberación de energía ocurre siempre a expensas de la desaparición de masa, pero en las reacciones químicas ordinarias la cantidad de energía liberada es tan reducida que la pérdida de masa resulta insignificante. Como hemos dicho hace un momento, es preciso quemar unos 2.500.000 litros de gasolina para provocar la pérdida de un gramo de masa. Las reacciones nucleares producen energía en cantidades mucho mayores, por lo cual la pérdida de masa sí es significativa.
Supongamos ahora que el Sol obtiene su energía, no a costa de una contracción inducida de un modo gravitatorio, sino como resultado de ciertas reacciones nucleares que se operaran en su interior. ¿Qué masa tendría que convertirse entonces en energía con el fin de emitir radiación al ritmo que de hecho se observa? El problema es de fácil resolución; el resultado es 4.600.000 toneladas de masa por segundo. Esta masa la perdería el Sol con carácter definitivo, pues la energía en la cual se convierte se irradia hacia el espacio interestelar.
Ahora bien, ¿puede el Sol sostener esta sangría constante de masa al ritmo de millones de toneladas por segundo? Ciertamente que sí, pues la pérdida resulta infinitesimal si se la compara con la masa descomunal del Sol; haría falta que transcurrieran billones de años antes de que una pérdida tal consumiera siquiera el 1% de la masa solar.
Por otra parte, la pérdida de masa tampoco afectaría de un modo serio a la naturaleza del campo de gravitatorio de la Tierra. Esta pérdida se desarrolla a una velocidad equivalente a sólo 1/30.000.000 del aumento ocasionado por la incidencia de meteoros. Cierto que la disminución de masa que implica la teoría de la reacción nuclear debilitaría el campo gravitatorio del Sol, pero sólo hasta el punto de que el año terrestre se alargaría un segundo cada 15.000.000 de años, aumento que es insignificante.
La teoría de la reacción nuclear no exige cambios perceptibles en el volumen o en el aspecto del Sol, ni siquiera a lo largo de períodos extensos de tiempo, por lo cual este astro (y la propia Tierra, por tanto) pudiera haber existido en una forma muy similar a la que exhibe hoy día desde hace, no millones, sino miles de millones de años. Esto daba la razón a los biólogos y geólogos y echaba por cierra la efímera sugerencia de Helmholtz.
Por otra parte, la radiactividad misma ofrecía un nuevo método para determinar la edad de la Tierra, método que por añadidura era mucho más exacto y fiable que los conocidos hasta entonces.
Conforme el uranio va emitiendo sus radiaciones, los ¿tomos que lo componen experimentan un cambio en su naturaleza, transformándose en otros tipos de átomos que vuelven a emitir radiaciones y a cambiar de naturaleza. El proceso continúa hasta que llega un momento en que el uranio se convierte en plomo, elemento estable que no sigue transformándose.
La velocidad con que el uranio se transforma de esta manera se ajusta a una ley muy simple; los químicos conocen este proceso con el nombre de «reacción de primer orden». Esto significa que si determinamos la velocidad de cambio a lo largo de un intervalo breve de tiempo, es posible predecir el proceso con bastante precisión para un intervalo mucho más prolongado. Así, por ejemplo, se comprobó que la mitad de una cantidad cualquiera de uranio se descomponía y transformaba en plomo al cabo de 4.500.000.000 de años. Este gigantesco intervalo de tiempo se denomina «vida media» del uranio 238 (la forma más común del átomo de uranio).
Consideremos ahora un mineral que contiene compuestos de uranio. Dentro del mineral, el uranio no cesa de desintegrarse y convertirse en plomo. Si el trozo de mineral permanece en estado sólido y conserva su integridad, los átomos de plomo no tendrán forma de escapar y se verán obligados a seguir mezclados con los de uranio. Los compuestos de uranio quizá fueran puros en un principio, pero a medida que transcurre el tiempo se ven contaminados cada vez más por el plomo. Puesto que los mezquinos cambios de temperatura y presión que se operan en la Tierra no afectan al ritmo con que se desarrollan las reacciones nucleares, sabemos que la cantidad exacta de plomo que acompaña al uranio depende sólo de la longitud de tiempo que el mineral ha permanecido en estado sólido (y de la cantidad de plomo presente en origen), pero no de los cambios ambientales fortuitos que haya podido experimentar.
Esto lo señaló ya en 1907 el químico americano Bertram Borden Boltwood (1870-1927); en los años subsiguientes se analizó el contenido en uranio y plomo de distintos minerales y se elaboraron técnicas para convertir estos análisis en medidas de la edad geológica. En cuestión de pocos años se descubrieron ciertos minerales que según el método del uranio-plomo seguramente habían permanecido en estado sólido por encima de los mil millones de años.
En las últimas décadas, diversos métodos basados en distintas formas de transmutaciones radiactivas han proporcionado para la edad de la Tierra una cifra (digna de crédito) de 4.700.000.000 de años: un período 260 veces superior al que sugirió Helmholtz.

Capítulo 8
La energía del Sol

Contenido:
§. La hipótesis planetesimal
§. Constitución del Sol
§. Temperatura de la superficie del Sol
§. Temperatura interna del Sol
§. La hipótesis planetesimal
Una vez que en 1920 quedó bien establecida la edad de la Tierra en una cifra del orden de los miles de millones de años, era natural preguntarse por la edad del Sol. Si la hipótesis nebular fuese una imagen fiel del desarrollo del sistema solar, el corolario inmediato sería que el planeta más viejo era el más exterior, el más joven el más interior y el Sol, en su forma actual, más joven que cualquiera de los planetas. Si fijamos la edad de la Tierra en 4,7 evos[xiv] , el Sol tendría que ser entonces algo más joven que esta cifra, pero quizá tampoco mucho más.
Por desgracia no pudo llegarse a una conclusión tan fácil, y la razón es que la hipótesis nebular, que había mantenido su vigencia a lo largo de todo el siglo XIX, quedó anticuada a finales del mismo.
El problema que provocó el tropiezo y la caída de la hipótesis nebular fue el momento angular. La hipótesis nebular arrancaba de una cantidad ingente de polvo y gas que contenía cierta reserva de momento angular, y concebía luego un proceso de condensación con un aumento constante y parejo en la velocidad de rotación de la nube y el desgajamiento ocasional de sucesivos anillos de polvo y gas. Sin embargo, no hacía intento alguno de describir la forma en que se dividía el momento angular entre los anillos desgajados (que más tarde habrían de formar los planetas), por una parte, y la porción principal de la nube que seguía condensándose para constituir el Sol, por otra.
En 1900, el geólogo americano Thomas Chrowder Chamberlin (1843-1928) estudió con gran detalle la dinámica de una nebulosa en rotación. Demostró que cuando la nebulosa emitía un anillo de materia procedente de su parte ecuatorial, para seguir después contrayéndose, prácticamente todo el momento angular debía permanecer en el cuerpo principal de la nebulosa y sólo una parte muy exigua en el anillo. Por consiguiente, si un anillo tal tuviera ocasión de coalescerse para formar un planeta (proceso muy dudoso, como más tarde se puso de manifiesto), éste poseería un momento angular muy pequeño. El resultado final sería un sistema solar en el cual el Sol, ocupando el centro, contendría casi la totalidad del momento angular del sistema y giraría, por tanto, alrededor de su eje con una velocidad muy grande, a saber, con un período de medio día aproximadamente. Los planetas poseerían un momento angular tan pequeño que apenas podrían mantenerse en una órbita definida.
Pero sucede que esta no es la imagen real del sistema solar. De hecho, el planeta Júpiter, que representa sólo el 0,2% de la masa del sistema solar, contiene por sí solo un 60% del momento angular total del sistema. Saturno acapara otro 25%.
A pesar de que Júpiter posee un diámetro once veces mayor que el de la Tierra, su período de rotación es de diez horas, menos de la mitad del período de rotación terrestre. Saturno, de proporciones casi iguales a las de Júpiter, gira también casi a la misma velocidad que él. Estos dos mundos masivos describen amplios arcos en torno al Sol, y es precisamente esta revolución la que monopoliza la mayor parte del momento angular.
Añadamos luego los demás planetas y cuerpos menores del sistema (cuya masa total representa menos del 1.1% de la masa del sistema) y obtendremos que el momento angular planetario total equivale al 98% de la reserva global del sistema. El Sol, que monopoliza más del 99,8% de la masa del sistema solar, sólo contiene el 2% de todo el momento angular y gira alrededor de su eje con paso majestuoso, completando una vuelta sólo al cabo de 24,65 días[xv].
¿Cómo era posible que la nebulosa, al contraerse, comunicara casi la totalidad de su momento angular a los diminutos anillos de materia que emitía? Chamberlin no veía un modo satisfactorio de explicarlo y se vio obligado a concluir que el momento angular fue introducido en el sistema solar desde fuera.
Fue el propio Chamberlin, junto con el astrónomo americano Forest Ray Moulton (1872-1952), quien en 1906 sugirió una, posible solución. Para empezar imaginemos el Sol en una forma más o menos similar a la actual, pero sin planetas. En origen quizá se hubiera condensado a partir de una nebulosa, pero en ese caso sin liberar anillos de materia; o si emitió tales anillos, éstos carecían de un momento angular suficiente para mantener su independencia, cayendo gradualmente hacia el cuerpo principal o alejándose a la deriva en el espacio. En cualquier caso, el Sol resplandecía allí en soledad absoluta.
Imaginemos ahora una segunda estrella que se aproxima al Sol. Las gigantescas fuerzas gravitatorias a que daría lugar este encuentro producirían enormes mareas en ambas estrellas. Como consecuencia de ello quizá se descendiera de las dos estrellas una descomunal gota de materia estelar que vendría a constituir un puente temporal entre ambas. A medida que las estrellas se fuesen alejando una de otra, este puente de materia se vería obligado a girar rápidamente, ganando momento angular a expensas de las estrellas mismas.
Una vez separadas ambas estrellas, cada una de ellas arrastraría consigo cierta porción del puente-materia, que más tarde se condensaría en forma de planetas, reteniendo siempre el momento angular adquirido durante el proceso. Antes del encuentro las dos estrellas giraban a gran velocidad, pero sin planetas; después del encuentro giran lentamente, con una serie de planetas rotando alrededor de ellas.
Las objeciones a la hipótesis nebular parecían concluyentes, y la teoría de Chamberlin-Moulton llevaba trazas de ser un bonito sustituto. Además, ofrecía un atractivo singular toda vez que insertaba en la astronomía algo que cabía considerar casi como un motivo biológico: todo había ocurrido como si los planetas hubieran nacido del casamiento entre dos estrellas, como si la Tierra tuviera un padre y una madre. Esta hipótesis permaneció indiscutida durante casi cuarenta años.

21.jpg
Figura 21 Hipótesis planetesimal

Puesto que la idea de Chamberlin y Moulton era que la materia desgajada del Sol se condensaba rápidamente en pequeños cuerpos sólidos o «planetesimales», que a su vez se condensaron en planetas, su teoría recibió el nombre de «hipótesis planetesimal».
En 1917 los astrónomos ingleses James Hopwood Jeans (1877-1946) y Harold Jeffreys (n. 1891) elaboraron la hipótesis planetesimal con mucho más detalle y sugirieron que el puente de materia separado de las dos estrellas y flotante entre ellas debía tener forma de cigarro. De la parte más gruesa del puente, la central, se formarían los planetas gigantes (Júpiter y Saturno), mientras que los planetas menores nacerían más allá de Saturno y dentro de la órbita de Júpiter.

§. Constitución del sol
Una vez aceptada la hipótesis planetesimal ya no es lícito suponer que si la edad de la Tierra es de 4,7 evos, ésta será también, más o menos, la del Sol. ¿Cuánto tiempo no habría existido el Sol en su esplendor solitario antes de que el intruso le bendijese con una familia? ¿Acaso no era posible que el sistema planetario fuese un añadido relativamente tardío a ese Sol cuya existencia podría cifrarse en decenas o incluso centenas de evos?
Los astrónomos empezaron a concebir —aunque de un modo vago— tal longevidad para el Sol en el momento en que se entendió la interconversión de masa y energía. El Sol emitía radiación a expensas de la masa, pero ¿cómo averiguar su masa original? Si el Sol hubiera tenido en origen el doble de la masa actual y hubiera ido perdiéndola a un ritmo constante igual al presente, habría existido desde 1.500 evos antes de llegar a la masa actual. Y, naturalmente, seguiría existiendo otros 1.500 evos antes de desaparecer por completo, suponiendo siempre el ritmo de radiación presente.
Sin embargo, es muy improbable que la masa se vaya disipando a una velocidad constante hasta desaparecer por completo. Los físicos que trabajaban con núcleos atómicos sabían por experiencia que cuando un conjunto de núcleos se reordenaba para formar otro conjunto distinto, se producía energía a expensas de la masa, pero en tales circunstancias sólo una porción exigua de la masa se convertía en energía. De aquí que si la energía solar provenía de reacciones nucleares producidas dentro del astro, éste sólo podía perder, en el mejor de los casos, una fracción muy reducida de su masa. Cuando toda la materia solar hubiera experimentado esta reordenación de los núcleos, las reacciones nucleares cesarían. A partir de entonces, y a pesar de que el Sol seguiría conteniendo grandes cantidades de masa, la energía emitida sería escasa, si es que no nula.
La cantidad de energía disponible en el Sol y, por consiguiente, la longitud de tiempo que éste llevaba existiendo y que podría seguir en vida dependían de la naturaleza de las reacciones nucleares que tenían lugar en su interior. Mas ¿cómo podrían los científicos averiguar dicha naturaleza? A primera vista parece imposible resolver el problema a menos que se pudiera determinar previamente la clase de sustancias que componen la estructura del Sol y las condiciones a que están sometidas, tratando luego de averiguar el tipo de reacciones nucleares que tales sustancias experimentarían en las condiciones dadas.
Tarea formidable, no cabe duda. Para empezar, ¿cómo es posible determinar la constitución del Sol desde una distancia de 150.000.000 de kilómetros? A principios del siglo XIX hubiera parecido ridículo soñar con cosa semejante. Hasta tal punto esto era así, que el filósofo francés Auguste Comte (7198-1857), en sus consideraciones acerca de los límites absolutos del conocimiento humano, alistó entre los fenómenos que permanecerían siempre desconocidos e incognoscibles la cuestión de la constitución química de los cuerpos celestes.
Ahora bien, no todo lo que tiene que ver con el Sol se encuentra a 150.000.000 de kilómetros. La radiación solar, por ejemplo, atraviesa el espacio y llega hasta nosotros. A medida que avanzó el siglo XIX los científicos aprendieron a extraer cada vez más información de dichas radiaciones. (Recordemos que el problema de la velocidad radial obtuvo su solución a partir del estudio de la radiación estelar.) Volvamos, pues, al espectro y a las líneas espectrales.
En 1859, el físico alemán Gustav Robert Kirchhoff (1824-1887) y su colaborador, el químico también alemán Robert Wilhelm Bunsen (1811-1899), emprendieron un estudio minucioso del espectro producido por diversos vapores al calentarlos en la llama, prácticamente incolora, de un «mechero Bunsen» (dispositivo difundido por Bunsen, que mezcla aire v gas para conseguir una combustión más eficaz y una llama más caliente). Los vapores calentados producían un espectro de emisión, es decir, líneas brillantes contra un fondo oscuro. Además, la naturaleza de estas líneas brillantes dependía de los elementos presentes en el vapor. Cada elemento daba lugar a un conjunto característico de líneas, y una misma línea, situada en una posición concreta, nunca correspondía a dos elementos diferentes. El espectro de emisión venía a ser algo así como las huellas dactilares de los elementos contenidos en el gas incandescente. Fueasí como Kirchhoff y Bunsen fundaron la técnica de la «espectroscopia».
Al año siguiente, y en el curso de ciertos estudios acerca del espectro originado por diversos minerales, Kirchhof y Bunsen detectaron líneas que no correspondían a ninguno de los elementos conocidos. Sospecharon que se trataba de elementos nuevos, no descubiertos hasta entonces, e inmediatamente verificaron este extremo con ayuda del análisis químico. Los dos nuevos elementos remitieron el nombre de «cesio» y «rubidio», derivados de palabras latinas «caesium» y «rubidus», que significan «azul celeste» y «rojo pardusco», respectivamente, y que representan precisamente los colores de las líneas que condujeron al descubrimiento. El cesio y el rubidio fueron los dos primeros elementos descubiertos por medios espectroscópicos; y a ellos les siguieron otros muchos.
Pero Kirchhoff y Bunsen no se pararon ahí. Empezaron a trabajar con la luz emitida por un sólido incandescente (luz blanca que formaba un espectro continuo), haciendo pasar luego esta luz a través de un vapor frío. Descubrieron que el vapor absorbía ciertas longitudes de onda de la luz y que el espectro formado después de que la luz atravesara el vapor ya no era completamente continuo, sino que estaba atravesado por líneas escuras que marcaban la posición de las longitudes de onda absorbidas. Era lo que se llama un «espectro de absorción». Inmediatamente se comprendió que el espectro solar era un ejemplo de este tipo. El cuerpo caliente del Sol produce luz blanca de espectro continuo, y cuando esta luz atraviesa la atmósfera solar (muy caliente también, pero menos que el Sol) algunas de sus longitudes de onda son absorbidas. Esta era la explicación de las líneas oscuras del espectro solar.
Kirchhoff observó que las longitudes de onda absorbidas por un vapor frío eran exactamente las mismas que emitía el vapor cuando estaba caliente e incandescente, Supongamos, por ejemplo, que calentásemos vapor de sodio hasta la incandescencia. La luz producida tendría un color amarillo intenso; si hacemos pasar ahora esa luz a través de una rendija y después a través de un prisma, aparecerán dos líneas amarillas muy juntas que constituirían el espectro total de emisión del sodio.
En cambio, si hacemos pasar la luz procedente de un arco voltaico a través de vapor de sodio relativamente frío, el espectro continuo originado en condiciones normales por la luz del arco se vería interrumpido por un par de líneas oscuras muy juntas situadas en el amarilla Las dos líneas oscuras producidas por absorción por el vapor frío de sodio ocuparían exactamente la posición de las líneas brillantes originadas por el vapor de sodio incandescente. Por consiguiente, tanto las líneas oscuras de un espectro de absorción como las líneas brillantes de un espectro de emisión pueden servir como marcas identificadoras de un elemento.
¿Qué había que concluir entonces acerca del espectral solar y las líneas de absorción contenidas en él? Una ce las líneas más destacadas en dicho espectro (línea que Fraunhofer marcara con la letra «D») ocupaba de hecho la posición de las líneas del sodio. Kirchhoff verificó este extremo haciendo pasar luz solar a través de vapor de sodio caliente y comprobando que la línea D. se tornaba más intensa y marcada. Además, al hacer que la luz solar atravesara una masa de vapor de sodio incandescente, aparecía la línea del sodio y borraba la línea D oscura del espectro solar.
Toda vez que las líneas obtenidas en el laboratorio eran idénticas a las que producía el Sol, parecía razonable suponer que también las de este astro eran originadas por sodio y que el vapor de sodio era un elemento constitutivo de la atmósfera solar. De modo análogo se demostró que las líneas H y K provenían del calcio, por lo cual este elemento también debía estar presente en la atmósfera del Sol. En 1862 el astrónomo sueco Anders Jonas Angstrom (1814-1874) comprobó que el Sol contenía asimismo hidrógeno. La sentencia de Comte resultó ser: completamente errónea: sí era posible averiguar la constitución química del Sol, así como de cualquier otro cuerpo celeste que emitiera luz propia con una intensidad suficiente para proporcionar un espectro detectable.
Al principio, el espectro solar sólo se utilizó como un método para determinar qué elementos estaban presentes en el Sol y cuáles no. Ahora bien, era preciso preguntarse también por la cantidad en que se hallaban presentes. Las líneas espectrales se ensanchaban y aumentaban de intensidad a medida que crecía la concentración de un elemento dado en el vapor incandescente o absorbente. Este detalle abría la posibilidad de averiguar no sólo si un elemento cualquiera se hallaba presente o no, sino tararían en qué cantidad.
Finalmente, en 1929 el astrónomo americano Henry Norris Russell (1877-1957) estudió con detenimiento los espectros solares y consiguió demostrar que el Sol era sobremanera rico en hidrógeno, afirmando que el contenido en hidrógeno del Sol equivalía a tres quintas partes de su volumen. Resultado totalmente inesperado, toda vez que el hidrógeno, aunque no se puede calificar de raro, sólo constituye una porción exigua de la corteza terrestre, a saber, el 0,14%.
Y aun así, los trabajos posteriores demostraron que Russell había pecado de conservador: los cálculos recientes del astrónomo americano Donald Howard Menzel n. 1901) indican que el 81,76% del volumen del Sol es hidrógeno y el 18,17% helio, dejando sólo un 0,07% para todas las demás clases de átomos.
Parece lícito, pues, afirmar que el Sol consiste fundamentalmente en una mezcla incandescente de hidrógeno y helio, en la proporción de 4 a 1 en volumen. (El helio fue otro de los elementos descubiertos por métodos espectroscópicos, y además en el Sol, no en la Tierra. El astrónomo inglés Joseph Norman Lockyer [1836-1920] sugirió que ciertas líneas no identificadas del espectro solar quizá estuvieran producidas por un elemento hasta entonces desconocido, al cual bautizó con el nombre de helio, derivado de Helios, el dios griego del Sol. Fue sólo en 1895 cuando el químico escocés William Ramsay [1852-1916] localizó el helio en nuestro planeta.)

§. Temperatura de la superficie del Sol
Los conocimientos adquiridos acerca de la constitución del Sol redujeron drásticamente el número de reacciones nucleares que podían servir como posibles fuentes de k ingente producción de energía solar. Era preciso descartar por completo la idea de que la fuente principal podía consistir en reacciones nucleares en las que no interviniesen como combustible el hidrógeno y, quizá, el helio. Ninguna otra sustancia existía en cantidades suficientemente grandes.
Consideremos, por tanto, los núcleos atómicos del hidrógeno y del helio. El núcleo del tipo más común de átomo de hidrógeno consiste en una única partícula., un protón, por lo cual este tipo de átomo de hidrógeno recibe el nombre de «hidrógeno-1». El núcleo de la variedad más común de átomo de helio está compuesto de cuatro partículas, dos protones y dos neutrones; este tipo de átomo se llama «helio-4».
Cabe concebir que cuatro núcleos de hidrógeno se fusionen («fusión del hidrógeno») para formar un único núcleo de helio, proceso que se puede representar de la siguiente manera: 4H1 → He4. Sin entrar en detalles acerca de cómo se lleva a cabo este proceso, es decir, si directamente o a través de una larga serie de reacciones en las que intervengan otros átomos, limitémonos a preguntar si la fusión del hidrógeno bastaría o no para suministrar al Sol la energía necesaria.
La masa del núcleo de hidrógeno ha sido determinada con gran exactitud en «unidades de masa atómica». En estas unidades, la masa del núcleo de hidrógeno es de 1,00797; cuatro núcleos de este tipo totalizarían una masa de 4,03188. Sin embargo, la masa del núcleo de helio equivale a sólo 4,0026. Por consiguiente, si 4,03188 unidades de masa atómica de hidrógeno se fusionan, de un modo u otro, en 4,0026 unidades de masa atómica de helio, es preciso que 0,0293 unidades de masa atómica 0,73% del total) se hayan convertido en energía.
En ese caso, la pérdida de 4.600.000 toneladas de masa que experimenta el Sol cada segundo podría representar la pérdida de masa que resulta de la conversión de hidrógeno en helio. El hidrógeno sería el combustible nuclear del Sol, el helio sus «cenizas» nucleares. Dado que la pérdida de masa que origina la conversión del hidrógeno en helio equivale al 0,73% de la masa de hidrógeno fusionante, la pérdida de 4.600.000 toneladas de masa por segundo significa que cada segundo se convierten 630.000.000 de toneladas de hidrógeno en helio.
Esto nos permite hacer algunas conjeturas acerca de la edad aproximada del Sol. La masa total del Sol se puede calcular a partir de la intensidad de la atracción gravitatoria que aquél ejerce sobre la Tierra desde una distancia de 150.000.000 de kilómetros; resulta ser de 2.200.000.000.000.000.000.000.000.000 de toneladas. Sabemos que cada segundo se consumen 630.000.000 de toneladas de hidrógeno; suponiendo ahora que el Sol estaba compuesto en origen únicamente de hidrógeno, que este hidrógeno se ha ido fusionando a un ritmo constante desde el principio y que el material que constituye el Sol se encuentra siempre bien mezclado, es posible calcular cuánto tiempo tendría que pasar antes de que la cantidad de hidrógeno disminuyera desde el 100% al 81,76%. El resultado es 20.000.000.000 de años, es decir, 20 evos. Por otra parte, tendrían que transcurrir 90 evos más antes de que se llegara a consumir por completo el combustible de hidrógeno restante.
Naturalmente, no es lícito suponer que la velocidad de fusión se mantiene inmutable hasta que se agotan las reservas de combustible, ni que dicha velocidad ha sido siempre la misma que ahora. No cabe duda de que la presencia de ciertas cantidades de cenizas de helio muy bien podría afectar a la velocidad de fusión e incluso a la naturaleza de la reacción. Sin embargo, a principios de la década de 1930-39 parecía posible trazar un esquema satisfactorio que explicara la existencia de un Sol con una vida total de 100 evos como mínimo. Evidentemente, el sistema solar tenía a sus espaldas una historia muy larga y por delante un futuro aún más prolongado.
Mas no bastaba con aventurar la hipótesis de que el suministro de energía solar estaba basado en la fusión de hidrógeno en helio. Era preciso demostrar que las condiciones que prevalecían en el Sol permitían, en efecto, la fusión del hidrógeno. Pues no olvidemos que los océanos de la Tierra contienen reservas vastísimas de hidrógeno y, sin embargo, éste no experimenta ningún proceso de fusión. Si este proceso se llevara a cabo, la Tierra explotaría y se evaporaría, convirtiéndose en una estrella muy pequeña y muy efímera. Ahora bien, si la fusión se operara bajo un régimen controlado, el hombre sería capaz de satisfacer sus demandas de energía durante millones de años. Empero, las condiciones de nuestro planeta no permiten la fusión espontánea del hidrógeno, ni los científicos son capaces —por ahora— de crear los requisitos necesarios para una fusión controlada. Lo más que han sabido hacer es obligar a que cierta porción de hidrógeno experimentara un proceso de fusión no controlada; nos referimos a la «bomba de hidrógeno» de los años cincuenta.
¿Qué decir entonces acerca de las condiciones que reinan en el Sol?
Lo único que podemos ver del Sol es su superficie, y ésta, naturalmente, es una superficie caliente. ¿Pero en qué medida caliente? Volvamos una vez más a la radiación solar.
Todos los objetos, incluso los que no se distinguen precisamente por su temperatura, como el cuerpo humano, radian energía de un modo incesante. El calor del cuerpo se puede percibir a una distancia corta de éste, aunque la radiación es de una longitud de onda tan larga situada en la zona infrarroja lejana) que resulta del todo invisible para el ojo humano.
Al calentar lentamente un objeto —una plancha, por ejemplo— la radiación que emite se hace cada vez más copiosa y empieza a extenderse por la región de las longitudes de onda cada vez más cortas. Utilizando una película fotográfica sensible a la radiación infrarroja es posible registrar la imagen de una plancha caliente en una habitación oscura aprovechando únicamente la «luz» propia del objeto, a pesar de que esta luz tiene una longitud de onda demasiado larga para ser detectada con la vista. Si continuamos calentando la plancha, llega un momento en que la longitud de onda de la radiación sería lo bastante corta como para que el ojo humano fuese capaz de percibirla. Al principio, dichas longitudes de onda serían las más largas de entre las visibles y el objeto brillaría con un color rojo oscuro. El aumento progresivo de la temperatura iría añadiendo radiación de longitud de onda más corta, con el cambio consiguiente de color.
En 1893 el físico alemán Wilhelm Wien (1864-1928) estudió el problema con detalle, comprobando que a una temperatura dada existía siempre un pico de radiación, es decir, cierta longitud de onda para la cual la cantidad de radiación emitida era mayor que para cualquier otra longitud. Constató también que al aumentar la temperatura la posición de este pico se desplazaba en la dirección de las longitudes de onda cortas de acuerdo con una ley matemática simple. Así, pues, estudiando el espectro de un objeto incandescente y determinando el pico de radiación en dicho espectro, es posible deducir la temperatura del objeto. Por otro lado, las características de las líneas espectrales también varían con la temperatura, con lo cual pueden servir de ayuda adicional en este aspecto.
Trabajando con el espectro solar fue posible comprobar que la temperatura de la superficie del Sol es de 6.000° C. La temperatura superficial de otras estrellas se determinaría de una manera similar; algunas de ellas son más calientes que el Sol. La temperatura superficial de Sirio es de 11.000° C., por ejemplo, y la de Alpha Crucis (la estrella más brillante de la Cruz del Sur) de 21.000° C.
A escala terrestre, la superficie del Sol es muy caliente, lo suficiente como para fundir y vaporizar cualquiera de las sustancias que conocemos. Sin embargo, no alcanza la temperatura precisa (ni mucho menos) para provocar la fusión del hidrógeno en helio. Podemos afirmar, sin temor alguno a incurrir en error, que el proceso de fusión no se lleva a cabo en la superficie del Sol. Ahora bien, si pretendemos explicar la procedencia de la energía solar, es evidente que tal proceso debe llevarse a cabo en algún lugar. Esto plantea la cuestión de cuáles son los procesos que se verifican en el interior del Sol.

§. Temperatura interna del Sol
Determinar las propiedades de la superficie del Sol fue, sin duda, una tarea formidable, que, de antemano, parecía imposible de abordar. Cuánto más difícil no se presentaría entonces el estudio del interior del Sol.
Sin embargo, algunas de las conclusiones relativas al interior solar admiten una deducción muy fácil. Por ejemplo: la superficie del Sol emite constantemente energía al espacio exterior, y la emite a un ritmo bastante grande; y a pesar de ello, la temperatura de la superficie parece invariable. Esto indica que la superficie debe recibir calor del interior a un ritmo igual que el de emisión, y de aquí se sigue que el interior debe estar a una temperatura mayor que la superficie.
Toda vez que la temperatura de la superficie solar es ya suficiente para vaporizar cualquier sustancia conocida, y dado que el interior del Sol sobrepasa incluso dicha temperatura, parece razonable suponer que el Sol es de naturaleza gaseosa: un globo de gas increíblemente caliente. Si esto es cierto, los astrónomos pueden congratularse, pues las propiedades de los gases son más sencillas de entender y de tratar que las de los líquidos y sólidos.
El problema de la estructura del interior del Sol fue abordado en la década de 1920-29 por el astrónomo inglés Arthur Stanley Eddington (1882-1944), trabajando con la hipótesis de que las estrellas son cuerpos gaseosos.
Eddington razonó de la siguiente manera: si el Sol sólo se viera afectado por su propio campo gravitatorio, acabaría por hundirse (en el supuesto siempre de que fuese un simple globo de gas). El hecho de que no sufriera este «colapso» indicaba la presencia de otra fuerza que contrarrestaba a la de la gravedad: una fuerza ejercida de adentro hacia afuera. Una fuerza tal, dirigida hacia el exterior, podría ser la que producen las tendencias expansivas de los gases a altas temperaturas.
Teniendo en cuenta la masa del Sol y la fuerza de su campo gravitatorio, Eddington calculó en 1926 la temperatura necesaria para compensar la fuerza de gravitación a diferentes profundidades por debajo de la superficie solar y obtuvo cifras asombrosas. La temperatura en el centro del Sol alcanzaba la cifra colosal de 15.000.000° C. (Algunos cálculos recientes llegan a situar dicha cifra hacia los 21.000.000° C.)
A pesar de las proporciones asombrosas de este resultado, los astrónomos en general lo aceptaron. Y es que, por una parte, tales temperaturas eran necesarias para que se llevara a cabo la fusión nuclear. Si bien la superficie del Sol era demasiado fría para que se pudiera llevar a cabo en ella cualquier reacción de fusión del hidrógeno, el interior del astro poseía una temperatura —según los cálculos de Eddington— que bastaba y sobraba para este propósito. Por otra parte, el razonamiento de Eddington ayudaba a explicar algunos otros fenómenos. El Sol se hallaba en un estado de delicado equilibrio entre la fuerza gravitatoria, que tiraba hacia adentro, y el efecto térmico que empujaba hacia afuera. Pero ¿y si alguna otra estrella no se hallara en tal equilibrio?
Supongamos que una estrella concreta no posee una temperatura suficiente para contrarrestar la compresión gravitatoria. Tal estrella se hundiría hacia su interior, y este colapso transformaría efectivamente (como Helmholtz sugiriera mucho antes) la energía gravitatoria en calor. Las temperaturas interiores comenzarían a aumentar y las fuerzas expansivas se intensificarían hasta llegar a un punto en que contrarrestaran exactamente la presión gravitatoria. Sin embargo, como consecuencia de la inercia, la estrella seguiría contrayéndose durante cierto tiempo por encima del punto de equilibrio, aunque cada vez a un ritmo más lento. En el momento en que la contracción se detuviera por completo, la temperatura sería mucho más alta que la necesaria para compensar la presión gravitatoria, y la estrella comenzaría a hincharse. A medida que se expandiera iría disminuyendo la temperatura hasta alcanzar de nuevo el punto de equilibrio. Pero una vez más, la inercia obligaría a la estrella a hincharse por encima de este punto, para luego ir reduciendo el ritmo de expansión, detenerse y comenzar de nuevo a contraerse. El ciclo se repetiría indefinidamente.
Una estrella de estas características oscilaría alrededor de un punto de equilibrio, de forma análoga a como lo hace un péndulo o un muelle. Y, naturalmente, el brillo de tales estrellas variaría de un modo regular a tenor de las pulsaciones; además, el modo de variación de la luz (teniendo en cuenta el tamaño y la temperatura de la estrella) respondería exactamente al comportamiento de las variables Cefeidas.
Una vez decidida la cuestión de la temperatura y presión del interior del Sol y aceptada la solución propuesta, quedaba por averiguar el modo en que, dadas estas circunstancias, el hidrógeno se fusionaba en helio a un ritmo tal que explicara la cantidad de radiación emitida por el Sol. En 1939 el físico germano-americano Hans Albrecht Bethe (n. 1906) consiguió establecer una serie de reacciones nucleares que cuadraban perfectamente al problema. El ritmo al que se producirían tales reacciones en las condiciones que reinan en el interior del Sol (ritmo calculado a partir de datos, teóricos y empíricos, obtenidos en los laboratorios de física de la Tierra) se ajustaba muy bien a los requisitos del problema.
Así, pues, la cuestión del origen de la energía solar, planteada por Helmholtz en la década de 1840-49, quedó finalmente sentada, gracias a Bethe, casi cien años después. Y con ello quedaba también establecida una vida potencial de 100 evos para el Sol.
Sin embargo, las pruebas acumuladas en favor de la teoría de un interior solar sobremanera caliente tuvo un efecto secundario inesperado: dio al traste con la teoría planetesimal del origen del sistema solar. En efecto: no había inconveniente alguno en suponer que cierta porción de materia se desgajara del Sol y que aquélla se condensara y formara los planetas, pero siempre que se admitiera que el material solar se encontraba a una temperatura de unos cuantos miles de grados. Temperaturas del orden de millones de grados eran una cuestión completamente diferente.
En 1939 el astrónomo americano Lyman Spitzer, Jr. (n. 1914) presentó ciertos argumentos, al parecer válidos, de los cuales se desprendía que un volumen de materia «supercaliente» nunca podría condensarse y formar planetas, sino que se dispersaría al instante, formando una nebulosa gaseosa alrededor del Sol y permaneciendo en este estado por tiempo indefinido.
Así pues, los astrónomos se vieron obligados a atacar de nuevo la tarea de explicar la formación de los planetas a partir de materia relativamente fría. Una vez más había que pensar en una nebulosa en proceso de contracción a la manera laplaciana. Mas el siglo XX había aportado muchos conocimientos acerca del comportamiento que cabía esperar de dicha nebulosa y acerca también de las fuerzas eléctricas y magnéticas a que ésta se vería sometida junto con las fuerzas gravitatorias.
En 1943, el astrónomo alemán Carl Friedrich von Weizsácker (n. 1912) sugirió que la nebulosa que dio origen al sistema solar no giraba en bloque, sino que en las regiones exteriores aparecieron turbulencias y, dentro de ellas, remolinos menores. En los puntos donde chocaran dos remolinos adyacentes se producirían colisiones de partículas, las cuales se fundirían en partículas mayores
y, llegado el momento, darían origen a los planetas. De este modo Weizsácker intentó explicar todo cuanto La- place había tratado de explicar, sólo que la teoría de aquél tenía en cuenta además el espaciamiento de los planetas, la distribución del momento angular y otros detalles.

22.jpg
Figura 22. Hipótesis de Weizsácker.

La teoría de Weizsácker tuvo una acogida entusiástica, pero suscitó grandes controversias acerca de muchos de sus detalles. La controversia sigue en pie hoy día. Algunos astrónomos han sugerido su propia versión, aunque ninguna de ellas ha encontrado una aceptación unánime. El astrónomo sueco Hannes Alfven (n. 1908) y el astrónomo inglés Fred Hoyle (n. 1915) han concebido mecanismos en los que interviene el campo magnético del Sol a la hora de transferir momento angular a los
planetas. Esta explicación tiene grandes probabilidades de ser satisfactoria y ha encontrado una aceptación impresionante.
Sin embargo, todas las teorías coinciden en postular que la formación del sistema solar entero, es decir, tanto del Sol como de los planetas, se verificó en un proceso único. Dicho con otras palabras, si la Tierra, en su forma actual, tiene una edad de 4,7 evos, se puede concluir que todo el sistema solar (incluido el Sol), en la forma en que hoy lo conocemos, tiene esa misma edad.

Capítulo 9
Tipos de estrellas

Contenido:
§. Constitución del sistema solar
§. Clases espectrales
§. Estrellas gigantes y estrellas enanas
§. El diagrama H-R
§. Constitución del sistema solar
Aunque el proceso de fusión del hidrógeno en helio proporciona la solución principal a la cuestión del origen de la energía solar, deja sin resolver algunos problemas. Por ejemplo, el Sol resulta ser de una pobreza inesperada en hidrógeno y de una riqueza insospechada en helio. Si el Sol existe desde hace sólo 5 evos aproximadamente, tendría que haber gastado menos hidrógeno y producido menos helio.
Cabría suponer que el Sol fue antaño un cuerpo mucho más caliente y que derrochaba el combustible de una manera más pródiga que ahora. Idea muy natural, pues resulta razonable que el Sol se comportara como una hoguera de leños, cuya llama se reduce a medida que se consume el combustible, ardiendo cada vez más despacio. En ese caso, el pasado del Sol sería más breve de lo que pensamos, pero su futuro se prolongaría de un modo acorde. El inconveniente principal de este argumento es que los conocimientos que los geólogos han podido reunir acerca de la historia de la Tierra parecen indicar que en los últimos evos no se han operado cambios significativos en la producción de radiación solar.
Una segunda posibilidad es que el Sol comenzara a gastar hidrógeno antes de la formación del sistema solar, mientras éste se encontraba aún en el estado de una nebulosa extensa y turbulenta.
Pero esto tampoco parece probable. Es posible que la nebulosa existiera ya un número indefinido de evos antes de que el sistema solar adoptara su forma actual, pero como tal no pudo nunca perder energía a expensas de las reacciones nucleares. En una nebulosa extensa, el campo gravitatorio es tan difuso que no provoca sino un aumento de temperatura muy pequeño hacia el centro, insuficiente para alcanzar el punto de ignición que pondría en marcha la fusión del hidrógeno. Una nebulosa de este tipo se contraería lentamente, y la única fuente de energía sería la energía gravitatoria de las partículas que cayesen hacia el interior (según la vieja teoría postulada por Helmholtz).
A medida que la nebulosa se fuese contrayendo, el campo gravitatorio iría intensificándose; la energía total en juego permanecería constante, pero concentrada en un volumen cada vez más reducido. La temperatura aumentaría a tenor de la elevación de la presión en el centro de la nebulosa, hasta llegar finalmente al punto de ignición. En ese momento, la nebulosa, en vías de hundimiento, se encendería y se convertiría en una estrella. Sólo entonces empezarían a tener lugar las reacciones nucleares y éstas se desarrollarían únicamente en el centro del Sol, no en las partes exteriores donde los planetas empezarían a tomar forma.
Ahora bien, aparte del problema de la excesiva abundancia de helio, es preciso afrontar otro: la presencia en el Sol y en los planetas de cierta cantidad de elementos más complejos que el helio. ¿De dónde proceden tales elementos?
Consideremos éstos por un momento. El hidrógeno, con su núcleo atómico constituido por una sola partícula, y el helio, cuyo núcleo se compone de cuatro partículas, son los dos elementos más simples. El resto son ya más complejos. Los elementos más comunes (después del hidrógeno y del helio) son el carbono, nitrógeno, oxígeno y neón, cuyos núcleos atómicos se componen de doce, catorce, dieciséis y veinte partículas, respectivamente.
Cabe suponer, desde luego, que al margen de la reacción principal de fusión del hidrógeno en helio existieran otras reacciones secundarias en las cuales, por ejemplo, los átomos de helio se fusionasen en carbono o en oxígeno. Sin embargo, estas otras reacciones de fusión tienen que ser raras toda vez que a lo largo de los 5 evos de la historia del Sol no han sido capaces de producir más que una cantidad muy exigua de estos átomos más complejos. El oxígeno, por ejemplo, sólo constituye el 0,03% del volumen del Sol.
Por otra parte, si lo anterior fuese cierto, los elementos más allá del helio sólo existirían en el Sol, como resultado de las reacciones de fusión nuclear. Pero entonces, ¿cómo es que una porción tan grande de los átomos más complejos entraron a formar parte de los planetas, originados a partir de la materia situada en las afueras de la nebulosa?
La Tierra, por ejemplo, está formada casi exclusivamente por elementos más complejos que el hidrógeno y el helio, lo cual, sin embargo, no es tan sorprendente como pudiera parecer a primera vista; veamos algunas de las razones que apoyan esta afirmación.
Las sustancias sólidas mantienen su coherencia gracias a las atracciones interatómicas, sin depender a estos efectos de ninguna fuerza gravitatoria. Los gases y vapores, por el contrario, poseen fuerzas interatómicas muy pequeñas y exigen el concurso de la fuerza de gravedad para mantenerse unidos al planeta a que pertenecen. Los movimientos de los átomos y de las agrupaciones de átomos (llamadas «moléculas») en los gases y vapores tienden a contrarrestar la atracción gravitatoria. Si los átomos y moléculas se mueven a una velocidad suficiente, acaban por abandonar la vecindad del planeta a pesar de su atracción gravitatoria. Cuanto menor es el planeta, tanto más débil es su gravedad y con mayor facilidad se separarán los átomos y moléculas. Por otra parte, cuanto más ligero sea el átomo o molécula, tanto más rápido será su movimiento y tanto más probable será que aquéllos se separen.
De todos los átomos, los de hidrógeno son los más ligeros. El átomo de helio es dos veces más masivo que la molécula de hidrógeno (y cuatro veces más que el átomo de este elemento), pero es más ligero que cualquier átomo o molécula, exceptuando, naturalmente, los del hidrógeno.
El campo gravitatorio terrestre no es suficientemente fuerte para retener ni el hidrógeno ni el helio. En el primer caso existen ciertos factores mitigantes. Dos átomos de hidrógeno pueden combinarse con un átomo de oxígeno para formar una molécula de agua (ocho veces más masiva que la molécula de hidrógeno); asimismo, el hidrógeno puede unirse con otros átomos para constituir moléculas de cuerpos sólidos. Como consecuencia de ello, la Tierra consiguió retener en el curso de su formación cierta cantidad de hidrógeno en combinación con otros elementos, pero su campo gravitatorio no fue nunca suficientemente intenso para retener el hidrógeno en su forma gaseosa. De este modo, la mayor parte del hidrógeno que tuvo que rondar por las inmediaciones de la Tierra mientras ésta se formaba no pudo ser capturado; y ésta es también una de las razones por las que la Tierra posee un tamaño tan pequeño. En cuanto al helio diremos que es un elemento que no forma ningún compuesto, debido a lo cual no fue posible capturar ni siquiera residuos apreciables de él. Hoy día la Tierra posee sólo trazas minúsculas de helio.
Y sin embargo, quedaban todavía otros elementos (sobre todo el oxígeno, silicio y hierro) que pasaron a formar parte de cuerpos del tamaño de la Tierra, Marte, Venus, Mercurio y la Luna.
Un planeta como Júpiter, que se halla del Sol a una distancia mucho mayor que nosotros, seguramente ha estado siempre a una temperatura mucho menor que la de la Tierra. Pero cuanto más baja es la temperatura, tanto más despacio se mueven los átomos y más fácil resulta retenerlos. De ahí que el cúmulo de materia que más tarde dio lugar al planeta Júpiter tuviera mayor capacidad de retención de hidrógeno que la materia que dio origen a la Tierra. A medida que se fue capturando hidrógeno, la masa de Júpiter fue aumentando y con ella también la intensidad de su campo gravitatorio. Esto facilitó aún más la captura de hidrógeno, lo cual, a su vez, desembocó en un nuevo fortalecimiento del campo gravitatorio. Fue precisamente este «efecto de bola de nieve» lo que permitió a Júpiter adquirir un tamaño tan grande y —como muestran las pruebas espectroscópicas y de otros tipos— llegar a ser tan rico en hidrógeno (hecho que comparten también los demás mundos fríos del espacio exterior).
Sin embargo, ni siquiera Júpiter está compuesto en su totalidad de hidrógeno. Su atmósfera contiene una mezcla adicional y considerable de helio y también hay indicios de la presencia de compuestos de carbono y nitrógeno.
Así pues, a lo largo y a lo ancho de la nebulosa que dio origen a los planetas tenían que existir cantidades sorprendentes de helio y de elementos más complejos. La posible alternativa es la siguiente:
1. La presencia de elementos pesados sólo es posible en el interior del Sol, por lo cual los planetas tuvieron que formarse a partir de la materia contenida allí. Esto iría en contra de cualquier teoría nebular del origen del sistema solar y obligaría a los astrónomos a adoptar una u otra versión de la teoría planetesimal.
2. La presencia de elementos pesados dentro de la nebulosa extensa es posible; dichos elementos debieron formarse en el interior solar por algún método distinto de las reacciones nucleares.
La mayoría de los astrónomos se muestran reacios a aceptar la primera variante, siempre que se pueda elaborar la segunda con un grado de perfección razonable. Con el fin de ver de dónde pueden provenir los elementos pesados cuando se prescinde del Sol, centremos nuestra atención más allá del sistema solar y examinemos de nuevo las estrellas.

§. Clases espectrales
La primera diferencia que se observó entre las estrellas estaba relacionada con su posición y su brillo. En algunos casos existían también diferencias de color. Antares era roja, Capella amarilla, Sirio blanca y Vega blanca azulada. Estos matices de color no eran observables a simple vista salvo en el caso de un puñado de estrellas notables por su brillo.
La primera mitad del siglo XIX vino a añadir otra importante diferencia: la distancia. Algunas estrellas eran relativamente próximas (sólo 150 billones de kilómetros, aproximadamente), mientras que otras se hallaban a una distancia muy superior. Era posible, pues, calcular el brillo real o luminosidad de aquellas estrellas cuya distancia se conocía; los resultados de estos cálculos arrojaron diferencias notables de luminosidad.
Una vez que la espectroscopia entró en uso hacia la segunda mitad del siglo XIX, era natural preguntarse si las distintas estrellas producirían o no diferentes tipos de espectros. El astrónomo italiano Pietro Ángelo Secchi (1818-1878) estudió los espectros de que disponía y sugirió en 1867 que cabía clasificarlos en cuatro clases distintas. El espectro solar caía dentro de la segunda clase, que venía caracterizada por la presencia de numerosas líneas de absorción de metales como el hierro.
En años posteriores los astrónomos confirmaron la existencia de estas «clases espectrales» y las perfeccionaron, introduciendo divisiones más sutiles. En 1900 el astrónomo americano Edward Charles Pickering (1846- 1919) caracterizó las distintas clases por medio de letras del alfabeto. El Sol figuraba en la clase espectral G, por ejemplo. Más tarde se ordenaron los espectros pertenecientes a una misma clase con los números 0 hasta 9, de modo que el espectro solar fue clasificado como el G2.
Las clases espectrales no diferían entre sí de un modo tajante, sino que se solapaban mutuamente formando una especie de continuo. Parecía probable, pues, que cualquiera que fuese la diferencia de propiedades que daba lugar a las distintas clases espectrales, dicha diferencia debía ser continua; es decir, la propiedad en cuestión debía variar, no a saltos, sino de un modo suave.
La cuestión es entonces: ¿A qué cambios de propiedad debe atribuirse la diferencia de espectros?
Kirchhoff y Bunsen habían demostrado que cada elemento producía su propio espectro característico. Por consiguiente, si los espectros de dos estrellas diferían, ¿no indicaba esto que las dos estrellas se componían de un conjunto distinto de elementos? Mas esta idea no era nada atrayente, pues aunque cabía que una estrella poseyese elementos ajenos a otra, esto no concordaba con la concepción que empezaba a imponerse, según la cual todos los objetos del Universo se componían de los mismos elementos (bastante limitados en número, por otro lado).
¿Era posible, por el contrario, que los espectros sufrieran alteraciones sin que se operara al mismo tiempo un cambio esencial en el conjunto de elementos del cuerpo que suministraba el espectro?
Un modo de conseguir este efecto consistía en variar la temperatura. Al modificar la temperatura, los electrones que rodean al núcleo atómico se desplazan de un «estado de energía» a otro. A medida que aumenta la temperatura, los electrones saltarán de un estado de energía inferior a otro superior, absorbiendo durante este proceso una determinada longitud de onda de la luz. Más tarde puede ocurrir que el electrón salte de nuevo del estado de energía superior a otro inferior, emitiendo una longitud de onda correspondiente. Dado que los electrones pueden realizar estos saltos de un estado a otro de diversas maneras, un tipo particular de átomo emite o absorbe cierto número de longitudes de onda diferentes, dando lugar así a un espectro de líneas brillantes u oscuras, respectivamente; pero en ambos casos la estructura de las líneas es la misma.
Los átomos de cada elemento contienen un número característico de electrones, dispuestos también de una forma característica. Por tanto, los electrones de cada tipo de átomo poseen su propia estructura espectral distintiva, que no comparten con ningún otro átomo que posea un número distinto de electrones o una disposición diferente de los mismos. Por esta razón, a efectos de identificar un elemento se pueden utilizar indistintamente las líneas espectrales oscuras o las brillantes.
El átomo de hidrógeno posee un único electrón; su estructura espectral es relativamente simple, pues sólo consiste en aquellas combinaciones que puede producir un electrón. A medida que los átomos se hacen más complejos y abarcan un número cada vez mayor de electrones, el espectro también se complica progresivamente. En ocasiones la estructura espectral no resulta tan complicada como cabría esperar, pero ello se debe a que la mayor parte de las líneas caen ya fuera de la gama visible. El átomo de hierro, con sus veintiséis electrones, produce miles de líneas en la gama visible. Es precisamente este elemento el principal responsable de la complejidad del espectro solar dentro de la región visible.
Supongamos ahora que calentamos una sustancia, obligando así a los electrones de los átomos que la componen a ocupar estados de energía cada vez más altos; llegará un momento en que algunos de los electrones sean suficientemente energéticos para romper las ligaduras que les atan al núcleo central y abandonar el átomo. Conforme vaya aumentando la temperatura, los electrones irán abandonando, uno tras otro, el átomo.
Un átomo que contenga menos electrones que su dotación normal (o, para el caso, más que su dotación normal) se denomina «ion». En consecuencia, la pérdida de electrones recibe el nombre de «ionización».
Un átomo ionizado produce una estructura espectral diferente de la que suministra el átomo en estado normal. Después de la pérdida de uno o más electrones, los restantes ya no se desplazan entre los distintos niveles de energía de la misma forma que antes. Por otra parte, un átomo al que le falte un electrón no da el mismo espectro que ese mismo átomo con dos o tres electrones menos.
La fuerza que liga a los electrones varía con los distintos tipos de átomos. Una temperatura que basta para ionizar, por ejemplo, el átomo de sodio, es de todo punto insuficiente para ionizar el átomo de oxígeno. Por otra parte, la eliminación de un segundo electrón en el átomo requiere siempre una temperatura más alta que la necesaria para eliminar el primero, pero más baja que la que exige un tercer electrón, etc.
En resumen: puede ocurrir que las diferencias que se observan en los espectros no reflejen diferencias en los elementos, sino distintos estados de ionización de éstos, lo cual, a su vez, denotaría una diferencia de temperaturas.
Antes de que se descubriera esto, las líneas extrañas que se localizaban a veces en los espectros eran atribuidas a elementos desconocidos. Método que fue acertado en el caso del helio, pero no en los demás. Así fue como en cierta ocasión se informó de la presencia del elemento «coronio» en la atmósfera exterior del Sol, región que se denomina «corona» y que sólo es visible durante los eclipses totales. También se creyó haber localizado, en ciertas nebulosas, otro elemento: el «nebulio».
Sin embargo, en 1927 la astrónoma americana Ira Sprague Bowen (n. 1898) demostró que las líneas que se atribuían al nebulio estaban producidas en realidad por una mezcla de elementos conocidos desde hacía tiempo: oxígeno y nitrógeno. Lo que ocurría es que los átomos de ambos elementos habían perdido varios electrones bajo condiciones que requerían densidades muy bajas. Más tarde, en 1941, el astrónomo sueco Bengt Edlen (n. 1906) constató que el coronio no era sino una mezcla de átomos de hierro y níquel, cada uno de los cuales había perdido aproximadamente una docena de electrones.
Cuando al fin se logró interpretar los espectros a la luz de los procesos de ionización, fue posible determinar, a partir sólo de la estructura de las líneas espectrales, la temperatura superficial de las estrellas. La diferencia entre las clases espectrales se atribuyó a una diferencia de temperatura entre los distintos astros, y sólo en menor medida a la diversidad de los elementos contenidos en aquéllas. De hecho, la constitución de la inmensa mayoría de las estrellas exhibe una uniformidad notable: el Sol y la mayor parte de las estrellas están compuestos principalmente de hidrógeno y helio.
Clasificando las clases espectrales por orden decreciente de temperatura, las designaciones literales quedan así: O, B, A, F, G, K y M. Existen cuatro clases adicionales, que representan grupos bastante especiales, cuyas letras son R, N, S y W (las tres primeras incluyen estrellas frías y la última estrellas calientes).

§. Estrellas gigantes y estrellas enanas
Una vez que se dispone de dos tipos de información (luminosidad y temperatura superficial) acerca de una serie de diferentes estrellas, el siguiente paso lógico consiste en relacionar uno con otro. Por ejemplo, sobre la base de la experiencia obtenida en los laboratorios terrestres en punto a los objetos incandescentes cabría esperar que cuanto más fría es una estrella, menos radiación emite, apareciendo, por tanto, más tenue y de un color más rojo. Se comprueba, sin embargo, que esto no siempre es así.
Por ejemplo, si aceptamos la interpretación térmica de las clases espectrales, entonces las estrellas más frías de entre las ordinarias son las que pertenecen a la clase M. A partir de las líneas espectrales que exhiben estas estrellas y de la posición de su pico de radiación se estimó que una temperatura superficial típica de esta clase espectral era 2.500 °C, que contrasta con los 6.000 °C de nuestro Sol. En efecto, todas las estrellas de la clase M presentaban un color rojizo uniforme, pero no eran —en contra de lo que se esperaba— igual de tenues. Muchas de ellas eran estrellas débiles, a pesar de que algunas, como la de Barnard, se hallaban muy próximas a nosotros. Sin embargo, había otras, como Betelgeuse en Orión o Antares en Escorpión, que a pesar de su color rojo presentaban un aspecto muy brillante. Y esto no se debía en modo alguno a su proximidad: eran estrellas no sólo brillantes en apariencia, sino de hecho muy luminosas. Antares, por ejemplo, emite unas diez mil veces más radiación que el Sol.
Ya en 1905 había especulado E. Hertzsprung sobre esta cuestión, llegando a la conclusión de que el único modo de que una estrella fría pudiera ser brillante es que su tamaño fuese enorme. Su frialdad vendría a indicar que la superficie de la estrella emitía poca luz por kilómetro cuadrado en comparación con el Sol, aunque, por otra parte, una estrella como Betelgeuse poseería una cantidad mucho mayor de kilómetros cuadrados que el Sol, y esta mayor superficie compensaría con creces la relativa tenuidad de la estrella. Por esta razón, las estrellas como Betelgeuse y Antares fueron denominadas «gigantes rojas», mientras que las del tipo de la de Barnard recibieron el nombre de «enanas rojas». Un detalle de particular interés era que, al parecer, no existía término medio entre las gigantes y las enanas rojas. Esta ausencia de estrellas rojas de tamaño intermedio se denomina «zanja de Hertzsprung».
La hipótesis de Hertzsprung, basada en razonamientos teóricos, quedó confirmada más tarde por medio de observaciones empíricas. En el año 1881 el físico germano- americano Albert Abraham Michelson (1852-1931) inventó un dispositivo llamado «interferómetro» que, detectando ligeras variaciones en el modo en que interfieren unas ondas luminosas con otras, permitía hacer mediciones de una precisión asombrosa. Por ejemplo, el interferómetro revelaba ciertos detalles de las estrellas que para el telescopio pasaban inadvertidos.
Aun las estrellas más próximas son tan distantes que ni siquiera el telescopio más moderno y perfecto es capaz de aumentarlas más allá del tamaño de un simple punto de luz. Ahora bien, los rayos luminosos que, procedentes de una estrella, inciden en el telescopio no provienen todos del mismo punto de aquélla. Uno de los rayos quizá provenga del borde superior y otro del borde inferior del astro. Ambos llegan al telescopio formando entre sí un ángulo muy pequeño, demasiado pequeño para poderlo medir con los métodos ordinarios, pero a veces suficientemente grande para permitir que los rayos choquen, por así decirlo, unos con otros e interfieran entre sí. El instrumento de Michelson hacía posible determinar el grado de intensidad de esta interferencia y calcular el ángulo, siempre que éste no fuese demasiado diminuto. Conocido el ángulo y la distancia de la estrella es posible determinar al instante el diámetro real.
Los resultados provocaron asombro. En 1920 se midió el diámetro de Betelgeuse por el método descrito y se halló que era de unos 480.000.000 de kilómetros. Comparándolo con él, 1.390.000 kilómetros que tiene el Sol de diámetro, se puede ver que Betelgeuse es casi 350 veces más ancha que él. Por consiguiente, la superficie de Betelgeuse era unas 350 X 350 ó 120.000 veces mayor que la del Sol. No es extraño, pues, que esta estrella sea mucho más luminosa que el Sol, aun siendo más tenue por kilómetro cuadrado. En cuanto al volumen, es aproximadamente 40.000.000 de veces superior al del Sol. Si colocáramos a Betelgeuse en el lugar que ocupa éste, llenaría todo el espacio que se extiende hasta más allá de la órbita de Marte. Se trata, sin duda alguna, de una gigante roja.
Antares es algo más pequeña que Betelgeuse, lo cual, sin embargo, no debe inducirnos a pensar que ésta última ostenta el tamaño máximo en el Universo. Una de las estrellas de esta clase, Epsilon Aurigae, es tan fría que a pesar de su tamaño monstruoso resulta completamente invisible desde la Tierra. Su radiación se encuentra casi por entero en el infrarrojo y el único dato que delata su existencia es que posee una compañera brillante a la cual eclipsa periódicamente. A partir de la duración del eclipse y de la distancia del sistema fue posible calcular, en 1937, que la estrella oscura es una «gigante infrarroja» de 3.700.000.000 de kilómetros de diámetro. Insertada en el sistema solar en lugar del Sol, llenaría todo el espacio hasta la órbita de Urano.
Pero las gigantes infrarrojas tampoco son tan raras como se creyó al principio. El inconveniente estriba en que las estrellas muy frías (que radian, por tanto, principalmente en el infrarrojo) resultan muy difíciles de detectar. En primer lugar, la atmósfera terrestre no es demasiado transparente en la región infrarroja; y en segundo lugar, todo cuanto existe en la Tierra posee una temperatura suficiente para emitir por su cuenta una cantidad considerable de radiación infrarroja, con lo cual la que proviene del cielo suele diluirse y perderse en esa especie de resplandor. No obstante, en 1965 los astrónomos del observatorio de Mount Wilson comenzaron a utilizar técnicas especiales, entre las cuales figuraba un telescopio con un espejo de plástico de 62 pulgadas, instrumento que permitía escudriñar el firmamento en busca de puntos ricos en radiación infrarroja que indicasen la presencia de gigantes infrarrojas. En el lapso de un par de años los astrónomos detectaron miles de objetos de tales características, concentrados en su mayor parte en el plano de la Vía Láctea. Algunos de ellos son seguramente más voluminosos aún que Epsilon Aurigae. Brillan de un modo intenso en la región infrarroja, pero son en extremo tenues dentro de la gama visible, lo que hace que muy pocas de estas estrellas resulten observables, aun utilizando los telescopios de mayor tamaño. Dos de ellas tienen temperaturas, a juzgar por su color, de 1.200°K y 800°K respectivamente; la segunda alcanza justo la temperatura del rojo.

tabla07.jpg

* Los valores en cursiva están derivados de las medidas interferométricas de Pease y modificados de acuerdo con las medidas paralácticas más recientes y perfectas. Las demás cifras están deducidas de las curvas de luz de las binarias con eclipse.
** Diámetro variable.

Las estrellas de otros colores no llegan a exhibir una zanja de tamaño como la que presentan las estrellas frías y rojas. No obstante, existen «gigantes amarillas» grandes (no tan grandes ni tan frías como las rojas) y «enanas amarillas» pequeñas (tampoco tan pequeñas ni tan frías como las rojas). Capella podría describirse como una gigante amarilla y nuestro Sol como una enana amarilla.

§. El diagrama H-R
Durante los años en que Hertszsprung descubrió las gigantes rojas, H. N. Russell estaba efectuando un trabajo similar. En 1913 confeccionó un gráfico (independientemente de Hertzsprung, que algunos años atrás había hecho lo propio), en cuyo eje horizontal colocó las clases espectrales en orden descendente de temperaturas, comenzando con la clase O a la izquierda y terminando con la clase M a la derecha, y cuyo eje vertical representaba la luminosidad o magnitud absoluta (véase pág. 63). Cada estrella posee cierta magnitud absoluta y pertenece a una clase espectral determinada, con lo cual podía representarse mediante un punto en un lugar concreto del gráfico. Un gráfico de este tipo se denomina «diagrama de Hertzsprung-Russell» o, de un modo más corriente, «diagrama H-R».
Por regla general, cuanto más caliente es una estrella, mayor es su brillo, de forma que al llevar los puntos a! diagrama, las estrellas que pertenecían a las clases espectrales de la izquierda (mayor temperatura) eran asimismo las de mayor magnitud absoluta. Como resultado de ello, la mayor parte de las estrellas que Russell representó en el diagrama quedaban situadas en la diagonal que discurre desde el ángulo superior izquierdo al inferior derecho. Estas estrellas forman la «secuencia principal», y hoy día se calcula que más del 99% de las estrellas que nos es dado observar caen dentro de dicha secuencia.
Las excepciones más conspicuas a esta regla son, naturalmente, las gigantes rojas. Pertenecen a la clase espectral M y están situadas, por consiguiente, a la derecha del diagrama. Pero también poseen una gran luminosidad, con lo cual se aglomeran en la parte derecha superior del diagrama H-R, sin contacto alguno con la secuencia principal.

23.jpg
Figura 23. Diagrama H-R.

Cuando se confeccionó por primera vez el diagrama H-R, las nociones que existían sobre las reacciones nucleares en el interior de las estrellas eran todavía muy vagas, y los esquemas mentales que la mayor parte de los astrónomos tenían acerca de las estrellas no diferían gran rosa de las concepciones de Laplace o de Helmholtz. La idea que prevalecía es que las estrellas experimentaban una contracción sistemática y constante a lo largo de su ida. Desde este punto de vista, el diagrama H-R parecía ofrecer una imagen clara y espectacular de la «evolución estelar», esto es, de la manera en que las estrellas nacer, pasan a través de diversos estadios y finalmente dejar de radiar.
La sugerencia que hizo Russell en punto al significado del diagrama H-R puede resumirse como sigue:
Una estrella consiste en principio en un conglomerado inmensamente voluminoso de gas frío que se va contrayendo poco a poco. A medida que se contrae empieza acalentarse; en los primeros estadios la estrella radia principalmente en el infrarrojo, con lo cual es una gigante infrarroja como Epsilon Aurigae. La estrella sigue contrayéndose, y llega un momento en que es suficientemente caliente para emitir un rojo brillante, como Betelgeuse y Antares. Continúa luego encogiéndose y calentándose para convertirse en una gigante amarilla, más pequeña y caliente que la gigante roja, y después en una «estrella blanco-azulada», aún más pequeña y más caliente.
Las estrellas blanco-azuladas de la clase espectral O son sólo algo mayores que el Sol, pero mucho más calientes, con temperaturas superficiales de hasta 30.000°C, es decir, cinco veces la del Sol. A estas alturas, el pico de radiación se encuentra en la región azul-violeta del espectro visible, y por encima de esas temperaturas se halla ya en el ultravioleta. De ahí el color de la estrella.
En su viaje desde la nebulosa original fría hasta la etapa blanco-azulada, la estrella ha ido moviéndose hacia la izquierda y a lo largo de la parte superior del diagrama H-R. Al llegar a la fase blanco-azulada, la estrella alcanza el extremo superior izquierdo de la secuencia principal.
Llegados a este punto se suponía que la estrella continuaba contrayéndose bajo la influencia de la gravedad, aunque,- por alguna razón, no seguía calentándose. Una de las primeras explicaciones que se dieron era que cuando se alcanzaba la fase blanco-azulada el material del núcleo de la estrella se encontraba comprimido tan densamente que cesaba de comportarse como un gas. Conforme proseguía el proceso de contracción, mayor era la cantidad de materia comprimida por encima del estado gaseoso, y esto, por una razón u otra, podría disminuir progresivamente la producción de calor.
Así pues, la estrella blanco-azulada se encoge y enfría, y el efecto conjunto de ambos factores determina una disminución de brillo. La estrella se convierte en una enana amarilla como nuestro Sol, después en una enana roja como la estrella de Barnard, y finalmente se extingue por completo, convirtiéndose en una «enana negra», es decir, los rescoldos extintos de una estrella.
A lo largo del proceso de contracción desde la etapa blanco-azulada hasta la fase final de enana negra, la estrella va deslizándose por la secuencia principal, desde el extremo superior izquierdo al extremo inferior derecho. Este proceso cabría llamarlo «teoría del deslizamiento» de la evolución estelar.
El esquema que acabamos de exponer poseía un gran atractivo y, al parecer, ofrecía un sinnúmero de detalles muy satisfactorios. En primer lugar, la concepción de un encogimiento continuo, con un aumento inicial de temperatura seguido de un enfriamiento, parecía estar de muerdo con lo que cabía esperar que sucediera de un modo «natural». Pues a medida que se comprime un gas en el laboratorio, se calienta; y un objeto caliente, abandonado a sí mismo, se enfría.
Por otra parte, si una estrella es una gigante roja en cierta fase temprana de su carrera y una enana roja en cierto estadio posterior, es lógico esperar que la masa de las enanas rojas no difiera demasiado, por término medio, de la de las gigantes rojas. Dicho con otras palabras, una gigante roja es enorme, no porque contenga una cantidad grande de materia, sino únicamente porque la materia que contiene se encuentra dispersa a lo largo y a lo ancho de un espacio muy vasto. Efectivamente se ha comprobado que esto es cierto. Las gigantes rojas no son en absoluto tan masivas como parece indicar su descomunal tamaño, sino todo lo contrario: son muy poco densas. Si pudiéramos trasladar a un laboratorio terrestre cierta porción de materia de una estrella como Epsilon Aurigae sin modificar sus propiedades, dicha materia sería clasificada (para la mayor parte del volumen de aquélla) como un simple vacío.
Las masas estelares son, en efecto, sorprendentemente uniformes. Aunque las estrellas varían mucho en volumen, densidad, temperatura y otras propiedades, las diferencias de masa no son grandes. La mayor parte de las estrellas tienen masas comprendidas entre 1/5 y 5 veces la del Sol[xvi]

Capítulo 10
Evolución estelar

Contenido:
§. La relación masa-luminosidad
§. Gas interestelar
§. Más allá de la secuencia principal
§. La relación masa-luminosidad
La interesante concepción de la evolución estelar como un deslizamiento a lo largo de la secuencia principal fue, sin embargo, muy efímera. Al cabo de un decenio ya había perecido.
Según la teoría del deslizamiento, el Sol debería encontrarse en una fase tardía de su evolución, habiendo dejado ya muy atrás sus tiempos más gloriosos y calientes. De acuerdo siempre con dicha teoría, el Sol se habría enfriado ya desde una estrella blanco-azulada a una enana amarilla, y los tiempos de enanismo rojo y extinción final quizá no se hallarían muy lejanos (a escala cósmica). Mas cuando se comprendió que el hidrógeno era el combustible estelar más probable y que dicho elemento se encontraba presente en el Sol en cantidades abrumadoras, se vio claro que el Sol debía tener una larga vida por delante y que tenía que ser una estrella relativamente joven. Ningún esquema de evolución que convierta al Sol en una estrella vieja puede ser correcto.
Por otra parte, la cuestión de las masas estelares iba adquiriendo una importancia creciente. Cierto que las diferencias de masa entre las estrellas grandes y brillantes y las pequeñas y tenues no son enormes, pero no es menos cierto que las estrellas luminosas son algo más masivas que las débiles. Esta diferencia, que aunque moderada se constata con perfecta asiduidad entre las estrellas, requiere una explicación.
La teoría del deslizamiento podía proporcionarla. Cabía argumentar que las estrellas grandes poseían una reserva mayor de combustible y que por tanto eran capaces de vivir más tiempo. Las estrellas pequeñas agotarían enseguida su combustible, alcanzando el estadio de enanas rojas cuando las estrellas grandes quizá se hallaran todavía en la fase blanco-azulada.
Sin embargo, esta explicación se vino abajo como consecuencia de las investigaciones de Eddington sobre la estructura interior de las estrellas.
Eddington arguyó, en 1924, que la temperatura del interior tenía que compensar el efecto de compresión de las fuerzas gravitatorias. Cuanto mayor fuese la masa de la estrella, mayor sería también la compresión gravitatoria, mayor, por tanto, la temperatura necesaria para contrarrestar a ésta y mayor también la luminosidad. Esta «relación masa-luminosidad» [xvii] impone un límite superior y un límite inferior a las masas estelares. Una masa demasiado pequeña trae consigo el que la estrella no sea capaz de radiar luz visible; una masa excesiva implica una presión de radiación (ejercida de dentro afuera) suficiente para aniquilar la estrella. La masa máxima que puede poseer una estrella para permanecer intacta equivale a unas 65 veces la del Sol. Las estrellas más masivas que se conocen sólo alcanzan la mitad de este tamaño.
De ahí que no quepa trazar un esquema en el cual todas las estrellas comienzan en el extremo superior derecho del diagrama H-R para luego viajar hacia la izquierda (a la par que se comprimen y calientan) hasta llegar a la parte superior izquierda de la secuencia principal, donde se halla la clase O. Esto sólo podría ser cierto en el caso de estrellas muy masivas. Las de menor masa no necesitarían alcanzar las temperaturas de la clase O para mantener intacta su estructura contra la compresión gravitatoria, sino que adquirirían una temperatura más baja y establecerían contacto con la secuencia principal a un nivel inferior a la clase O. Una estrella que no posea una masa superior a la del Sol alcanzaría la secuencia principal en su posición actual.
Las enanas rojas serían, de entrada, menos masivas aún y alcanzarían por tanto la secuencia principal en un punto más bajo que el Sol. Los cuerpos especialmente pequeños, de masa inferior a 1/100 la del Sol, pueden llegar a ser incapaces de adquirir la temperatura central necesaria para iniciar la fusión del hidrógeno. Tales cuerpos se condensarían en una estructura sólida y fría y se convertirían en una enana negra, pero no como rescoldos extintos de una estrella antaño incandescente, sino como un cuerpo que jamás fue una estrella. Si diera la casualidad de que una enana negra de este tipo se formara en las inmediaciones de una estrella luminosa, aquélla sería un planeta. Resulta imposible predecir el número de enanas negras (situadas a una distancia suficiente de cualquier estrella luminosa para que no sean observables) que pueden existir en el Universo, pero Shapley sospecha que pueden ser muchas; cierto astrónomo ha llegado incluso a sugerir que las enanas negras son las compañeras más comunes de las estrellas y que los sistemas planetarios ordinarios, como el nuestro, son muy raros.
Es probable que la frontera exacta entre una estrella resplandeciente y una enana negra fría no sea una frontera tajante. No se excluye el que algunas de las enanas negras más grandes puedan mantener en su núcleo central un proceso de fusión nuclear suficientemente intenso para que la superficie permanezca a una temperatura moderada.

24.jpg
Figura 24. El camino hacia la secuencia principal

Incluso es posible que Júpiter, cuya masa equivale a sólo 1/1.000 la del Sol, no se halle muerto por completo en su parte central. Ciertas medidas de la radiación infrarroja de Júpiter, efectuadas en Catalina Station, cerca de Tucson, en 1965, revelaron que este planeta radiaba probablemente 2,5 veces más calor que el que recibís del Sol. De acuerdo con los cálculos realizados en dicho observatorio (basados en la hipótesis de que el Sol es la única fuente de calor de Júpiter), la superficie de éste se encuentra a —170° C. Pero la temperatura superficial es en realidad de —145° C., es decir, veinticinco grados más alta. Es posible que este exceso de calor se derive del calor de compresión en el centro del planeta, con lo cual cabe considerar en cierto modo a Júpiter como una estrella diminuta y extremadamente fría.
Pero volvamos ahora a aquellas estrellas ordinarias que son suficientemente calientes para resplandecer de un modo brillante.
Durante la etapa inicial de la evolución estelar —esa etapa en la que el conglomerado disperso de polvo y gas se comprime y se dirige hacia un punto determinado de secuencia principal— la energía se produce principalmente a partir del campo gravitatorio; es el proceso que Helmholtz pensó se llevaba a cabo a lo largo de toda la vida de una estrella. Sin embargo, la fuente gravitatoria no es una fuente demasiado grande en el caso concreto de una estrella, y esta etapa toca a su fin relativamente pronto, quizá al cabo de medio millón de años solamente. En un instante (hablando a escala cósmica) la estrella ha alcanzado la secuencia principal; para entonces la temperatura central llega al punto de ignición de la fusión nuclear y este proceso será a partir de ese momento la principal fuente de energía.
Esta fuente sí proporciona un suministro amplio y constante. En la mayor parte de las estrellas la fusión del hidrógeno se basta por sí sola para suministrar energía a un ritmo prácticamente constante durante mucho tiempo. Mientras las cosas marchan de este modo, la estrella apenas se mueve sobre la secuencia principal. Cualquier desplazamiento de importancia, ya sea hacia arriba o hacia abajo, representaría una perturbación del delicado equilibrio que existe entre la gravitación y la temperatura.
Por ejemplo, si por una razón u otra el Sol se calentara hasta el punto de que la temperatura superficial alcanzase los 30.000°C, desplazándose de súbito hacia el extremo superior izquierdo de la secuencia principal, la presión hacia afuera superaría de una forma tan absoluta a la compresión gravitatoria (dirigida hacia adentro) que el astro explotaría. Sólo las estrellas de masa relativamente enorme podrían poseer el campo gravitatorio preciso para mantener intacta su estructura contra la fuerza explosiva de la presión «centrífuga» provocada por una temperatura tan alta. El Sol no es suficientemente masivo a estos efectos y es muy probable que nunca lo haya sido y que jamás lo será. Quiere decirse que la idea de que en otros tiempos fue una estrella de clase O y que fue deslizándose a lo largo de la secuencia principal, pasando por B, A y F, hasta llegar a su posición actual como estrella de clase G, es insostenible. Dada su masa, la posición en que se encuentra el Sol en la actualidad dentro de la secuencia principal es la única que puede ocupar de un modo confortable.
Las estrellas permanecen sobre la secuencia principal (más o menos inmóviles y siempre en la posición que les dicte su masa) durante un porcentaje tan elevado del lapso de vida total que el 99% de las estrellas observables se hallan sobre dicha secuencia. Dicho con otras A partir de la relación masa-luminosidad es posible demostrar que a medida que crece la masa, el ritmo de consumo de combustible aumenta de un modo mucho más rápido que la provisión de combustible. Por consiguiente, cuanto más grande y caliente es una estrella, menos durará su combustible y más breve será su estancia en la secuencia principal.
El Sol, por ejemplo, que pertenece a la clase espectral G, permanecerá en la secuencia principal durante un total de 13 evos, de los cuales 5 ya han pasado y 8 quedan por venir, lo que demuestra que el Sol se encuentra todavía bastante lejos del ecuador de su vida. Una estrella de la clase F, algo más grande y caliente que el Sol, quizá tenga una cantidad mayor de hidrógeno en sus comienzos, pero su ritmo de consumo es también más elevado, lo suficiente como para no permitir que la estrella permanezca más de 4 ó 10 evos en la secuencia principal. En términos generales podemos decir que el tamaño y la temperatura de una estrella son inversamente proporcionales a su estancia en la secuencia principal. Si el Sol fuese una estrella de clase A y hubiese permanecido en ¡a secuencia principal el tiempo que de hecho ha estado ya, a estas alturas se hallaría en trance de abandonar dicha secuencia.
Las estrellas más calientes queman su descomunal (en términos relativos) provisión de combustible a una velocidad tan rápida que su estancia en la secuencia principal no se mide en evos, sino simplemente en decenas o centenas de millones de años. La estrella más luminosa, S Doradus, sólo puede mantenerse en la secuencia principal durante dos o tres millones de años.
Si convenimos en que el período que precede al ingreso en la secuencia principal es suficientemente breve para poder ser ignorado, podemos resumir la idea de Eddington estableciendo la regla general siguiente: cuanto más brillante es una estrella, más efímera tiene que ser (precisamente la conclusión contraria a la que se llegaría utilizando la teoría del deslizamiento). Las enanas rojas, lejos de hallarse próximas a su extinción, quizá continúen brillando como ahora —gracias a la parsimonia con que gastan su exigua provisión de hidrógeno— durante muchos evos después de que el Sol haya tocado a su fin. Por otra parte, las estrellas que poseen un tamaño descomunal y enorme brillo no se encuentran ni mucho menos en la juventud de su vida, pues derrochan el combustible tan pródigamente que se extinguirán cuando nuestro Sol esté desarrollando aún la misma actividad que se le conoce hoy día.
La relación masa-luminosidad de Eddington tuvo una secuela bastante sorprendente que influyó también en las ideas relativas a la evolución estelar. Como ya vimos en su momento, Eddington había llegado a esta relación basándose en el supuesto de que las estrellas poseían las propiedades de los gases a lo largo y a lo ancho de toda su estructura. En un principio admitió la opinión general que prevaleció durante los primeros años de la década de 1920-29, en el sentido de que sólo las gigantes rojas eran gaseosas en su totalidad, mientras que las estrellas de la secuencia principal, y en particular las enanas, poseían un núcleo no gaseoso. Eddington esperaba, por tanto, que sus conclusiones no fuesen válidas para las estrellas de la secuencia principal.
Mas cuál no sería su sorpresa al comprobar que en todos aquellos casos en que fue posible verificar sus conclusiones por medio de la observación, éstas resultaron ser válidas para todas las estrellas, tanto enanas como gigantes. De aquí hubo que deducir que todas las estrellas, incluidas las enanas, eran gaseosas en su totalidad, conclusión que se acepta todavía hoy con carácter general.
Este resultado vino a infligir un nuevo golpe a la primitiva teoría del deslizamiento, pues hacía muy difícil explicar por qué una estrella iba a deslizarse a lo largo de la secuencia principal, contrayéndose y, sin embargo, enfriándose. Las leyes de los gases exigían que la contracción fuese acompañada de un calentamiento, no de un enfriamiento.
Así pues, hacia mediados de la década de los veinte la teoría del deslizamiento, referente a la evolución estelar, había muerto, quedando establecida lo que cabría llamar la teoría moderna.
palabras, hay una probabilidad contra noventa y nueve de que al observar una estrella concreta la sorprendamos durante el intervalo relativamente corto que precede a su ingreso en la secuencia principal o durante ese otro que comienza cuando la estrella abandona la secuencia.
Esto no quita para que algunas estrellas permanezcan en la secuencia principal durante un tiempo más largo que otras. Las estrellas grandes poseen una reserva de combustible mayor que las pequeñas, pero en compensación tienen que mantenerse a una temperatura más alta y consumir por tanto su combustible a un ritmo tanto más rápido.

§. Gas interestelar
La vida de las estrellas más brillantes es tan breve que es imposible que existieran ya, en su forma actual, en aquellos tiempos en que los dinosaurios pululaban por la Tierra. A escala cósmica son efímeras. No es de extrañar, pues, que en un momento dado existan tan pocas y que el número de ellas que se puede observar hoy día en los cielos sea tan exiguo. Se estima que de cada 20 millones de estrellas sólo una es tan luminosa como Rigel, y aun así deben de existir unos 6.000 astros de estas características en la Galaxia; teniendo en cuenta la brevedad de su vida, llegamos a la conclusión de que todas ellas se han tenido que formar durante los últimos millones de años. Es probable que, por término medio, cada 500 años nazca una de estas estrellas.
Mas en ese caso es casi seguro que durante los tiempos históricos se hayan estado formando estrellas e incluso, quizá, que se estén formando en la actualidad. ¿No es posible entonces que si miramos con cuidado podamos ver efectivamente estrellas en proceso de formación?
La respuesta es difícil; el proceso es tan lento comparado con la longitud de la vida humana (aunque rápido en relación con la vida de las estrellas) que los resultados obtenidos tras un período breve de observaciones minuciosas no son, ni mucho menos, concluyentes. Por otra parte, las estrellas que se hallan en vías de formación no son fácilmente visibles. En algunas nebulosas aparecen ciertos objetos que podrían interpretarse como estrellas en proceso de formación. En la nebulosa Rosette existen numerosos glóbulos oscuros que posiblemente sean materia en proceso de condensación, camino hacia la secuencia principal. Otros lugares en los cuales se sospecha que se están formando estrellas hoy día son la nebulosa de Orión y la nebulosa NGC 6611 en la constelación Serpens.
Por otro lado, existe toda una serie de objetos que acaso sean estrellas que no han empezado a brillar sino muy recientemente (a escala astronómica). Se denominan «variables T Tauri» debido a que la primera que se detectó fue T Tauri, descubierta por el astrónomo americano Alfred Harrison Joy (n. 1882) durante la década de 1940-49. Incluso se cree saber de un caso en que una masa de gas se condensó, alcanzó el punto de ignición y comenzó a brillar en calidad de estrella, todo ello delante de los mismísimos ojos de los astrónomos. En 1936, la estrella FU Orionis apareció en un lugar donde hasta entonces no había existido ningún astro y continuó brillando de una forma constante a partir de ese momento.
(Si se hubiera tratado de una nova, se habría desvanecido hace mucho tiempo.)
Pero ¿a partir de qué se puede formar una nueva estrella?
Los astrónomos coinciden por lo general en señalar que las estrellas son originariamente una vasta nube de gas y polvo; evos atrás, cuando la Galaxia se hallaba en vías de formación, debió de abundar esta materia prima de las estrellas. La Galaxia misma tuvo que ser una masa descomunal de materia turbulenta de la cual se desgajaron algunos remolinos que más tarde se condensaron en estrellas. Ahora bien, en la época actual, cuando a partir del torbellino primario se han condensado ya más de cien mil millones de estrellas, ¿qué cantidad de materia prima puede quedar?
Ya señalamos con anterioridad la existencia del polvo interestelar, que en ciertos lugares se acumula en cantidades suficientes para bloquear la luz de las estrellas (nebulosas oscuras), o que, por el contrario, reflejan dicha luz (nebulosas luminosas). También existe polvo interestelar disperso de una forma más general a través del espacio, difundiendo y atenuando la luz de los astros (véase pág. 108). El efecto es importante, pero la cantidad de polvo que implica este fenómeno no basta para desempeñar un papel decisivo en esta cuestión; por otra parte, esta clase de polvo, por sí sola, no se halla presente en un volumen suficiente para suministrar una reserva generosa con vistas a la formación de estrellas.
Algo más importante es la existencia del gas interestelar. Los átomos y moléculas de los gases no absorben ni dispersan la luz de un modo eficiente y por ello no se ponen de manifiesto de una forma tan clara como el polvo, a pesar de que éste quizá se halla presente en cantidades mucho más exiguas.
Sin embargo, los átomos de un gas absorben longitudes de onda específicas, del mismo modo que lo hacen los átomos de la atmósfera solar. La concentración de gas en el espacio interestelar debe de ser tan baja que para las distancias ordinarias la absorción de luz es despreciable y apenas mensurable. No así para distancias de cientos y miles de años-luz, a lo largo de las cuales la absorción se iría acumulando hasta alcanzar niveles detectables. Cabría pensar, por tanto, que algunas de las líneas de los espectros estelares fuesen producto, no de los gases que rodean a las estrellas, sino de ese gas en extremo rarificado que se halla distribuido a lo largo del camino entre las estrellas y nosotros.
El primer indicio de que esto podía ser cierto provino de los estudios espectroscópicos de las estrellas binarias. Algunas binarias giran alrededor de su centro de grave- dada en un plano situado de canto o casi de canto en relación con la Tierra. En aquellos casos en que ambas estrellas son luminosas, el eclipse de una de ellas, provocado por la otra, no es capaz de modificar de un modo apreciable la cantidad de luz que recibe el observador terrestre; cuando los dos cuerpos se hallan demasiado próximos entre sí para ser percibidos como dos objetos diferentes a través del telescopio, tales binarias resultan muy difíciles de detectar.
Ahora bien, cuando los dos cuerpos giran en un plano situado de canto con respecto a nosotros, sucederá que uno de ellos se aleja de la Tierra mientras el otro avanza hacia ella. Al cabo de cierto tiempo uno se esconderá detrás del otro y ambos se moverán en una dirección transversal respecto a la línea visual; uno hacia la derecha y el otro hacia la izquierda. En un momento posterior, el cuerpo que antes se alejaba avanzará hacia nosotros y el que se aproximaba se alejará. Luego volverán a cruzarse en dirección transversal, comenzando de nuevo el proceso.
Cuando las dos componentes de la binaria se estén moviendo de tal modo que una se aproxima y la otra se aleja, las líneas espectrales de la primera se desviarán hacia el violeta y las de la segunda hacia el rojo. Cuando ambas componentes viajen en dirección transversal, ninguna de las dos estrellas dará lugar a corrimiento alguno en el espectro. Así pues, si los espectros de las dos estrellas son de la misma clase, las líneas espectrales de ambas coincidirán durante la fase del movimiento transversal. Por el contrario, durante la fase de aproximación- retroceso las líneas se desdoblarán en dos, toda vez que uno de los espectros se desplaza en una dirección y el otro en la dirección opuesta. En el curso de una rotación completa, las líneas espectrales se desdoblarán dos veces por período.

25.jpg
Figura 25. Binarias espectroscópicas.

Efectivamente, a partir del comportamiento de las líneas espectrales se puede saber si una estrella es binaria, aun cuando el hecho no venga apoyado por ningún tipo de prueba óptica. En 1889, la astrónomo americana Antonia C. Maury (1866-1952) registró una duplicación periódica de las líneas en el caso de Mizar, estrella que forma parte del mango de la Osa Mayor. Esta fue la primera estrella identificada como una «binaria espectroscópica». Desde entonces se han descubierto varios miliares de casos análogos, y es posible que una estrella de cada mil sea uno de estos pares que giran en íntima conexión, tan íntima que sus atmósferas llegan a superponerse.
En 1904 el astrónomo alemán Johannes Franz Hartmann (1865-1936), que se hallaba estudiando por entonces una de estas binarias espectroscópicas, la Delta Orionis, observó que durante la duplicación periódica de las líneas había una que no se desdoblaba. Tenía que haber algo que absorbiera una longitud de onda específica de la luz y que no participara en el movimiento de ninguna de las componentes del sistema doble de estrellas. Podría tratarse de una tercera componente del sistema, con una masa tan enorme que el centro de gravedad del sistema total se hallara situado muy cerca del centro del nuevo elemento, con lo cual éste apenas se movería. Ahora bien, si esta nueva componente tan masiva fuese luminosa tendría que dejarse ver; y si no fuese luminosa, su presencia se vería delatada por eclipses, como en el caso de Algol.
A Hartmann se le antojaba mucho más probable que la línea de absorción inmóvil estuviese originada por el efecto acumulativo del gas, en extremo rarificado, distribuido en el espacio entre Delta Orionis y la Tierra. La conclusión de Hartmann no fue admitida de entrada, pero no tardaron en llegar pruebas adicionales aportadas por otros astrónomos, en particular el ruso-americano Otto Struve (1897-1963) en 1928. El gas interestelar se acepta hoy día como un rasgo más de la Galaxia, y su masa total equivale quizás a unas 50 ó 100 veces la del polvo galáctico.
La línea espectral inmóvil observada por Hartmann estaba originada por átomos de calcio, con lo cual parecía obvio que el gas interestelar contenía dicho elemento. También se detectaron otros átomos, pero la composición del gas no se podía determinar simplemente a partir de las líneas espectrales. Un gas que absorbiera de una forma muy intensa ciertas longitudes de onda de la región visible —como ocurre con el calcio— podría imprimir su huella en el espectro aun cuando su participación en el total fuese sólo minoritaria. Hacia los años 1950-59 parecía ya evidente que la componente esencial del gas interestelar era un elemento mucho menos conspicuo (desde el punto de vista espectroscopia): el hidrógeno.
Hoy día se estima que el 90% de todos los átomos del Universo son hidrógeno, el átomo más simple, y que el 9% son helio, el átomo que sigue al de hidrógeno en sencillez. El 1% restante está compuesto por todos los demás tipos de átomos. En resumen, se piensa que la constitución elemental del Sol es bastante representativa de la composición elemental del Universo en su totalidad.
Ahora bien, si el gas interestelar es en su mayor parte hidrógeno y helio, cabe preguntarse en qué consiste el polvo interestelar. El helio no muestra prácticamente tendencia alguna a formar compuestos, y el hidrógeno forma moléculas de dos átomos cuya tendencia a combinarse tampoco es grande. Así pues, el polvo se tiene que formar con la ayuda de alguno de los constituyentes menores de la materia interestelar, pero tampoco un constituyente demasiado minoritario, toda vez que el contenido en polvo de la Galaxia es bastante respetable.
Una de las hipótesis se centra en el oxígeno, el elemento menor más común. Los átomos de oxígeno se combinan fácilmente con los átomos de hidrógeno (en la relación uno a uno) para formar un «grupo oxhidrilo»; en 1963 se detectó efectivamente este tipo de grupo en la materia interestelar. Un átomo de oxígeno se puede combinar asimismo con dos átomos de hidrógeno para formar una molécula de agua, y las moléculas de agua tienen una tendencia muy fuerte a unirse entre sí. En consecuencia, el polvo interestelar podría estar compuesto en gran parte de cristales de hielo.
Aunque distribuidos de una forma muy dispersa, el polvo y el gas interestelares ocupan un volumen inmenso y equivalen, en total, a una masa muy grande. Algunas estimaciones han equiparado la materia interestelar de la Galaxia a la suma de las masas de todas las estrellas, pero dichas estimaciones pecan seguramente de excesivas. Los cálculos más recientes sitúan la masa del gas interestelar en sólo un 2% de la masa de las estrellas. Ahora bien, el gas sería mucho más abundante en los brazos espirales que en el núcleo galáctico. En los brazos espirales la masa del material interestelar podría totalizar de un 10% a un 15% de la masa de las estrellas.
Aun adoptando la estimación más baja, la materia contenida en una galaxia como la nuestra sería suficiente para constituir dos o tres mil millones de estrellas, con lo cual no es de extrañar que hoy día sigan formándose astros a partir de esta masa interestelar compuesta de hidrógeno en su mayor parte, ni que hace 1-10 millones de años se formaran algunas estrellas que hoy lucen con un brillo soberbio.
Es posible que algunas otras galaxias constituyan fuentes de materia estelar aún más ricas que nuestra Galaxia. La Nube Grande de Magallanes, por ejemplo, quizá tenga una concentración de gas interestelar equivalente a tres veces la de la Galaxia.
Ahora ya podemos ofrecer una explicación de ese déficit inesperado de hidrógeno en el Sol y de la reserva aparentemente excesiva de helio, así como del hecho de que un planeta tal como la Tierra esté compuesto casi en su totalidad por elementos más complejos que el helio. Al parecer, el material gaseoso a partir del cual se formó el sistema solar contenía ya una provisión considerable de helio, así como pequeñas cantidades de átomos más complejos.
La cuestión es entonces la siguiente: ¿De dónde provenían el helio v los átomos más complejos contenidos en el gas interestelar?
Podría pensarse que el gas que dio origen a la Galaxia contenía ya desde el principio cierta cantidad de helio y de átomos más complicados. Sin embargo, resulta mucho más tentador suponer que en origen sólo existía el hidrógeno, el átomo más simple, y que a partir de él se formaron todos los demás. Ahora bien, los únicos procesos merced a los cuales el hidrógeno es capaz de fusionarse para dar otros tipos de átomos requieren (según los conocimientos actuales) las condiciones que reinan en el núcleo de las estrellas. Pero en este caso, ¿cómo regresaron el helio y los demás átomos al gas?
Retengamos esta pregunta en la mente mientras seguimos considerando el posible curso de la evolución estelar.

§. Más allá de la secuencia principal
¿Qué sucede con una estrella después de consumir tal cantidad de combustible que ya no sea capaz de mantener el equilibrio entre gravedad y temperatura y no pueda seguir, por tanto, en la secuencia principal?
La respuesta se deriva en parte de la teoría y en parte de la observación. En efecto: los físicos nucleares proporcionan teorías muy complejas acerca de los procesos que se pueden llevar a cabo en el interior de las estrellas bajo condiciones dadas de temperatura, presión y composición química, y estas teorías se comprueban luego comparándolas con lo que observamos en los cielos.
Por ejemplo, los astrónomos pueden observar aquellos cúmulos estelares que, como las Pléyades, se encuentran lo bastante próximos a nosotros como para permitir un estudio espectroscópico de cada uno de sus miembros por separado. Puesto que todas las estrellas pertenecientes a un cúmulo de este tipo se hallan aproximadamente a la misma distancia de nuestro planeta, su orden de brillo aparente coincide con su orden de luminosidad. Esta magnitud proporciona el eje vertical del diagrama H-R. Y estudiando los espectros individuales tendremos también el eje horizontal. En resumen: podemos construir un pequeño diagrama H-R que se limite exclusivamente a las estrellas del cúmulo.
Además podemos suponer que todas las estrellas de un cúmulo concreto poseen la misma edad cronológica. En efecto, parece razonable admitir que en cierto momento del pasado lejano el espacio en que hoy se halla el cúmulo estuviese ocupado por un volumen enorme de gas que más tarde se condensó en las diversas estrellas que componen el cúmulo; pero todo ello en un período tan breve (a escala cósmica) que sería lícito afirmar que todas las estrellas del cúmulo nacieron simultáneamente. Si esto no fuese así y las estrellas del cúmulo tuvieran orígenes independientes, entonces resulta difícil dar una explicación satisfactoria de por qué en la actualidad presentan una asociación tan íntima.
Si la edad cronológica fuese el único criterio de la evolución estelar, todas las estrellas de un cúmulo, al tener la misma edad, deberían encontrarse en el mismo estadio de evolución: todas se hallarían en el mismo punto de la secuencia principal, o en un punto anterior o posterior a ella, pero todas juntas.
Mas la edad cronológica no es el único criterio: la masa es otro. La masa de las estrellas pertenecientes a un cúmulo varía entre ciertos límites, y cuanto mayor es la masa, más rápido es el desarrollo de la estrella en cuestión. Una estrella muy masiva nacida en un momento dado habría alcanzado hoy día una fase más tardía de su evolución que otra, de masa menor, nacida aproximadamente hacia el mismo período. Así pues, en un cúmulo de estrellas, las menos masivas se encontrarían en la fase más temprana del ciclo evolutivo, mientras que las otras se hallarían en estadios cada vez más avanzados a medida que fuésemos considerando estrellas de mayor masa. Situando cada una de las estrellas en su punto correspondiente del diagrama H-R, obtendríamos el desarrollo evolutivo completo hasta la fase correspondiente a la estrella más avanzada del cúmulo.
Trumpler (el astrónomo que demostró la existencia del polvo interestelar) llevó a cabo en 1925 este tipo de estudios sistemáticos de los cúmulos, y desde entonces se han efectuado observaciones similares con gran detalle. Combinando estas observaciones con la teoría, los astrónomos creen estar en condiciones de descubrir las aventuras evolutivas de una estrella en general.
1. Una masa de gas y polvo se contrae y se calienta hasta que alcanza la secuencia principal. Cuando la masa de gas es grande —y terminará en el extremo caliente superior de la secuencia principal— este proceso durará unos 100.000 años, pues el campo gravitatorio relativamente grande de esta masa provocará una contracción bastante rápida. Una estrella de masa como la del Sol tardará en contraerse hasta la secuencia principal unos 2 millones de años.
2. La estrella permanece luego en la secuencia principal entre millones de años y decenas de evos, según su masa. Mientras la estrella permanece en la secuencia principal, en el núcleo estelar de altas temperaturas se desarrollan reacciones nucleares; el núcleo pierde gradualmente hidrógeno y va acumulando helio. Ciertos cálculos efectuados en 1966 indican que el núcleo del Sol contiene seis átomos de helio por cada uno de hidrógeno, mientras que en las afueras de este astro la relación es casi la inversa: siete átomos de hidrógeno por cada uno de helio.
3. Cuando el núcleo de la estrella alcanza cierto contenido crítico de hidrógeno (en defecto) y de helio (en exceso), aquélla comienza a dilatarse y, por consiguiente, a enfriarse. Abandona la secuencia principal y empieza a moverse hacia arriba y hacia la derecha del diagrama H-R. Se cree que en algunos casos la estrella alcanza la fase de Cefeida, latiendo de un modo regular durante varios millones de años. En otros casos, la expansión continúa de una forma más o menos suave hasta que la estrella alcanza un tamaño enorme y su materia (al menos la de las capas exteriores) llega a adquirir un grado extremo de Tarificación. La estrella se ha convertido así en una gigante roja, fase que representa un estadio tardío de la evolución estelar (y no un estadio temprano, como venía a sugerir la teoría del deslizamiento).
Dentro de unos 8 evos nuestro Sol comenzará a expandirse en dirección a la fase de gigante roja; y si para entonces la humanidad no ha abandonado la Tierra (o no ha acabado consigo misma mucho antes), ese será nuestro fin.
Naturalmente, cuanto mayor sean el tamaño y la masa de la estrella, más descomunal será la gigante roja en que se transformará. La gigante roja en que llegará a convertirse algún día nuestro Sol en ese proceso de hinchamiento no será un ejemplar especialmente impresionante dentro de su clase.

26.jpg
Figura 26. Evolución estelar.

Gigantes rojas tales como Betelgeuse y Antares proceden de estrellas de la secuencia principal mucho más masivas que el Sol. Es posible que las gigantes infrarrojas se deriven de estrellas aún más masivas, que se han hinchado y enfriado en un grado mayor todavía que las anteriores.
4. Cuando la estrella se encuentra de lleno en la fase de gigante roja, el hidrógeno del núcleo estelar se ha consumido ya por completo. La masa del núcleo ha ido aumentando constantemente a medida que el helio se iba acumulando dentro de él. Mientras que el núcleo mismo se contrae y se calienta, las capas exteriores se expanden como consecuencia del aumento de temperatura. Con el tiempo llega un momento en que la temperatura del núcleo alcanza aproximadamente los 140.000.000°C (casi diez veces la temperatura actual del interior del Sol), lo cual es suficiente para desencadenar una reacción nuclear en la cual tres núcleos atómicos de helio se combinan para formar el núcleo atómico de un átomo de carbono. (Esta reacción se denomina algunas veces «proceso de Salpeter», en memoria del físico austro-americano Edwin Ernest Salpeter [n. 1924], que fue el primero en estudiarlo.) Tales «estrellas quemadoras de helio» comienzan de nuevo a contraerse y a calentarse.
Ahora bien, el desarrollo de la fusión del helio no significa que la estrella adquiera una nueva vida, comparable a la fase temprana de la fusión del hidrógeno, pues la fusión del helio no suministra tanta energía como la del hidrógeno.
Supongamos que doce núcleos de hidrógeno-1 se fusionan en tres núcleos de helio-4, y que estos tres núcleos se fusionan luego en un único núcleo de carbono-12. Los doce núcleos de hidrógeno-1 tienen una masa total de 12,0956; los tres núcleos de helio-4 una masa total de 12,0078, y el núcleo de carbono-12 una masa de 12,000. La pérdida de masa (y, por tanto, liberación de energía) en la fase de fusión del hidrógeno es de 0,0878, mientras que la pérdida en la fase de fusión del helio es de sólo 0,0078. Es decir, la energía suministrada por la fusión del helio sólo equivale al 9% de la suministrada por la fusión del hidrógeno. Aunque la estrella puede subsistir durante algún tiempo gracias a la fusión de átomos de carbono en núcleos aún más complicados, este proceso no puede continuar indefinidamente. El hierro representa el punto final, pues el núcleo del átomo de este elemento es el de máxima estabilidad. Una vez alcanzado el núcleo de hierro, es imposible seguir obteniendo energía a expensas de reacciones nucleares en las que intervenga este elemento. Los núcleos de hierro quizá pasen a constituir núcleos más complejos o se rompan para formar otros más sencillos, pero en ninguno de los dos casos se libera energía; ésta tiene que provenir de otra fuente.
Ahora bien, sucede que una vez que ha cesado definitivamente la fusión del hidrógeno, la energía que se puede obtener es muy escasa, aun en el supuesto de que los núcleos continúen hasta ese punto muerto que representa el hierro. Imaginemos que 56 núcleos de hidrógeno-1 se convierten en 14 núcleos de helio-4, y que estos 14 núcleos de helio-4 se transforman luego en un único núcleo de hierro-56. Las masas respectivas son 56,4463, 56,0264 y 55,9349. La pérdida de masa al pasar del hidrógeno al helio es de 0,4199, y la que se produce al pasar del helio al hierro de 0,0915. La energía obtenida de la conversión del helio en hierro, pasando por todas las fases intermedias, equivale sólo al 22% de la energía suministrada por la conversión del hidrógeno en helio. Así pues, podemos decir que en el momento en que una estrella ha consumido todo el hidrógeno, su vida como reactor nuclear ha transcurrido ya en sus cuatro quintas partes.
Después de la fase de gigante roja, y a medida que la estrella se contrae y se calienta de un modo constante, dentro del núcleo estelar se forma otro núcleo, dentro de éste otro, y así sucesivamente. Cada uno de ellos contiene átomos más complejos que el anterior, hasta que en último término llega el final en forma de un núcleo interior rico en hierro.
Este proceso de contracción y calentamiento se puede representar en el diagrama H-R como un tránsito rápido hacia la izquierda y hacia abajo. La estrella alcanza y cruza la secuencia principal, dirigiéndose hacia la región inferior izquierda del diagrama, es decir, la región que contiene las estrellas calientes de baja luminosidad.
La región inferior izquierda es, naturalmente, justo la opuesta de la superior derecha, en la cual se encuentran las estrellas frías de gran luminosidad (las gigantes rojas). Del mismo modo que las estrellas frías pueden ser muy luminosas si su tamaño es muy grande, las estrellas calientes pueden ser sobremanera tenues si sus dimensiones son pequeñas.
Para entender lo que ocurre con una estrella cuando sus reacciones nucleares se aproximan al fin, hemos de considerar la naturaleza de las estrellas muy calientes y muy pequeñas, un grupo que aún no hemos discutido.

Capítulo 11
Explosiones estelares

Contenido:
§. Enanas blancas
§. Supernovas
§. Estrellas moribundas
§. Estrellas de la segunda generación
§. Enanas blancas
Los conocimientos acerca de las estrellas calientes pero tenues tuvieron su origen en el descubrimiento —debido a Bessel— de la compañera oscura de Sirio en el año 1844. Sirio y su compañera se movían alrededor del centro de gravedad mutuo en órbitas elípticas, con un período de rotación de cincuenta años. Sirio se denomina a veces «Sirio A», en atención a su existencia como parte de un sistema binario, mientras que su compañera, de tamaño más pequeño, recibe el nombre de «Sirio B».
Cualquier objeto capaz de impulsar y mantener a una estrella como Sirio en una órbita suficientemente grande para ser visible desde la Tierra tiene por fuerza que producir un campo gravitatorio «digno de una estrella». En efecto, se calculó que la compañera de Sirio debía tener una masa equivalente a la mitad de la de Sirio A y que, por consiguiente, tenía que ser tan masiva como el Sol. Sin embargo, era imposible observar a Sirio B, lo cual indujo a Bessel a suponer que se trataba simplemente de los rescoldos extintos de una estrella.
En ese mismo año Bessel registró la existencia de una compañera oscura en el caso de Procyon, con lo cual se podía hablar de «Procyon A» y «Procyon B». Parecía muy probable que este tipo de estrellas tenues fueran muy comunes. Se pensó que lo único que impedía observarlas directamente era su falta de luz y que sólo podían detectarse cuando formaban parte de un sistema múltiple de estrellas, de suerte que sus campos gravita- torios fuesen capaces de alterar el movimiento de una estrella visible hasta el punto de que nosotros, desde la Tierra, pudiésemos distinguir los resultados de estas variaciones.
Esta hipótesis tuvo gran aceptación, y en el año 1851 el astrónomo alemán Christian August Friedrich Peters (1806-1880) calculó la órbita que el compañero invisible de Sirio debía tener a juzgar por los datos relativos a las ondas que Sirio A describía en su movimiento.
Pero precisemos: al final se comprobó que ninguna de las dos estrellas compañeras era del todo oscura. En 1862 Clark catalogó a Sirio B como una estrella de magnitud 7,1. No es una tenuidad insólita, desde luego, pero hay que tener en cuenta que el sistema estelar de Sirio sólo se halla a 8,8 años-luz de distancia. Para encontrarse a esta distancia y exhibir, sin embargo, un brillo tan tenue, Sirio B debía tener una luminosidad equivalente, como máximo, a una centésima de la del Sol. En 1895 el astrónomo germano-americano John Martin Schaeberle (1853-1924) consiguió detectar Procyon B, que resultó ser de undécima magnitud. Aun teniendo en cuenta que esta estrella se hallaba un poco más lejos de nosotros que Sirio B, se demostró en seguida que Procyon B era todavía más tenue que aquélla. Tales estrellas quizá no fuesen completamente oscuras, pero no cabía duda de que eran estrellas enanas.
Hacia finales de siglo se daba ya por sentado que los objetos sidéreos del tipo de Sirio B y Procyon B eran estrellas moribundas cuya tenuidad se debía principalmente a que el fuego estelar se estaba extinguiendo. Cabía suponer que tales estrellas encajaban limpiamente entre las enanas rojas, en la cola de la secuencia principal.
Sin embargo, incluso antes de que se terminara de confeccionar el diagrama H-R se vio claro que Sirio B, por ejemplo, no encajaría en ese lugar concreto. Para ocupar un puesto en la cola de la secuencia principal, la estrella tenía que ser muy fría y, por consiguiente, de un color rojo oscuro. Pero Sirio B, lejos de tener un color rojo, brillaba con una luz perfectamente blanca. De ser una enana, tenía que ser una «enana blanca».
En 1914 el astrónomo americano Walter Sydney Adams (1876-1956) logró registrar el espectro de Sirio B y halló que se trataba de una estrella de la clase espectral A, igual que Sirio A. Esto significaba que Sirio B poseía una temperatura superficial tan alta como la de Sirio A (10.000°C) y mucho más elevada que esos 6.000°C del Sol.
Ahora bien, si Sirio B era más caliente que el Sol, debería tener también una superficie más brillante, suponiendo en ambos casos el mismo número de kilómetros cuadrados. El hecho de que Sirio B poseyera una luminosidad tan inferior a la del Sol sólo podía significar que la superficie de aquél era muy poco extensa. Se trataba de una estrella caliente al blanco, pero muy pequeña: precisamente el tipo de estrella que esperaríamos encontrar en esa región inferior izquierda del diagrama H-R a que aludimos al final del capítulo anterior.
En cuanto al tamaño no cabía, en efecto, ninguna duda de que tenía que sermuy pequeño. Para explicar el escaso brillo de Sirio B no quedaba más remedio que asignar a esta estrella un diámetro de 27.300 km., como mucho, con lo cual no superaría en tamaño al planeta Urano. Se trataba, evidentemente, de una enana blanca.
Pues bien, aun en estas condiciones, Sirio B tenía que tener una masa equivalente a la del Sol, conclusión a que se llegó a partir .del efecto gravitatorio de Sirio B sobre Sirio A y contra la cual no se podía argumentar. El hecho de que una estrella fuese tan pequeña como Urano
y al mismo tiempo tan masiva como el Sol planteaba problemas muy serios en cuanto a su densidad; problemas que en el siglo XIX habrían suscitado dificultades insuperables, pero que en el XX, como se comprobó más tarde, sí tenían solución.
En realidad, el problema de las densidades estelares surgió no sólo en conexión con estrellas poco usuales como Sirio B, sino también en relación con el propio Sol.
Una vez que se logró conocer la distancia del Sol resultó muy fácil calcular su diámetro real, y por tanto su volumen, a partir del diámetro aparente. El volumen solar resultó ser 1.300.000 veces superior al de la Tierra, y su masa, calculada a través del efecto gravitatorio que el Sol ejerce sobre nuestro planeta, 333.500 veces superior a la masa terrestre.
La densidad se determina dividiendo la masa de un objeto por su volumen. Así pues, la densidad del Sol debería ser 333.500: 1.300.000, o bien algo más de un cuarto de la densidad de la Tierra. Puesto que la densidad de la Tierra es 5,5 gramos por centímetro cúbico, la del Sol será de 1,41 gramos por centímetro cúbico.
La densidad del agua es de 1,00 gramos por centímetro cúbico, con lo cual la densidad del Sol es 1,41 veces la del agua. Por otra parte, esta cifra representa un promedio global. No cabe duda que las capas exteriores del Sol tienen que ser mucho menos densas que esa cifra, mientras que, en compensación, la densidad del núcleo interior (que soporta la inmensa presión de las capas externas) debe superar con mucho la cifra de 1,41.
La Tierra misma ofrece una analogía en este aspecto. La densidad global de nuestro planeta es, como ya hemos dicho, de 5,5 gramos por centímetro cúbico; pero mientras la corteza exterior rocosa tiene una densidad de sólo 2,6 gramos por centímetro cúbico, en el centro de la Tierra esa cifra llega a ser de 11,5.
Las diferencias de densidad son mucho mayores en el caso del Sol que en el de la Tierra, y ello se debe a que las presiones son bastante más grandes en el centro del gigantesco Sol que en el centro de nuestro planeta, de tamaño relativamente pequeño.
Cuando Eddington comenzó a explorar la estructura interna del Sol y de otras estrellas se comprobó que las cifras correspondientes a las densidades centrales eran de una magnitud insólita. Los cálculos muestran que para que el Sol mantenga el equilibrio gravedad-temperatura, la densidad en el núcleo central tiene que alcanzar una cifra tan alta como 100 gramos por centímetro cúbico: cinco veces más denso que el platino (o que sus elementos hermanos, el iridio y el osmio), que son las sustancias más densas que se conocen en la Tierra.
Además, aunque aquellas estrellas que superan al Sol en tamaño y en temperatura son menos densas que éste, y algunas gigantes como Epsilon Aurigae llegan incluso a niveles de rarificación muy altos, no es menos cierto que aquellas otras que poseen un tamaño y una luminosidad menores que el Sol poseen una densidad mayor que la de éste. Una enana roja como la estrella conocida con el nombre de Krüger 60B, tiene una masa equivalente a un quinto la del Sol, pero su volumen es de sólo 1/125 el del Sol, con lo cual la densidad de la enana viene a ser de 1/5: 1/125 o veinticinco veces superior a la de aquél. Su densidad media tiene que ser, por tanto, de 35 gramos por centímetro cúbico, o vez y media más densa que el platino; su densidad central debe ser cientos de veces superior a la de este elemento.
No es extraño que en las primeras décadas del siglo XX —cuando aún no se conocían estas cifras con exactitud pero se esperaba que fuesen muy altas— los astrónomos admitieran la hipótesis de que el gas contenido en el interior estelar se encontraba comprimido hasta tal punto que dejaba de actuar como tal. Las teorías concernientes a las energías y evoluciones estelares se basaban en la hipótesis de un núcleo central no gaseoso. Sin embargo, todas ellas resultaron ser falsas.
El trabajo realizado por Eddington a lo largo de la década de 1920-29 demostró que todas las estrellas, incluidas las enanas rojas, se comportaban, a pesar de su densidad, como si fuesen perfectamente gaseosas en su totalidad, pues aquéllas obedecían la relación masa-luminosidad y ésta había sido postulada sobre la base de que las estrellas eran por entero gaseosas.
¿Pero cómo es posible que una sustancia tan densa se comporte de modo parecido a un gas enrarecido? Es más, ¿cómo pueden siquiera existir sustancias de densidad tan alta? Si los átomos fueran pequeñas bolas de billar, irrompibles e incompresibles, como creían los químicos del siglo XIX tales densidades serían sencillamente imposibles. En los sólidos ordinarios de nuestro planeta, los átomos se encuentran ya en contacto mutuo, y la densidad de los metales de la familia del platino representaría casi el máximo posible.
Mas a partir de la década de 1890-1899 todas las nociones relativas a la estructura atómica experimentaron una revolución radical. Cada vez se vio más claro que los átomos no eran pequeñas bolas de billar, sino estructuras complejas constituidas por «partículas subatómicas» que, por separado, eran mucho más diminutas que el átomo intacto. Mientras que el átomo en su totalidad tenía un diámetro del orden de una cienmillonésima de centímetro, el diámetro de las partículas subatómicas ascendía a algo así como una diezbillonésima de centímetro. Expresemos esto mismo de un modo más palpable: la partícula subatómica tenía un tamaño equivalente a sólo 1/100.000 de las dimensiones del átomo intacto, y harían falta 100.000 partículas subatómicas colocadas una al lado de otra para cubrir el diámetro de un solo átomo.
El volumen de un átomo era 100.000 X 100.000 X 100.000 ó 1.000.000.000.000.000 de veces superior al de una partícula subatómica. Toda vez que incluso el átomo más complejo contiene poco más de 300 partículas subatómicas, resulta evidente que el átomo intacto es en su mayor parte espacio vacío, y su estructura (la del átomo) se mantiene gracias a las fuerzas electromagnéticas; estas fuerzas son también las responsables del movimiento de los electrones en amplias órbitas alrededor del diminuto núcleo atómico situado en el centro del átomo. Si fuese posible descomponer un átomo en sus diversas partículas subatómicas y comprimirlo, el sistema total ocuparía un volumen insignificante comparado con el volumen original. (A título de analogía, pensemos primero en la cantidad de espacio que haría falta para almacenar una docena de cajas de sombrero e imaginemos luego que rompemos las cajas en trozos muy pequeños de cartón; el espacio que ocuparían sería mucho menor. Pues bien, el caso del átomo es más drástico aún.)
A altas temperaturas el átomo se ve desprovisto de sus partículas más externas, los electrones; si la temperatura alcanza valores suficientemente elevados (como de hecho ocurre en el centro de las estrellas), el átomo pierde todos sus electrones, quedando únicamente el núcleo atómico desnudo. Bajo las tremendas presiones que reinan en el interior de una estrella, los electrones y núcleos se pueden comprimir en un volumen mucho más reducido que el que habrían ocupado los átomos intactos. Y a medida que este volumen decrece, la densidad aumenta de un modo correspondiente hasta superar con mucho la del platino.
Este tipo de materia compuesta por partículas subatómicas trituradas y comprimidas se denomina por lo común «materia degenerada». No cabe duda que en el interior del Sol, y en general de todas las estrellas, existe un núcleo de materia degenerada. Teoría perfectamente razonable, por otra parte, pues en un átomo intacto los electrones externos escudan por completo al núcleo atómico, impidiendo que éste choque con otros y se combinen entre sí; por el contrario, cuando el átomo se ve desprovisto de los electrones el proceso de fusión nuclear se puede desarrollar a una velocidad suficiente para mantener la radiación estelar.
Ahora bien, aunque la materia degenerada se halla estrujada a densidades descomunales, las partículas subatómicas individuales que la componen son tan pequeñas que dicha materia sigue consistiendo, en su mayor parte, en espacio vacío. En efecto, la materia degenerada, compuesta como está de partículas subatómicas aisladas, contiene casi tanto espacio vacío como los gases ordinarios, mucho menos densos y compuestos de átomos intactos de volumen bastante mayor. Por esta razón, la materia degenerada puede alcanzar densidades insólitas y seguir actuando como un gas.
Pero incluso las densidades de las enanas rojas se quedan en nada comparadas con las de las enanas blancas. Sirio B, que posee el volumen de Urano y la masa del Sol, debe de tener una densidad aproximadamente 125.000 veces superior a la de éste y unas 8.000 veces la del platino. Un centímetro cúbico del material de Sirio B pesaría por término medio 200 kg. Las regiones centrales de Sirio B tienen que ser mucho más densas que este valor medio, de por sí ya muy alto. Y sin embargo, Sirio B parece comportarse como si fuese gaseoso en su totalidad.
Es evidente que Sirio B tiene que estar compuesto casi exclusivamente de materia degenerada; conclusión difícil de aceptar incluso en los años veinte de nuestro siglo, pero que no tardó en recibir el apoyo de pruebas que la confirmaron plenamente. Einstein había elaborado en 1915 su teoría general de la relatividad, la cual predecía, entre otras cosas, que la luz experimenta una desviación hacia el rojo al propagarse en contra de la fuerza gravitatoria. De acuerdo con su teoría, los campos gravitatorios ordinarios producirían una desviación al rojo demasiado pequeña para ser detectable. Cuando Einstein presentó su teoría no podía imaginar que existiese un campo de tal intensidad.
Eddington señaló que si Sirio B era efectivamente tan denso como parecía, su gravedad superficial debía equivaler a 2.500 veces la del Sol. En tales condiciones, el «desvío de Einstein» sería mensurable. En 1925 W. S. Adams examinó con un cuidado exquisito el espectro de Sirio B, midió la posición de las diversas líneas espectrales después de eliminar el efecto producido por el movimiento radial de la estrella y, en efecto, comprobó la presencia del desvío de Einstein. Fue éste un tanto muy importante a favor de la validez de la teoría general de la relatividad y un punto no menos decisivo a favor de la superdensidad de Sirio B.
Sirio B no es ni mucho menos un ejemplar único. Aparte de ella se conocen otras enanas blancas superdensas. Procyon B es una de ellas, naturalmente, y su masa equivale a 0,65 veces la del Sol. De esta clase de objetos se han descubierto unos 250, muchos de ellos por el astrónomo holandés-americano Willem Jacob Luyten (n. 1899). En 1962 descubrió uno cuyo diámetro era sólo la mitad del de la Luna; se trata del más pequeño de los que se conocen. En 1966 el astrónomo suizo-americano Fritz Zwicky (n. 1898) detectó una binaria compuesta de dos enanas blancas.
Doscientas cincuenta enanas blancas no parece ser un número demasiado impresionante comparado con los miles de millones de estrellas ordinarias que existen en los cielos. Pero recordemos que al ser tan pequeñas y tenues sólo son visibles cuando se encuentran muy próximas a nosotros, mientras que las estrellas ordinarias son capaces de hacer llegar su luz desde distancias inmensas. El hecho de que a pesar del obstáculo que supone la escasez de brillo se hayan encontrado tantas enanas blancas indica en realidad que se debe tratar de una clase de objetos muy común. Algunos astrónomos han llegado incluso a estimar que las enanas blancas constituyen el 3% de todas las estrellas de la Galaxia, lo que significaría un total de unos tres mil millones de enanas blancas en la Galaxia.
Volviendo a la cuestión planteada al final del capítulo anterior, nos preguntamos: ¿es hacia el estadio de enanas blancas a donde se dirigen las estrellas cuyo combustible nuclear se ha agotado, a medida que se aproximan a la región inferior izquierda del diagrama H-R? Aparentemente sí, pero no siempre mediante una transición suave y pacífica.

§. Supernovas
A la luz de las nuevas concepciones nucleares de las estrellas sería tentador interpretar las novas como una especie de Cefeidas descarriadas, por decirlo así. Mientras que la Cefeida ordinaria pulsa de una manera ordenada y controlada, inflándose y deshinchándose a intervalos regulares, las novas son estrellas que tras un período prolongado de quietud desarrollan de pronto, por alguna razón concreta, una presión excepcional hacia afuera y —literalmente— explotan. (Algunos astrónomos sugieren que las novas quizá forman siempre parte de sistemas binarios muy ligados, siendo la influencia de la estrella vecina la que suministra la inestabilidad necesaria.)
La luminosidad de una nova aumenta rápidamente de 5.000 a 100.000 veces a medida que crece el área de su superficie, debido en especial a que la estrella está experimentando una oleada fugitiva de radiación que impide que aquélla se enfríe conforme se expande. En su punto culminante la nova alcanza una magnitud absoluta de —8, y en ese momento su brillo es 200.000 veces superior al del Sol.
Este brillo máximo sólo dura unos cuantos días. La fuerza de la explosión lanza al espacio cierta porción de la materia estelar, y con ella se pierde gran parte de la energía. Lo que queda de estrella experimenta luego un colapso —algo así como si fuese un globo pinchado— y el astro se apaga. Al cabo de varios meses la estrella adquiere de nuevo el brillo que tenía en su estado «prenova», siguiendo después una vida como la que llevaba hasta entonces.
A escala terrestre, tales explosiones tienen categoría de catástrofes. Si el Sol experimentara uno de estos cataclismos, los océanos de la Tierra comenzarían a hervir y desaparecería todo signo de vida de la faz del planeta. A escala estelar, las explosiones de las novas no pasan de un nivel discreto. El brillo máximo es alto, pero incluso en su punto culminante una nova no llega al brillo que S Doradus posee normalmente. En cuanto al material que se pierde en el curso de la explosión de una nova, no representa más que 1/100.000 de la masa de la estrella: cantidad demasiado exigua para ser importante.
Tras cierto período de quietud, una nova puede perfectamente experimentar una nueva explosión, a intervalos que oscilan entre 10 y 100 años. Nova Persei, que explotó en 1901, se abrillantó de nuevo en 1966. Existe un caso, el de la estrella T Pyxidis, en el que se han observado cuatro máximos de brillo tipo nova desde 1890, así como un quinto en 1966. Sea cual fuere la propiedad que da lugar a estos picos de brillo, lo cierto es que las líneas de absorción del espectro de la estrella exhiben un fuerte desvío al violeta, lo cual indica que la estrella, o al menos parte de ella, se está aproximando hacia nosotros; la capa exterior que explota se aleja rápidamente del astro, y la porción que queda entre éste y nosotros se desplaza hacia la Tierra velozmente.
En algunos casos la explosión, o sus consecuencias, llega incluso a hacerse ópticamente visible. Después de que Nova Aquilae hiciera su aparición en 1918, E. E. Barnard constató que estaba rodeada por una esfera nebulosa que no había estado allí con anterioridad. Esta esfera, compuesta probablemente de gases en explosión, siguió moviéndose hacia afuera a una velocidad uniforme, haciéndose cada vez más voluminosa y más tenue hasta que en 1941 era ya demasiado débil para poder detectarla. Otras novas exhiben fenómenos similares.
Por desgracia, los astrónomos no han llegado todavía a una explicación, aceptada con carácter general, de las explosiones tipo nova. Una de las hipótesis lanzadas recientemente es que las novas sólo se dan entre estrellas que forman parte de un sistema binario muy junto y que es la interacción entre ambas estrellas lo que en un momento dado provoca la nova. Es posible.
Sin embargo, no todas las estrellas en explosión son simplemente novas. Esta conclusión empezó a ser evidente hacia mediados de la década de 1920-29, cuando se logró apreciar por primera vez la enorme distancia que nos separa de la galaxia de Andrómeda. Si se aceptaba dicha distancia, ¿qué decir entonces acerca de la nova S Andromedae que había aparecido allí en 1885?
Cuando S Andromedae fue detectada por primera vez, era una estrella de séptima magnitud, pero es posible que en ese momento ya se hubiese disparado rápidamente hacia el máximo de brillo rebasándolo ligeramente; es decir, cabe que cierto tiempo antes de que fuese detectada, la estrella hubiera sido observable a simple vista con un brillo algo superior a la sexta magnitud.
Claro está que aun así seguiría siendo una estrella tenue y apenas visible; pero el mero hecho de ser observable a simple vista a una distancia como la de la galaxia de Andrómeda indica un brillo tan descomunal que dejaría anonadado incluso al astrónomo más curtido. En su período de auge S Andromedae hacía palidecer al resto de la galaxia. Una sola estrella ganaba en brillo a miles de millones de estrellas ordinarias juntas.
Las estimaciones modernas, basadas en los valores más recientes para la distancia de la galaxia de Andrómeda, indican que la magnitud absoluta de S Andromedae en su apogeo fue de —19. Esto significa que, al menos durante el lapso de algunos días, el astro resplandeció con un brillo equivalente al de cien mil novas ordinarias, o diez mil millones de veces el del Sol.
S Andromedae no era simplemente una nova; era una «supernova».
Una vez constatado este extremo, se inició la búsqueda de otros ejemplares de esta nueva y espectacular clase de objetos. Mientras que las novas ordinarias no son observables mucho más allá de las galaxias más cercanas, las supernovas, cuyo brillo es equiparable al de una galaxia entera, pueden detectarse naturalmente a las distancias a que se pueden detectar las galaxias; es decir, hasta donde alcanzan nuestros telescopios.
En la búsqueda de estas supernovas de brillo semejante al de una galaxia ha destacado Fritz Zwicky, quien en los años 1936 y siguientes localizó una serie de ellas en diversas galaxias. El número de las que se han observado asciende en total a unas cincuenta. Zwicky estima que mientras las novas ordinarias surgen a un ritmo de veinticinco por año en una galaxia dada, las supernovas sólo lo hacen a una tasa de tres por cada milenio dentro de una galaxia concreta.
Hacia finales de la década de 1930-39, las observaciones efectuadas por los astrónomos germano-americanos Walter Baade (1893-1960) y Rudolf Leo B. Minkowski (n. 1895) demostraron que las supernovas podían dividirse en dos variedades, Tipos I y II, a las cuales quizá cupiese añadir también un Tipo III. Las supernovas del Tipo II son las menos luminosas —sólo varios cientos de veces más brillantes que las novas ordinarias— y probablemente las más numerosas; el hecho de que no se observe un número mayor de ejemplares de este tipo se debe simplemente a su menor luminosidad. Las supernovas del Tipo III son similares a las del Tipo II, pero poseen una curva de luz que se desvanece de un modo más gradual. Las del Tipo I son las auténticas gigantes de su clase. S Andromedae fue una supernova del Tipo I, lo mismo que la del año 1054 que dio origen a la nebulosa del Cangrejo.
Es evidente que las supernovas, al igual que las novas ordinarias, deben su aumento de brillo a una explosión. Dado que las primeras alcanzan picos de brillo más altos que las segundas y sostienen este nivel superior de luminosidad durante más tiempo, las explosiones de las supernovas tienen que ser de un carácter mucho más catastrófico. Se estima que mientras las novas ordinarias pierden 1/100.000 de su masa en la explosión, las supernovas del Tipo II pierden de 1/100 a 1/10 de su masa y las gigantes del Tipo I entre 1/10 y 9/10.
Desde los días de la invención del telescopio se ha estudiado toda una serie de novas dentro de nuestra Galaxia, pero aun así no se ha detectado en ella ni un solo objeto que pueda ser catalogado claramente como una supernova en los tres siglos y medio que han transcurrido desde que Galileo enfocó por primera vez su tubo de aumento hacia el firmamento.
Sin embargo, si escudriñamos la historia pasada parece ser que en el curso de los últimos mil años han aparecido tres supernovas en nuestra Galaxia (cifra que concuerda exactamente con la estimación de Zwicky). Fueron las «nuevas estrellas» de 1054, 1572 y 1604. Existen también indicios (producto de investigaciones minuciosas llevadas a cabo sobre ciertos documentos orientales y publicadas en 1966) de que en el año 1006 posiblemente se encendió una cuarta supernova.
De todas ellas, la primera fue objeto de una observación sumamente deficiente, pero ha sido también la que ha resultado, con diferencia, de más interés. Se trata quizá de una de las supernovas más brillantes que jamás se hayan formado y posiblemente la más próxima de las que han aparecido en los tiempos históricos. Además es un ejemplar único entre las supernovas debido a que ha dejado tras sí un residuo que a través de cualquier telescopio rudimentario parece una mancha nubosa.
El astrónomo inglés John Bevis (1693-1771) informó de su existencia en 1731, y en 1758 Messier observó la mancha en la constelación de Tauro, incluyéndola en su lista. Y como fue el primer objeto catalogado en dicha lista, a veces recibe el nombre de MI.
En 1844 (ochenta años más tarde) Lord Rosse observó la mancha con mayor detenimiento valiéndose de su gran telescopio y consiguió discernir su estructura. Se trataba de algo que no tenía paralelo en el firmamento: una masa de gas claramente turbulento con numerosos filamentos de luz en su interior. Estos filamentos deshilachados se le antojaban a Rosse como las patas de un cangrejo, por lo cual bautizó al objeto con el nombre de «nebulosa del Cangrejo», nombre que se sigue utilizando hoy día.
La nebulosa del Cangrejo tiene a todas luces el aspecto de una inmensa explosión sorprendida en medio del proceso de expansión. No hace falta mucha imaginación para verlo; es una conclusión que se impone por sí sola en la mente de cualquier observador. El hecho de que se halle situada muy cerca del lugar donde los astrónomos chinos localizaron la supernova de 1054 pedía a gritos considerar la nebulosa del Cangrejo como los residuos de esa explosión; hacia mediados de la década de 1920-29, cuando los astrónomos descubrieron que tales supernovas existían, nadie dudó en aceptar dicha hipótesis.
En 1921 J. C. Duncan señaló que las fotografías que se habían tomado de la nebulosa del Cangrejo a lo largo de la última generación, más o menos, demostraban que los gases turbulentos se movían hacia el exterior a razón de una fracción diminuta de segundo de arco por año, cantidad que, no obstante su pequeñez, era mensurable. Las medidas espectroscópicas indican asimismo que las porciones de gas que se encuentran del lado de nuestro planeta se aproximan hacia nosotros a una velocidad de 1.300 kilómetros por segundo. Si la nebulosa del Cangrejo es efectivamente un volumen de gas en explosión, dicho gas debería moverse hacia el exterior en todas direcciones y con velocidades más o menos iguales. Por consiguiente, es lícito equiparar la velocidad radial en kilómetros por segundo a la velocidad transversal en segundos de arco por año. Calculando la distancia a la cual una velocidad tal se traduce en tantos segundos de arco por año, resulta que la nebulosa del Cangrejo se halla a unos 4.500 años-luz de nosotros y que la capa de gases en explosión tiene en la actualidad un diámetro máximo de unos 6 años-luz.
Si a partir de la velocidad de expansión de los gases hacemos un cálculo hacia atrás, llegamos a la conclusión de que el gas se encontraba en su punto inicial (en el centro) hace 900 años aproximadamente, cifra que concuerda exactamente con lo que cabría esperar en el supuesto de que la nebulosa del Cangrejo fuese efectivamente la explosión supernova de 1054. Hacia 1942 no parecía existir ya ninguna duda acerca de esta cuestión, y ello gracias en gran parte a la labor concienzuda de Oort.
Indicios tan patentes como los del caso anterior faltan en cambio por completo en relación con la supernova de Tycho de 1572 o con la de Kepler de 1604 (esta última quizá sea sólo una supernova del Tipo II), aunque en 1966 se identificaron a unos 11.400 años-luz de la Tierra (tres veces la distancia de la nebulosa del Cangrejo) ciertas briznas muy difusas de gas que pudieran ser residuos de la supernova de Tycho. Por otra parte, existe una clase de objetos astronómicos que quizá sean los restos de supernovas que brillaron en los cielos de nuestro planeta antes de los albores de la historia escrita e incluso antes de la aparición del hombre. Se trata de las llamadas nebulosas planetarias: estrellas rodeadas de extensas nebulosas gaseosas y esféricas. Dado que es precisamente en los bordes donde nuestra vista tiene que atravesar un espesor máximo de este halo gaseoso, la nebulosa resulta muy visible en esta región; tal es el caso de la nebulosa del Anillo en la constelación de Lira. Estos anillos de gas recuerdan en cierto modo a la imagen de Laplace, en la cual una nebulosa en rotación expelía anillos de gas que en cierto momento posterior (siempre según la concepción laplaciana) se condensaban en planetas; de ahí el nombre de «nebulosas planetarias». La nebulosa del Velo en Cygnus está constituida al parecer por fragmentos rotos de un anillo que se hubiese expandido hasta un tamaño relativamente enorme. Quizá se trate de los residuos de una explosión del tipo supernova acaecida hace 100.000 años o más.
Hoy día se conocen más de mil nebulosas planetarias, y es posible que en total existan unas cincuenta mil en la Galaxia. La más próxima es NGC 7293, cuya distancia es suficientemente pequeña para que su paralaje sea mensurable. Se halla a unos 85 años-luz de nosotros y el diámetro del anillo de gas equivale aproximadamente a 1/3 de año-luz. Las hipótesis acerca de la naturaleza y causa de estos anillos gaseosos son varias; lo menos que se puede decir es que es posible que algunos de ellos, cuando no todos, representen él material expelido hace muchos miles de años en el curso de una explosión tipo nova o supernova de la estrella central.

§. Estrellas moribundas
Los dos tipos de objetos que hemos visto en lo que va de capítulo —enanas blancas y supernovas— parecen estar íntimamente relacionados.
Para ver de qué tipo es esta relación, permítasenos volver a aquellas estrellas que se encuentran en el estadio final del consumo de combustible nuclear, es decir, las estrellas que han ido acumulando hierro en su núcleo interior y que, por así decirlo, ya no tienen adónde ir en el terreno de las reacciones nucleares.
Para que una estrella que se halla en este trance pueda seguir radiando tendrá que recurrir a la única fuente de energía que le queda: el campo gravitatorio. Una vez más se verá obligada a contraerse, igual que lo hizo en aquellos días lejanos, antes de la ignición de las reacciones nucleares en su núcleo más íntimo. La única diferencia es que ahora que la estrella está radiando energía a un ritmo brutal, la contracción tiene que ser sobremanera rápida para suministrar suficiente energía.
Cuando los astrónomos llegaron a comprender la naturaleza de la materia degenerada, comprobaron también que esta contracción podía ser excesivamente rápida y que lo que antes había sido una estrella ordinaria podía convertirse en un abrir y cerrar de ojos en una enana blanca minúscula. El calor de la compresión la calentaría «al blanco», pero, dada su pequeña superficie, la energía radiada sería, en términos generales, mucho más exigua después de la contracción que antes. Por otra parte, la cantidad de energía que la estrella radiaría en su nuevo status de enana blanca sería tan pequeña que a partir de entonces bastaría un ritmo de compresión lentísimo para proporcionar dicha energía durante evos enteros. El proceso que Helmholtz estimó válido para todas las estrellas en general resultó ser de hecho aplicable a las enanas blancas.
Ahora bien, la enorme densidad de las enanas blancas no les priva a éstas de la posibilidad de seguir comprimiéndose. Todo lo contrario: la estrella tiene aún mucho terreno por delante en este sentido. Sirio B tendrá posiblemente una densidad 125.000 veces superior a la del Sol, pero las partículas subatómicas que pululan en el seno de su estructura degenerada (en gran parte) no se encuentran, ni mucho menos, en contacto mutuo. Para que esto fuese cierto, Sirio B debería contraerse hasta un diámetro de sólo unos trece (!) kilómetros.
A medida que una enana blanca se contrae, experimenta un proceso de enfriamiento. Su temperatura superficial puede llegar a ser de 50.000° C. en el momento de formación, si bien Sirio B, con sus 10.000° C. de temperatura superficial, es todavía una enana blanca bastante joven cuya luminosidad se halla muy cerca de 1/100 la del Sol, cifra que quizá constituya el máximo para este tipo de estrellas. Las enanas blancas más viejas son también más frías, y una de ellas, llamada «van Maanen 2», que lleva ya como mínimo 4 evos en el estado de enana blanca, posee una temperatura superficial de sólo 4.000° centígrados. Su color es marcadamente rojizo y ello da lugar a esa aparente contradicción de tener que llamaría una «enana blanca roja». Pero incluso van Maanen 2 puede prolongar su existencia durante muchos, muchos evos, administrando con parsimonia su reserva gravitatoria de energía, antes de que se extinga. Tan longeva es la vida de una enana blanca que muy bien pudiera ser que la Galaxia no fuese suficientemente vieja para haber presenciado el ocaso de una sola estrella de esta clase.
Pero si las enanas blancas son estrellas moribundas, entonces el sistema de Sirio plantea un interesante problema. Sirio A y Sirio B tienen que haberse formado al mismo tiempo, y sin embargo Sirio A se encuentra en plena juventud mientras que Sirio B tiene una edad muy avanzada. ¿Cuáles son las razones que explican este hecho?
Si ambas poseen la misma edad cronológica, la única posibilidad que cabe es que Sirio B haya vivido de un modo más rápido que Sirio A, lo cual implicaría, en virtud de la relación masa-luminosidad, que Sirio B es más masiva (quizá mucho más masiva) que Sirio A. Y sin embargo, Sirio B —al menos en el estado de enana blanca— sólo tiene la mitad de masa que Sirio A. ¿Qué ha ocurrido con el resto de la masa que antaño perteneciera a Sirio B?
Según nuestros conocimientos, el único modo de perder una cantidad apreciable de masa estelar es a través de una explosión tipo supernova. ¿Podría ser entonces que hace un evo o más Sirio B hubiese experimentado una explosión tipo supernova? Es muy probable.
Tal conclusión viene apoyada por los trabajos teóricos del astrónomo indo-americano Subrahmanyan Chandrasekhar (n. 1910). Incluso en las enanas blancas tiene que existir equilibrio entre la fuerza gravitatoria, que tiende a comprimir la estrella, y el efecto térmico que impele la sustancia estelar hacia afuera. Las fuerzas gravitatorias que actúan en una enana blanca son muchas veces más intensas que las que están en juego en el caso de una estrella ordinaria, con lo cual la temperatura central también tiene que ser más elevada para contrarrestarlas. Cuanto mayor es la masa de la enana blanca, tanto más intensa será la fuerza gravitatoria que tiende a comprimirla y tanto más pequeña y densa será la estrella. Pero en cierto punto crítico («límite de Chandrasekhar») no existe ya temperatura capaz de impedir que la estructura de la enana blanca se contraiga hasta cierto límite extremo. Chandrasekhar demostró en 1931 que este límite crítico equivalía aproximadamente a 1,4 veces la masa del Sol. Este resultado viene avalado por el hecho de que todas las enanas blancas cuya masa ha sido determinada se encuentran muy por debajo del límite de Chandrasekhar.
Una estrella de tamaño medio, como el Sol, seguirá contrayéndose de un modo más o menos constante después de haber agotado el combustible nuclear de su parte central. Durante este proceso quizá experimente una explosión benigna en el momento en que el calor de contracción inflame el combustible nuclear contenido en las capas externas. En el transcurso del tiempo es posible incluso que se produzcan varias explosiones de este tipo. Es muy probable que algunas al menos de las novas ordinarias representen esta fase de la evolución de una estrella. Cabe incluso que la atenta mirada de los astrónomos haya presenciado la formación de una enana blanca de esta forma. WZ Sagittae, una nova reincidente, explotó primero en 1913 y después en 1946; hoy día posee una luminosidad equivalente a sólo 1/100 la del Sol y presenta todos los síntomas de una enana blanca.
Cuanto mayor es la masa de la estrella, tanto más drástico es el efecto de la compresión y tanto más tremendas son también las explosiones provocadas. Tales explosiones van eliminando porciones de masa cada vez más grandes y reducen la parte restante hasta un valor muy por debajo del límite de Chandrasekhar [xviii] . No cabe duda, pues, de que las supernovas son la agonía de las estrellas masivas y que las supernovas de Tipo I representan la agonía de estrellas especialmente masivas.
Mas ¿qué es lo que provoca el colapso final de una estrella masiva? Porque, evidentemente, se trata de un proceso repentino. Dos, como mínimo, son los mecanismos que se han sugerido para explicar estas catástrofes súbitas, y ambos pueden ser válidos para un tipo concreto de estrellas.
Una posibilidad es que la temperatura del corazón central de la estrella, saturado de hierro, llegue a alcanzar un nivel tan alto que, en cierto momento crítico, los átomos de hierro se vean desintegrados por la intensísima radiación, descomponiéndose en fragmentos de helio. Este proceso no suministra energía, sino que la absorbe: absorbe toda la energía contenida en la radiación que dio lugar a aquélla. Todo esto ocurre, en cierta medida, a temperaturas comprendidas dentro de un intervalo bastante amplio, pero cuando sucede en el punto crítico la velocidad del proceso es tal que la energía absorbida no puede ser ya reemplazada por los últimos restos de procesos nucleares en el corazón de la estrella. La temperatura en el corazón central disminuye ligeramente.
En el momento en que la temperatura disminuye, la fuerza de compresión gravitatoria de la estrella, liberada ahora en parte de su fuerza antagónica, se hace dueña de la situación. La estrella se contrae y el núcleo central se calienta a expensas de la energía gravitatoria. La energía suministrada de este modo mantiene activo el proceso de conversión del hierro en helio, con lo cual la estrella continúa encogiéndose a un ritmo cada vez mayor. En resumen: toda la energía liberada por el núcleo central a lo largo de varios millones de años de fusión del helio en hierro se devuelve ahora en cuestión de horas (!) a costa de la única fuente de energía que queda, a saber, el campo gravitatorio.
La segunda variante fue sugerida en 1961 por el astrónomo chino-americano Hong-Yee Chiu (1932). Para exponerla nos vemos precisados a introducir previamente algunos conocimientos de fondo.
La materia absorbe muy fácilmente la radiación ordinaria que emite el núcleo central de una estrella. Una vez liberado un fragmento de radiación, es absorbido al instante, liberado de nuevo, absorbido una vez más, y así sucesivamente. La radiación pasa de mano en mano, por así decirlo, en direcciones aleatorias, y no consigue abrirse paso hasta la superficie estelar sino de una forma muy gradual. Se estima que una porción de energía tarda por término medio un millón de años en desplazarse desde el núcleo central del Sol, donde se forma, hasta la superficie solar, lugar a partir del cual se radia hacia el exterior. Este fenómeno hace que la sustancia del Sol sea un excelente aislante, de suerte que mientras el centro está a 15.000.000° C., la superficie, separada de aquél sólo 800.000 kilómetros, se encuentra únicamente a 6.000° C.
Además de la radiación ordinaria, las reacciones nucleares que se desarrollan en el núcleo central de las estrellas producen ciertas partículas en extremo minúsculas llamadas «neutrinos». Los neutrinos viajan a la velocidad de la luz, igual que la radiación ordinaria, pero entre ambos existe una diferencia importante: es muy raro que los neutrinos sean absorbidos por la materia. Los neutrinos que se forman en el centro del Sol se desplazan hacia el exterior en todas direcciones sin verse afectados en modo alguno por la materia que constituye el Sol. En tres segundos alcanzan la superficie solar y desde allí se disparan hacia el espacio exterior, llevándose consigo parte de la energía del Sol.
A la temperatura que reina en el interior del Sol, el número de neutrinos que se forman es ínfimo comparado con la radiación ordinaria emitida. Si queremos considerar los neutrinos algo así como una fuga de energía, entonces debemos añadir que esta fuga es prácticamente imperceptible en el caso del Sol.
Ahora bien, a medida que una estrella envejece, la temperatura de su centro aumenta y el ritmo de formación de neutrinos crece cada vez más rápidamente. La fuga de energía debida a los neutrinos adquiere ahora un carácter más serio. Cuando se alcanza una temperatura crítica de 6.000.000.000° C. (según los cálculos de Chiu) la fuga se hace tan grande que las reacciones nucleares que se operan en el núcleo central dejan de ser capaces de suministrar la energía necesaria para impedir que la estrella sufra un colapso.
Sea cual fuere la causa de la pérdida de energía en el núcleo central (la iniciación repentina de un proceso de conversión de hierro a helio o una fuga abrumadora de energía originada por los neutrinos), el resultado, en ambos casos, es el colapso súbito y catastrófico de la estrella. En el transcurso del colapso las capas externas de la estrella se comprimen. Pero estas capas externas contienen todavía combustible nuclear, incluso hidrógeno en la superficie misma. Este hidrógeno no experimentaría nunca un proceso de fusión a las temperaturas superficiales, ni siquiera de las estrellas más calientes; mas con la acción supletoria del calor de compresión todo el combustible que queda en la estrella se prende. En un breve lapso de tiempo, la energía que en condiciones normales bastaría para cientos de miles de años se radia al exterior.
Si las supernovas marcan efectivamente la transición de las estrellas masivas a enanas blancas, entonces no cabe duda de que el centro de la nebulosa del Cangrejo debería estar ocupado por una enana blanca. De hecho existe en ese punto una estrella diminuta y azulada (tan caliente como cabría esperar de una enana blanca nueva). Esta enana fue detectada en origen por Walter Baade en 1942. Durante un cuarto de siglo fue considerada como una enana blanca, pasando luego a adquirir una identidad aún más exótica.
Si es cierto que las nebulosas planetarias son residuos de explosiones tipo supernova, entonces deben existir también enanas blancas en el centro de aquéllas (o al menos en algunas de ellas). Las estrellas centrales de las nebulosas planetarias son invariablemente estrellas blanco- azuladas, como cabría esperar —repetimos— de enanas blancas más o menos nuevas. La estrella central de la nebulosa planetaria más cercana, la NGC 7293, es sólo de la décima magnitud a pesar de sus 83 años-luz de distancia, y es claramente una enana blanca.
Si, como Zwicky estima, el número de explosiones tipo supernova es de tres por milenio dentro de una galaxia concreta, entonces a lo largo de los 3 evos que lleva de existencia el sistema solar ha debido haber 15.000.000 de supe Estrellas de la segunda generación novas, formándose otras tantas enanas blancas. Añadamos a éstas los miles de millones de supernovas que han podido tener lugar antes de que el sistema solar se formara, así como las enanas blancas que se han formado a partir de estrellas suficientemente pequeñas para evitar la fase de supernova, y comprobaremos que no es sorprendente que las enanas blancas sean tan comunes como parece que son.

§. Estrellas de la segunda generación
Cuando una gran estrella explota como supernova, cierta cantidad de materia se ve lanzada hacia el exterior, hacia el espacio, distribuyéndose ocasionalmente entre el gas rarificado que allí se encuentra presente.
La materia estelar que ha explotado abunda en todos los elementos que preceden al hierro, pues todos ellos se hallaban presentes en la estrella en el momento de la explosión. Es más: dicha materia debe contener también elementos más pesados que el hierro. Estos elementos no se pueden formar sin un aporte de energía, y en las estrellas ordinarias, desde luego, no se formarían. Sin embargo, en una supernova la producción de energía es tan descomunal que es muy probable que parte de ella se ponga a trabajar, digámoslo así, en la constitución de átomos más complejos que los del hierro, en todos los tipos de átomos hasta los de uranio, el átomo más complejo de los que se dan con cierta abundancia en la corteza terrestre.
Pero es muy probable que incluso se formen elementos más complejos que el uranio. Tales «elementos transuránidos» no existen en estado natural en la Tierra debido a su extrema inestabilidad. Cierto que el propio uranio es inestable y se desintegra continuamente, por etapas, hasta llegar al plomo. Mas la desintegración del uranio es tan lenta que incluso al cabo de 4,5 evos (aproximadamente la vida de la Tierra) todavía queda intacta la mitad de la reserva original de este elemento. La desintegración de los elementos más allá del uranio es mucho más rápida, y si alguno de estos elementos existió en el momento de la formación de la Tierra, en la actualidad ya ha desaparecido.
En relación con las supernovas tenemos, por el contrario, pruebas (una, como mínimo) en favor de la aparición -—al menos transitoria— del elemento «californio» (situado seis lugares más allá del uranio en la tabla periódica de los elementos). Al parecer, muchas supernovas pierden brillo con una vida media de cincuenta y cinco días. Y da la casualidad de que una de las variedades del californio, el «californio 254», se desintegra precisamente a esa velocidad. Es posible que haya cierta relación en este sentido.
En cualquier caso, mucho después de que la supernova se encienda camino de su destrucción y de que la enana blanca resultante inicie su viaje alrededor del centro galáctico, el anillo gaseoso de la explosión quedará rezagado como consecuencia de la fricción con el gas disperso que se encontraba ya presente en el espacio interestelar, sirviendo así para contaminar dicho gas en la región en que antaño tuvo lugar la explosión. De suerte que lo que hasta entonces era una zona del espacio que contenía un gas disperso formado exclusivamente por hidrógeno, puede contener ahora pequeñas porciones de helio y porciones aún menores de átomos más complejos. En efecto, si es cierto que en cada milenio ocurren tres supernovas por galaxia, ello bastaría para explicar la presencia de un tercio del gas interestelar.
¿Qué ocurre entonces si a partir de la materia de este espacio contaminado se forma una estrella? La estrella seguiría estando compuesta en su mayor parte de hidrógeno; seguiría teniendo una vida muy longeva, a lo largo de la cual podría radiar utilizando como fuente de energía la fusión del hidrógeno (siempre que, naturalmente, no fuese demasiado masiva), pero también gozaría de la participación de átomos complejos en cantidades mayores de lo que cabría esperar.
Este parece ser el caso de nuestro Sol (con lo cual contestamos al problema planteado anteriormente). Al parecer, el Sol es una «estrella de la segunda generación», es decir, una estrella que se formó allí donde con anterioridad había muerto otra por explosión.
Si el Sol hubiera estado compuesto en origen por un 100% de hidrógeno, tendrían que haber transcurrido 20 evos antes de llegar a la proporción de hidrógeno (81%) que exhibe en la actualidad. En cambio, si la proporción orginaria de hidrógeno hubiese sido del 87%, sólo harían falta de 5 a 6 evos para llegar al estado presente; así pues, es esto último lo que probablemente sucedió.
De este modo, los planetas que se formaron en las afueras de esa nube de gas en lento proceso de aglomeración que dio lugar al sistema solar acabarían también por estar compuestos de un material con una mezcla adicional considerable de átomos más complicados. En el caso de la Tierra, que en sus comienzos era demasiado pequeña y caliente para depender exclusivamente del hidrógeno y del helio, los átomos más complicados constituyen casi la totalidad de su estructura. La Tierra posee un núcleo central —cuya masa equivale a un tercio de la total—compuesto casi por entero de hierro líquido. Esto da idea de las cantidades ingentes de hierro que la explosión de la supernova (con su propio núcleo central saturado de hierro) debió de vomitar al espacio.
En efecto, Fred Hoyle sugirió hace algunos años que otrora el Sol formó parte, igual que Sirio, de un sistema doble de estrellas y que su compañera se incendió convirtiéndose en una supernova. De este modo Hoyle intentaba explicar la constitución de los planetas y al mismo tiempo tener en cuenta el hecho de que éstos poseen un momento angular tan grande; según esta teoría, el momento angular planetario provendría de la reserva que poseía la estrella que explotó. Sin embargo, si aceptamos esta hipótesis es preciso resolver el problema de dónde ha quedado la enana blanca que se debió formar en el curso de la supernova. La teoría de Hoyle es original e interesante, pero no todos los astrónomos, ni mucho menos, la consideran probable.

Capítulo 12
Evolución galáctica

Contenido:
§. La cuestión de la eternidad
§. Clases de galaxias
§. Poblaciones estelares
§. La cuestión de la eternidad
Como el lector habrá podido comprobar, el estudio que hemos hecho de los problemas concernientes a la evolución estelar ha finalizado con la siguiente idea: aunque el Sol quizá tiene una edad de sólo 5 evos, antes que eso tuvo que haber una historia de la Galaxia, pues aquél se erigió sobre las ruinas de una estrella aún más vieja. En efecto, un examen detenido de la estructura de ciertos cúmulos globulares, así como de la proporción entre la cantidad de hidrógeno consumida y la que aún queda por consumir, revela que la vida de los cúmulos puede llegar a ser de hasta 25 evos.
Ahora bien, ¿esta cifra constituye necesariamente la cota máxima? ¿Es preciso siquiera postular una edad definida para el Universo? El hecho de que una estrella posea una edad determinada no excluye el que antes que ella existieran otras con su propia vida y muerte, formando así una sucesión interminable. En este aspecto puede establecerse cierta analogía con la raza humana: la humanidad lleva existiendo un tiempo mucho más largo que la vida de un individuo cualquiera.
En cierto modo cabe argüir, desde luego, que la energía del Universo (incluida la materia, como una forma de energía) ha existido desde siempre y siempre existirá, toda vez que, según los conocimientos actuales, es imposible crear energía de la nada o destruirla por completo. Esto significa —podríamos concluir— que la sustancia del Universo (y, por consiguiente, el Universo mismo) es eterna.
Sin embargo, no es esto a lo que nos referimos. Lo que nos ocupa es algo más que la mera sustancia del Universo. El problema consiste en saber si dicha sustancia siempre ha tenido y siempre tendrá la forma que caracteriza al tipo de Universo que conocemos —un Universo con planetas y estrellas, y capaz de albergar a seres vivientes como nosotros mismos— o si, por el contrario, este «Universo que conocemos» tuvo un principio perfectamente definido y tendrá un fin también definido.
Según los conocimientos actuales, el «Universo que conocemos» (que es al que nos referimos cuando de ahora en adelante hablemos del «Universo») existe en su forma presente gracias a la producción de energía suministrada por la fusión del hidrógeno. Antes de que se iniciara el proceso de fusión habría que concebir el Universo (de acuerdo con lo expuesto en los capítulos anteriores) como una simple masa vastísima de gas turbulento, caliente al rojo (aunque tenuemente) en puntos aislados. Una vez fusionado todo el hidrógeno, el Universo no podría consistir en nada más que enanas blancas, las cuales han ido avanzando, durante períodos de tiempo variables, a lo largo del camino que conduce en último término a la oscuridad y a la extinción. El «Universo que conocemos» sólo se da durante el período en que el proceso de fusión del hidrógeno se desarrolla a un ritmo muy grande.
Cuando preguntamos entonces si el Universo es eterno, lo que estamos preguntando es, en esencia, si la fusión del hidrógeno es capaz de perdurar para siempre.
Ahora queda explicado por qué, en la página 135, suscité la cuestión de si el Universo era infinito, abandonando luego el tema para tomar otro rumbo y abordar el problema de la edad de los diversos cuerpos celestes. Pues ahora que nos hemos planteado un problema similar, el de la eternidad del Universo, resulta que ambas cuestiones están íntimamente ligadas en algunos aspectos.
Por ejemplo, si la cantidad de hidrógeno del Universo fuese infinita, es evidente que dicho hidrógeno podría seguir fusionándose en helio indefinidamente, con tal de que la velocidad de fusión fuese finita. Expresado con otras palabras, un Universo finito tendría que ser también un Universo eterno. Por otra parte, un Universo finito tal vez tendría que ser inevitablemente finito tanto en el tiempo como en el espacio.
Para que un Universo finito fuese eterno a pesar de su finitud tendría que existir algún proceso capaz de invertir el proceso de fusión del hidrógeno, de restablecer el nivel de hidrógeno y de ponerlo otra vez a disposición del proceso de fusión. Además, esto no debe ocurrir irrevocablemente a expensas de otras fuentes de energía, como son los campos gravitatorios.
Hay que decir que a primera vista esto no parece posible. Cierto es que, de acuerdo con la doctrina científica aceptada con carácter universal, la energía se conserva y jamás puede ser destruida. (Este principio recibe a veces el nombre de «primer principio de la termodinámica».) Sin embargo, a pesar de que la cantidad de energía que nos rodea se mantiene constante, no siempre se encuentra disponible para su conversión en trabajo útil, y es precisamente esta disponibilidad para la transformación en trabajo lo que constituye uno de los requisitos fundamentales del «Universo que conocemos». En efecto, existe un principio generalizado —conocido como «el segundo principio de la termodinámica» y que, al parecer, es tan válido, universal e importante como el primero— que nos dice que la cantidad de energía disponible para su conversión en trabajo decrece constantemente.
Lo cual significa, recurriendo a un ejemplo muy sencillo, que el agua que ha discurrido ladera abajo no puede remontar la ladera por sí sola: para ello es preciso bombearla hacia arriba a costa de la energía de alguna otra fuente. Cualquier sistema que haya «bajado» (tanto si ha efectuado un trabajo durante ese proceso como si no) puede recuperar su estado original y volver a «bajar», pero siempre a expensas de energía proveniente del exterior. Además, la energía necesaria para restablecer un sistema que haya «bajado» es siempre mayor que la que proporcionaría dicho sistema al volver a «bajar», con lo cual siempre se produce una pérdida neta en el proceso de restablecimiento de un sistema. Y según el estado actual de nuestros conocimientos, el segundo principio de la termodinámica es inviolable.
Así pues, podemos concluir que poco a poco se irá sepultando, de modo irrevocable, una cantidad cada vez mayor de la energía del Universo en forma de residuos de enanas blancas: desde el punto de vista que a nosotros nos interesa, ese será el fin del Universo. Dando marcha atrás en el tiempo, también podríamos concluir que a pesar de que antes que el Sol existían ya estrellas, tuvo que haber un momento —hace 25 evos, pongamos por caso— en que toda la energía del Universo se encontrara en forma de briznas dispersas de hidrógeno turbulento: desde nuestro punto de vista, ese sería el comienzo del Universo.
Según este razonamiento, el Universo acaso tenga una longitud de vida de unos 1.000 evos; y de este enorme (pero finito) lapso de tiempo ha transcurrido ya la cuadragésima parte.
Ahora bien, esta conclusión descansa en la hipótesis de que los principios primero y segundo de la termodinámica son válidos no sólo en la pequeña porción del espacio que nos ha sido dado inspeccionar, sino en todo punto del Universo; y no sólo en las circunstancias que el hombre ha podido presenciar, sino en unas condiciones cualesquiera.
Reteniendo en la memoria que la hipótesis de la validez de las leyes de la termodinámica no es indiscutible, persistamos en nuestro intento de averiguar si el Universo es infinito y eterno, o, por el contrario, finito y pasajero. A este fin conviene dejar por el momento las estrellas y centrar nuestra atención en las galaxias.

§. Clases de galaxias
Las primeras nociones que aparecieron acerca de la evolución de las estrellas nacieron del estudio de las diferentes propiedades de diversos tipos de estrellas. Dichas propiedades fueron derivadas casi por entero a partir de los espectros, toda vez que las estrellas en sí eran demasiado pequeñas para exhibir detalles estructurales.
El estudio de las diversas propiedades de distintos tipos de galaxias también permite deducir algunas nociones acerca de su evolución. Pero existe una diferencia, y es que las galaxias son mucho mayores que las estrellas. A pesar de que las galaxias distan mucho más de nuestro planeta que las estrellas de nuestra vecindad espacial inmediata, esas galaxias lejanas no aparecen a través del telescopio como simples puntos de luz: se manifiestan como manchas luminosas con formas peculiares, y miles de las más cercanas muestran incluso un detalle considerable.
Hubble registró las tres clases principales de galaxias: espirales, elipsoidales e irregulares. Sin embargo, consiguió mejorar esta clasificación, y en 1925 publicó otra, más detallada, que es la que se ha utilizado desde entonces. Las galaxias elipsoidales, por ejemplo, que carecen de brazos espirales y que se asemejan a cúmulos globulares muy distantes y de gran tamaño, difieren entre sí en el grado de aplastamiento. Unas son prácticamente esféricas (cabría llamarías «galaxias esferoidales»), otras son algo achatadas, otras más achatadas aún, etc. Hubble simbolizó todas las galaxias elipsoidales con la letra E y distinguió el grado de achatamiento por medio de números. EO representaba las galaxias esferoidales, mientras que las clases El a E7 simbolizaban grados de aplanamiento crecientes. Una galaxia E7 presenta un grado de aplanamiento bastante marcado, y sus extremos (vistos de canto) sobresalen en forma de puntas como si estuvieran a punto de convertirse en brazos espirales.
En cuanto a las galaxias espirales, Hubble distinguió dos tipos. En primer lugar estaba la galaxia espiral ordinaria cuyos brazos van conectados directamente al núcleo elipsoidal y empaquetados alrededor de éste, como en el caso de la galaxia de Andrómeda. Después estaban aquellas galaxias de cuyo núcleo, y arrancando de ambos lados de éste, parecían proyectarse hacia afuera sendas barras rectas de estrellas. A partir de ambos .extremos de las barras se extienden los brazos espirales. Este tipo recibe el nombre de «galaxias espirales barradas», y al parecer constituyen un 30% del número total de espirales.
Hubble simbolizó las espirales ordinarias con la letra S, y las espirales barradas con el signo SB. A continuación procedió a diferenciar las galaxias espirales de ambas clases de acuerdo con el grado de apretamiento o laxitud con que los brazos estuvieran empaquetados en torno al núcleo, utilizando a este efecto letras minúsculas: a para los brazos empaquetados de un modo muy apretado, y b y c para estructuras más laxas; de suerte que una galaxia espiral podía ser del tipo Sa, Sb o Se; o bien SBa, SBb o SBc en el caso de que se tratara de una espiral barrada.
La galaxia de Andrómeda está clasificada como Sb. Nuestra propia Galaxia ha sido considerada, por lo común, como similar a la de Andrómeda, clasificándola también con el símbolo Sb. Sin embargo, es posible que haya que introducir un cambio en este punto. Sobre la base de ciertas mediciones efectuadas en 1965 relativas al brillo de las estrellas próximas a nuestro núcleo galáctico se sugirió que éste era más pequeño de lo que hasta entonces se había creído. Su diámetro acaso no tenga más de 6.500 años-luz, la mitad del diámetro del núcleo de la galaxia de Andrómeda. Si el núcleo de nuestra Galaxia es efectivamente más pequeño de lo que se pensaba, y los brazos espirales son, por consiguiente, más prominentes y espaciados, nuestra Galaxia se parecería entonces más a la de Torbellino que a la de Andrómeda, y pertenecería, igual que la primera, a la clase Se.
Hubble dispuso todas estas formas en el orden progresivo siguiente:

tabla08.jpg

donde SO representa una forma hipotética con características intermedias entre las elipsoidales, espirales y espirales barradas.
Hubble nunca afirmó de un modo explícito que esta ordenación representara, en su opinión, un cambio evolutivo, pero al parecer así lo creía. La progresión gradual desde la forma esferoidal hasta la espiral laxa constituía ciertamente una hipótesis muy tentadora, y durante la década (más o menos) que siguió a 1925 las ideas que predominaron en punto a la evolución galáctica se asemejaron a una especie de hipótesis nebular laplaciana, pero a escala mucho mayor.
Imaginemos, de entrada, una cantidad de gas suficiente para formar, no ya una sola estrella, sino cien mil millones de ellas. Dentro de esta porción ingente de gas, que podríamos llamar protogalaxia, se operaron procesos que condujeron en último término a su condensación en miles de millones de estrellas. La protogalaxia dispondría en origen de cierta provisión de momento angular, y a medida que se condensara se iría achatando. Iniciaría su vida en forma de galaxia esferoidal, para luego aplanarse de un modo paulatino, pasando de EO a E7.
Conforme la galaxia en su totalidad continuara contrayéndose y ganando en compacidad, la rotación iría haciéndose más rápida y el proceso de aplanamiento más agudo, hasta llegar un momento en que —igual que ocurría con el sistema planetario y la nebulosa de Laplace— se desprenderían fragmentos de la zona ecuatorial. De este modo se formarían los brazos espirales, con o sin la constitución simultánea de una barra (ni Hubble ni ningún otro astrónomo ha sabido explicar la existencia de estas barras). Por otra parte, a medida que transcurriera el tiempo y la galaxia siguiera contrayéndose y adquiriendo una velocidad de rotación mayor, los brazos continuarían separándose del núcleo, de suerte que tanto las espirales como las espirales barradas pasarían por las fases a, b y c. Las galaxias irregulares acaso representen el estadio final de este esquema evolutivo.
Toda vez que las galaxias elípticas parecen ser especialmente grandes y las irregulares son, por lo común, pequeñas, nos vemos obligados a suponer que cuanto mayor es una galaxia, más despacio experimentará este proceso de desarrollo. Las galaxias de mayor tamaño se demorarían en la fase elíptica, mientras que las pequeñas pasarían por ella de un modo fugaz, camino de la etapa final irregular.
De ser correcto este esquema, la galaxia de Andrómeda, y con más razón aún nuestra propia Galaxia, son relativamente viejas y se hallan en un estadio muy avanzado del desarrollo evolutivo.

§. Poblaciones estelares
Sin embargo, hacia la década de 1940-49 aparecieron en escena una serie de nuevas concepciones. En 1942 se le presentó a Baade una oportunidad inmejorable. La ciudad de Los Angeles tuvo que ser oscurecida debido a los bombardeos de la Segunda Guerra Mundial, y esta circunstancia permitió obtener, con ayuda del telescopio de 100 pulgadas de Mount Wilson, una visión de la galaxia de Andrómeda mucho más clara que las que se habían podido conseguir hasta entonces.
Hasta aquellos momentos, Hubble y todos los astrónomos que le siguieron sólo habían conseguido distinguir estrellas sueltas localizadas en los brazos espirales. Baade, por el contrario, fue capaz de observar y fotografiar astros pertenecientes al núcleo de Andrómeda.
Una importante diferencia se puso de manifiesto. Las estrellas más brillantes de los brazos espirales eran gigantes blanco-azuladas, de gran tamaño y muy calientes, algo así como las estrellas más brillantes de la vecindad inmediata de nuestra Galaxia. Sin embargo, las estrellas más brillantes del núcleo de Andrómeda eran rojizas. En esta parte de la galaxia no aparecían por ningún lado estrellas blanco-azuladas.
Esta circunstancia parecía concordar con la información de carácter general proveniente de las fuentes espectrales. El espectro del núcleo de Andrómeda y los de aquellos otros núcleos galácticos que hubo ocasión de examinar, así como los espectros de las galaxias elipsoidales en general, solían ser de la clase espectral K. La luz sidérea media de tales regiones solía provenir de superficies más tenues y frías que la del Sol. El espectro general de los brazos espirales de Andrómeda y de otras galaxias se inclinaba en cambio por la clase espectral F. La luz sidérea media de tales regiones solía provenir de superficies más brillantes y más calientes que la del Sol.
Todo ocurría como si aquellas regiones donde las estrellas se concentraban muy juntas unas a otras —como en los cúmulos globulares, núcleos galácticos y galaxias elipsoidales en general— pertenecieran grosso modo a un tipo determinado que Baade llamó «Población II», mientras que las estrellas que estaban distribuidas de un modo más disperso, como ocurría sobre todo en los brazos espirales de las galaxias, perteneciesen, en líneas generales, a otro tipo que dicho astrónomo denominó «Población I».
Las estrellas de la Población II parecían estar distribuidas en una especie de halo esférico en torno al centro galáctico, mientras que las de la Población I estaban diseminadas, al parecer, en algo así como un disco hueco situado a lo largo del plano central de la Galaxia. Cabría, pues, denominarlas «estrellas del halo» y «estrellas del disco», respectivamente.
En líneas generales se puede decir que las estrellas de la Población II suelen ser serenas y uniformes, de tamaño entre moderado y pequeño y con cierta inclinación a ocupar regiones del espacio relativamente libres de gas y polvo. Entre las de la Población I, por el contrario, suele figurar cierto número de miembros bastante espectaculares y en conjunto exhiben una variedad muy amplia que incluye estrellas grandes de brillo y temperatura mucho más rabiosos que los de cualquiera de las estrellas de la Población II. Por otra parte, las poblaciones estelares del tipo I ocupan regiones del espacio relativamente ricas en gas y polvo.
Esta división en dos poblaciones (que desde entonces se ha complicado con el desglose ulterior de las Poblaciones I y II en varias subclases) suscitó nuevas cuestiones referentes a la evolución galáctica. El cúmulo de conocimientos que se fueron obteniendo acerca de la naturaleza de las reacciones nucleares en el interior del núcleo central de las estrellas parecía indicar que las estrellas grandes tenían una vida más efímera que las pequeñas, por lo cual era preciso considerar los miembros de la Población I como estrellas en trance de desvanecerse. Análisis más detallados demostraron que los propios brazos espirales tenían que ser de vida efímera, aunque hasta la fecha no se ha dado una explicación completamente satisfactoria de por qué, si los brazos espirales tienen una vida tan breve, existen tantas galaxias que los poseen.
En cualquier caso, existía el pensamiento de que los brazos espirales tenían que ser fenómenos temporales y que las galaxias propendían a perderlos y a convertirse en elípticas, y no a la inversa. Esto equivalía a invertir por completo el esquema evolutivo de Hubble.
Supongamos que las estrellas que en un principio nacieran de una protogalaxia constituyesen un sistema irregular, de suerte que la fase evolutiva más temprana fuese la de una galaxia irregular. En el centro de la protogalaxia, donde el polvo alcanza su mayor concentración, sería también donde las estrellas se formasen más rápida y abundantemente. La porción de gas y polvo disponible para cada estrella sería relativamente exigua, con lo cual las estrellas del centro poseerían un tamaño pequeño y exhibirían propiedades más bien uniformes. Una vez finalizado el proceso de formación, la cantidad de polvo y gas restante sería casi nula. Tales estrellas pertenecerían al tipo de Población II, muy ricas en hidrógeno y muy pobres en los átomos más complejos.
Por el contrario, en las afueras de la protogalaxia el polvo y el gas tenderían a poseer una distribución menos uniforme. La rotación general de la protogalaxia seguramente rasgaría el polvo y el gas en jirones, de modo que las estrellas propenderían a formarse en determinadas regiones, que resultaron ser brazos espirales luminosos. Debido a la desigual distribución del polvo y del gas, en unos lugares se formarían abundantes estrellas y en otros pocas; unas dispondrían de entrada de una porción muy pequeña de materia, mientras que otras poseerían desde el principio una cantidad mayor que el promedio. Como consecuencia de ello, la variedad de masas sería grande y los miembros mayores de este grupo de Población I poseerían un brillo y una temperatura notables.
Por otra parte, en los brazos espirales quedaría aún gran cantidad de gas y polvo, ya que, dada su posición sumamente alejada del centro, la distribución de esa materia sería demasiado dispersa para poder servir como núcleos de estrellas. A lo largo de billones de años, ese polvo y ese gas se irían condensando lentamente hasta que en último término fuesen capaces de convertirse en astros. Además, las brillantes y calientes estrellas de la Población I alcanzarían en el transcurso de su veloz evolución la fase de «muerte» y explotarían en forma de supernovas, suceso que vendría a enriquecer el polvo y gas de los brazos espirales con helio y otros átomos más complejos, de modo que las estrellas de la Población I que se formaran más tarde serían estrellas de la segunda generación, relativamente pobres en hidrógeno y ricas en átomos más complejos.
Así pues, la primera fase de la evolución galáctica, después de la galaxia irregular primitiva, sería una galaxia espiral de brazos muy sueltos.
Pero los brazos espirales son de vida relativamente efímera. El polvo y el gas se consumen en el proceso de formación de estrellas, las más brillantes de éstas se extinguen y el estado de los brazos progresa de un modo continuo desde una situación tipo Población I a otra tipo Población II. Además, a medida que la galaxia gira, los brazos espirales se ven arrastrados y se enrollan, por así decirlo, alrededor del núcleo en un abrazo cada vez más apretado, pasando de Sc a Sb y luego a Sa.
En un momento dado, los brazos espirales llegan a confundirse con el núcleo, su carácter de Población I se desvanece y queda constituida una galaxia elíptica achatada.
Las estrellas de una galaxia de esta especie, sometidas como están a una interacción gravitatoria mutua, van adquiriendo con el tiempo una distribución de movimientos cada vez más uniforme a lo largo y a lo ancho del conjunto: el grado de aplanamiento va disminuyendo hasta que, por último, se forma una galaxia esferoidal.
Mirando las cosas de este modo resultaría que nuestra Galaxia y la de Andrómeda no se encuentran en el estadio final de su evolución, sino en las primeras fases, siendo de hecho galaxias bastante jóvenes.
Este esquema inverso de la evolución galáctica tiene algunas observaciones a su favor. Postula una disminución constante de polvo y gas en las galaxias (lo cual parece razonable); las galaxias irregulares, como las Nubes de Magallanes, son gas y polvo en un 20-50%. Al parecer, la proporción de materias residuales que continúen es mayor que la de nuestra Galaxia (marcadamente espiral), mientras que las galaxias espirales son a su vez más «polvorientas» que las elípticas.
A fin de explicar el gran tamaño que caracteriza a tantas galaxias esferoidales cabría sugerir que las galaxias grandes (igual que las estrellas grandes) evolucionan más de prisa, y no más despacio. Las más grandes, sometidas como están a la influencia de un campo gravitatorio particularmente intenso, se condensan más pronto en estrellas, desarrollan antes brazos espirales en las regiones exteriores (más abundantes también en polvo) y arrastran con mayor prontitud los brazos hacia adentro, adoptando la forma redondeada que exhiben hoy día las gigantes galaxias esferoidales. Las galaxias menores se demorarían en la etapa espiral y las que fuesen aún más pequeñas poseerían una fase irregular (la más temprana) sumamente prolongada.
Por otra parte, también se ha pensado en la posibilidad de que ni siquiera haya existido una evolución en el sentido ordinario de esta expresión, es decir, un proceso en virtud del cual una galaxia de cierto tipo se convirtiera en otra de un tipo distinto. Según esta teoría, una vez que la galaxia adopta la forma de una estructura determinada y llena de estrellas, dicha estructura es inamovible, y la diferencia entre las distintas galaxias dependería por entero de diferencias inherentes a las protogalaxias originales, sobre todo de la cantidad de momento angular disponible.
Supongamos que una protogalaxia posee muy poco momento angular. Girará muy despacio y se aplanará de un modo no muy pronunciado, si es que llega a aplanarse. Escasa sería también la materia que se perdería como consecuencia del efecto centrífugo, de suerte que una protogalaxia de estas características retendría un tamaño máximo. Las estrellas que más tarde se formaran constituirían una galaxia esferoidal gigantesca.
Si la protogalaxia poseyera una provisión más abundante de momento angular, giraría con una velocidad mayor, se achataría perceptiblemente, experimentaría cierta fuga de materia en el ecuador y resultaría en una galaxia elipsoidal algo menor y más plana que la anterior. Los cambios cesarían de producirse en el momento en que se formasen las estrellas, y antes de que este proceso de formación congelase definitivamente la forma de la galaxia se registrarían grados variables de achatamiento, de acuerdo con la cantidad de momento angular presente. En general, cuanto más achatada la galaxia, tanto menor su tamaño.

27.jpg
Figura 27. Formación de las poblaciones estelares

Cuando la protogalaxia disfrutase de una cantidad particularmente grande de momento angular, un nuevo factor entraría en escena. Se empezarían a formar, pero no a un ritmo suficiente para eliminar todo el polvo y el gas antes de que el veloz movimiento de rotación lograra aplanar la proto- galaxia en un grado considerable. En resumen, la masa de gas y polvo iría adoptando una estructura plana en forma de disco, dejando tras sí un halo esférico o elipsoidal de estrellas. Estas estrellas rezagadas constituirían la Población estelar II.
El disco de gas sería lanzado hacia afuera, hacia las extremidades, y allí se concentraría; dentro de él se formarían las estrellas de la Población I. Así pues, la formación de las galaxias espirales y de las Poblaciones estelares tipo I sería puramente cuestión de la velocidad de giro de la protogalaxia original Sea cual fuere el esquema de evolución galáctica que adoptemos (es decir, ya elijamos la transición de protogalaxia a galaxia esferoidal y de ésta a galaxia espiral; o el de protogalaxia a espiral y esferoidal; o el de protogalaxia a espiral y esferoidal por vías independientes), queda sin despejar la incógnita de la edad de las galaxias en general, y, por consiguiente, de la edad del Universo.
¿El Universo entero se formó a partir de un sistema de protogalaxias que comenzaron a transformarse en galaxias hace aproximadamente 15 evos? Si es así, entonces el Universo en su conjunto tiene una edad de 15 evos.
¿O fue acaso que ciertas partes del Universo iniciaron el desarrollo galáctico en un momento dado, mientras que otras lo hicieron en otros momentos distintos? ¿Es así que la porción de Universo con la cual estamos más familiarizados tiene una edad de 15 evos, mientras que otras porciones son más viejas? ¿Existirán quizá vastas regiones del espacio, indetectables para nosotros, que se hallen todavía en la fase protogaláctica y que, efectivamente, no hayan nacido aún?
Tales preguntas no se pueden contestar apoyándonos sólo en consideraciones referentes a la evolución galáctica. Es preciso, por tanto, abordar el problema desde otra dirección.

Capítulo 13
La recesión de las galaxias

Contenido:
§. El desvío hacia el rojo de las galaxias
§. Relatividad
§. Cúmulos de galaxias
§. El desvío hacia el rojo de las galaxias
En 1912 se dio un paso clave en el estudio de las galaxias; por entonces aún no eran reconocidas como tales, sino que se pensaba que eran nebulosas espirales dentro de nuestro propio sistema de estrellas. En dicho año el astrónomo americano Vesto Melvin Slipher (1873-1969) midió la velocidad radial de lo que todavía se llamaba la nebulosa de Andrómeda y comprobó que ésta se aproximaba a nosotros (sus líneas espectrales mostraban un desvío hacia el violeta) a una velocidad de 200 kilómetros por segundo.
Fenómeno interesante, pero no insólito. Una velocidad radial de más de cien kilómetros por segundo era ciertamente grande, pero tampoco pasmosa. (De hecho, hoy día sabemos que parte de dicha velocidad no cabe atribuirla a un auténtico movimiento de aproximación de Andrómeda. Y es que da la casualidad de que la rotación de nuestra Galaxia arrastra al sistema solar en dirección a Andrómeda, igual que dentro de millones de años lo arrastrará alejándolo de ella. Eliminando el efecto de esta rotación y midiendo el movimiento de Andrómeda respecto al centro de nuestra Galaxia, resulta que aquélla sigue aproximándose a nosotros, pero sólo a una velocidad de 50 kilómetros por segundo.)
Hacia 1917 las cosas parecieron adquirir un tinte algo más desconcertante. Slipher había procedido a medir la velocidad radial de un total de quince nebulosas espirales. De antemano, y sobre una base puramente aleatoria, cabría esperar que la mitad de ellas estuviesen acercándose y la otra mitad alejándose de nosotros. Pero la realidad era que dos se aproximaban y trece se alejaban. Ahora bien, aunque esta no es la situación más probable, tampoco es imposible. (Si lanzamos al aire quince monedas, cabe esperar que obtengamos un número más o menos igual de caras y cruces; pero el azar es el azar, y podría ocurrir que obtuviéramos dos caras y trece cruces.)
Lo que sí resultaba desconcertante es que las velocidades radiales fuesen tan grandes. Las nebulosas que se alejaban de nuestra Galaxia lo hacían a una velocidad media de 640 kilómetros por segundo. Una velocidad de 200 kilómetros por segundo podía pasar, pero esos 640 kilómetros por segundo resultaban muy difíciles de aceptar. Era una velocidad muy superior a las velocidades radiales de las estrellas ordinarias.
Y cuantas más velocidades radiales medía Slipher dentro del grupo de nebulosas espirales, tanto más extrema se hacía la situación, pues todas las medidas indicaban un receso, nunca un acercamiento, y además con velocidades cada vez más pasmosas.
Cuando, hacia mediados de la década de 1920-29, Hubble demostró que los objetos que estaba observando Slipher eran en realidad galaxias localizadas muy lejos en las afueras de nuestra Vía Láctea, esta constatación vino en cierto modo a aliviar el problema. Afirmar que una clase concreta de objetos pertenecientes a nuestra Galaxia tuvieran velocidades radiales de recesión tan grandes, mientras todos los demás objetos poseían velocidades pequeñas que a menudo eran velocidades de aproximación, carecía completamente de sentido. Mas si, por el contrario, los objetos que exhibían velocidades poco usuales se hallaban también a distancias poco usuales, la situación tomaba un cariz más favorable. Si dos propiedades de un objeto son excepcionales, es posible que exista alguna conexión entre ambas y que una ayude a explicar la otra.
El trabajo sobre las velocidades radiales de las galaxias fue abordado más tarde por otro astrónomo americano, Milton La Salle Humason (n. 1891). Con un cuidado exquisito comenzó a tomar exposiciones fotográficas de días enteros de duración, con el fin de registrar los espectros de galaxias cada vez más tenues. Entre las galaxias más débiles descubrió velocidades de recesión que hacían palidecer a las observadas con anterioridad. En 1928 midió la velocidad radial de una galaxia llamada NGC 7619 y obtuvo un valor de 3.800 km., por segundo. Hacia 1936 estaba ya cronometrando velocidades de 40.000 km., por segundo —más de un octavo de la velocidad de la luz— y siempre se trataba de movimientos de recesión.
Estas velocidades eran tan grandes que los astrónomos se vieron obligados a poner en tela de juicio la naturaleza del desvío hacia el rojo (cuestión que se sigue planteando hoy día de vez en cuando). ¿Un desvío hacia el rojo implica necesariamente que la fuente luminosa se está alejando? ¿O existe alguna explicación alternativa que evite tener que aceptar velocidades tan descomunales?
¿Podría ser, por ejemplo, que la luz de las lejanas galaxias se viera enrojecida, a lo largo de sus prolongadas travesías, por el fino gas del espacio intergaláctico? Sin duda alguna; pero tal enrojecimiento de la luz no coincide en absoluto con el desvío hacia el rojo. Como consecuencia de esa difusión provocada por el gas se iría eliminando del espectro la luz de longitud de onda corta, y la nebulosa en su totalidad adquiriría un tinte rojizo; mas las líneas espectrales no se desplazarían. Y es precisamente a las líneas espectrales en particular no al color en general, a lo que se aplica la expresión «desvío hacia el rojo».
Otra sugerencia que se ha hecho en ocasiones es que la luz pierde de algún modo energía en el transcurso de su largo viaje procedente de las galaxias. Cuando la luz pierde energía, dicha pérdida se traduce en un aumento de la longitud de onda, con lo cual cabe esperar que en tales condiciones se obtenga un auténtico desvío hacia el rojo. De este modo, nos veríamos embaucados en la idea de que esas velocidades inauditas con que se alejan las galaxias se deben únicamente a que lo que nosotros estudiamos es «luz cansada».
Pero esta explicación no explica nada, porque nadie ha sido capaz hasta ahora de concebir un mecanismo al cual cupiera atribuir la pérdida de energía postulada. No se conoce razón alguna en virtud de la cual la luz deba perder energía al viajar durante mucho tiempo a través del vacío. Además, suponiendo que la luz perdiera energía de este modo, nadie sabría dar razón de su paradero. Por otra parte, si la luz se cansa al recorrer largas distancias, también debería cansarse, aunque en menor medida, sobre trayectos más cortos. A juzgar por el desvío hacia el rojo relacionado con las galaxias, el desvío producido por objetos más próximos que éstas debería ser también detectable, pero de hecho no lo es.
En resumen: en el momento presente, el desvío hada el rojo no puede explicarse sino suponiendo que las galaxias se alejan de nosotros. Ninguna otra explicación alternativa puede cuadrar con todos los hechos empíricos y tener a la vez algún sentido. Hasta que no se encuentre una explicación alternativa y satisfactoria, los astrónomos no tendrán otro remedio que seguir aceptando como un hecho la precipitada recesión de las galaxias.
Hubble, cuya labor discurría paralela a la de Humason, estaba naturalmente interesado en esta recesión de las galaxias. Hubble había estimado, en un trabajo minucioso y agotador, la distancia de las galaxias por diversos caminos. En el caso de las más próximas había recurrido a las Cefeidas (véase pág. 130). En cuanto a aquellas otras que por estar demasiado alejadas no exhibían siquiera Cefeidas, utilizó cualquier estrella que le fuese dado observar y supuso que se trataba de supergigantes de brillo similar al de S Doradus, por ejemplo. En el caso de aquellas galaxias cuya distancia era demasiado grande para poder discernir las estrellas por separado, Hubble se apoyó en la hipótesis de que, grosso modo, todas las galaxias poseen la misma luminosidad total y que cuanto más tenue es una galaxia, tanto mayor es su distancia. Es decir, aplicó la ley de la inversa del cuadrado. Una galaxia cuyo brillo fuese equivalente a un cuarto de! de otra, se encontraría dos veces más alejada que ésta; si su brillo era un noveno del de la segunda, su distancia sería tres veces superior, y así sucesivamente.
Basándose en tales criterios de distancia, Hubble utilizó en 1929 las velocidades calculadas por Slipher y Humason para demostrar que, en líneas generales, la velocidad de recesión de las galaxias aumentaba proporcionalmente con la distancia que nos separa de dichas galaxias. Una galaxia que se hallara dos veces más alejada de nosotros que otra retrocedería a una velocidad doble que la de ésta; si se hallara tres veces más alejada que la segunda, su velocidad de recesión sería también tres veces mayor, etc. Esta es la «ley de Hubble».
La característica más desconcertante de la ley de Hubble —la velocidad de recesión de una galaxia es proporcional a la distancia que la separa de nosotros— se puede expresar con una pregunta muy sencilla: ¿Por qué precisamente de nosotros?
¿Qué magia tenemos para que las galaxias nos rehúyan? ¿Y cómo saben las galaxias a qué distancia se hallan de nosotros para guiar sus pasos de un modo acorde?
Afortunadamente, el mismo razonamiento que explica la relación entre la velocidad de recesión y la distancia, explica también al instante por qué dicha distancia debe ser una distancia a partir de nosotros.
La explicación fue sugerida por la nueva concepción del Universo presentada por Einstein.

§. Relatividad
La nueva concepción estaba contenida en la teoría general de la relatividad, publicada por Einstein en 1915. En esta teoría Einstein planteaba un conjunto de «ecuaciones de campo» que describían las propiedades generales del Universo. A este fin supuso que el Universo, a pesar de que presentaba aquí y allá condensaciones de materia (planetas, estrellas, galaxias), podía ser estudiado con una precisión razonable considerándolo como si todo él estuviera lleno uniformemente de materia, es decir, como si la materia que de hecho existe en el Universo se hallara distribuida de un modo regular en toda su extensión. (Esto es análogo a lo que hicieron los hombres de la Antigüedad: suponer que a pesar de que la superficie terrestre es, a todas luces, desigual e irregular, tales irregularidades no son realmente importantes y que, en líneas generales, cabe considerarlas como distribuidas uniformemente; pensar, por tanto, que el mundo es plano. Esto mismo es lo que hacemos hoy día, con la única diferencia de que consideramos la Tierra como una esfera.)
Einstein supuso además que las propiedades del Universo eran, en líneas generales, las mismas en cualquier punto. Si aceptamos esta hipótesis como base, el número de posibles geometrías del Universo estaba estrictamente limitado. Con el fin de ver en qué se apoya esta afirmación, utilicemos la superficie de la Tierra como analogía.
Cualquiera que sea el punto de la Tierra donde nos encontremos, la situación es prácticamente la misma, en el sentido de que las direcciones arriba y abajo son idénticas, la atracción de la gravedad es más o menos igual y el horizonte se halla siempre a la misma distancia, independientemente de la dirección que consideremos (suponiendo que hacemos caso omiso de las irregularidades locales de la superficie y que consideramos toda la materia distribuida de modo uniforme).
Existen tres tipos de superficie que la Tierra pudiera tener y que resultarían en propiedades locales idénticas (de la especie que hemos indicado anteriormente) en todo punto. La Tierra podría ser plana, o esférica, o poseer una forma mucho menos común llamada «pseudoesférica». Los hombres de la Antigüedad supusieron que la superficie era plana porque esta era la forma más simple, pero las observaciones empíricas obligaron más tarde a inclinarse por la forma esférica.[xix]
La elección de la superficie esférica para la Tierra, en lugar de cualquiera de las otras formas, trae consigo una importante consecuencia geométrica. De las tres superficies, la esférica es la única finita. Una línea recta trazada sobre una superficie plana —o bien el equivalente de una línea recta trazada sobre una superficie pseudoesférica— se podría prolongar sin fin. Una recta trazada sobre una superficie esférica acabaría en cambio cerrándose sobre sí misma. Quiere decirse que si comenzamos en un punto determinado del Ecuador y empezamos a andar hacia el Este, llegará un momento en que regresaremos al punto de partida, a pesar de no haber cambiado nunca de dirección. Podemos caminar indefinidamente sin llegar nunca al «fin de la Tierra», pero estaremos repitiendo una y otra vez el mismo recorrido. La superficie de una esfera es finita, pero ilimitada.
La misma situación puede aplicarse al Universo en su conjunto, con la salvedad de que entonces se trataría de un volumen y no de una superficie, lo cual hace que el problema resulte más difícil de visualizar.
Consideremos, sin embargo, un rayo de luz que viaje a través del Universo. A primera vista parece lógico pensar que un rayo de luz que atraviese un vacío perfecto y que no tropiece con campos de energía que interfieran con él, debiera viajar en una línea absolutamente recta para siempre, alejándose de su fuente a una velocidad constante. Esto es equivalente a decir que el Universo tiene aquellas propiedades que uno describiría por medio de la geometría euclidiana. Así pues, diríamos que es un «Universo plano», a pesar de que no se trata de una superficie, sino de un volumen.
Ahora bien, ¿el Universo es realmente euclidiano o es esto una mera ilusión producida por el hecho de que sólo podamos ver una porción muy pequeña de él? Si observamos una porción exigua de la superficie terrestre también nos da la sensación de ser plana, y sólo mediante cálculos muy delicados podemos llegar a saber que en realidad se curva suavemente en todas direcciones.
Pero si el Universo no es euclidiano ¿qué podrá ser entonces? Suponiendo que sus propiedades generales son idénticas en todos sus puntos, dispondremos de las mismas posibilidades que teníamos en el caso de la superficie terrestre, siempre que consideremos el problema en función de un rayo de luz. Dos son, pues, las variantes a la hipótesis «plana», correspondientes a dos variedades de un Universo no-euclidiano.
El rayo de luz puede describir un grandioso círculo, como si se moviera sobre la superficie de una esfera. La geometría del Universo correspondería entonces a un sistema que fue descrito en origen por el matemático alemán Georg Friedrich Bernhard Riemann (1826-1866) en el año 1854. Un universo riemanniano no debe ser considerado simplemente como un Universo esférico, pues es mucho más complicado. Es un Universo en el cual el espacio tridimensional mismo se curva en todas direcciones con una curvatura constante. El Universo sería la contrapartida tetradimensional de una esfera: una «hiperesfera», algo muy difícil de representarse o de imaginar, acostumbrados como estamos a pensar en tres dimensiones.
El rayo de luz también podría moverse como si se desplazara sobre una superficie pseudoesférica en todas las direcciones. La geometría del Universo correspondería entonces a un sistema descrito en origen por el matemático ruso Nikolai Ivanovich Lobachewsky[xx] (1793-1856) en el año 1829.
El Universo riemanniano difiere del euclidiano y del lobachevskiano en que es finito. Un rayo de luz que viaje a través de un Universo riemanniano se curvaría y regresaría a su punto de partida. Podrá seguir viajando sin fin, pero sólo a costa de repetir una y otra vez su recorrido, como ocurría en el ejemplo del periplo a lo largo del ecuador terrestre. Dicho con otras palabras, el Universo riemanniano es finito pero ilimitado.
¿Cómo haremos para elegir entre estas tres posibilidades? Si fuésemos capaces de hacer que un rayo de luz viajase una distancia suficientemente larga, quizá podríamos comprobar si efectivamente la trayectoria era recta, o si se desviaba de la línea recta, ya fuese de una manera riemanniana o lobachevskiana. El Universo se aparta tan poco del prototipo euclidiano (suponiendo que se aparte siquiera) que sería muy difícil trabajar con un rayo de luz lo bastante prolongado como para servir a este propósito. Y lo que es peor: nuestra busca en pos de la «rectitud» se vería obstaculizada por el hecho de que nuestro criterio de rectitud es la propia luz.
En efecto, si tenemos una larga regla graduada y queremos saber si es recta o no, podemos sostenerla en prolongación con uno de los ojos y mirar a lo largo de ella. Si la regla no es recta, observaremos que ésta se hunde en ciertos lugares por debajo de la línea visual, o que sobresale por encima de ella, o que se curva a un lado o a otro; de este modo, es posible detectar al instante desviaciones mínimas. Pero lo que estamos haciendo en este caso es suponer que los rayos de luz viajan en líneas completamente rectas. Esta hipótesis relativa a la rectitud de la luz es tan absoluta que cuando la luz se refleja o se refracta, nada podrá convencer a nuestro sentido de la vista de que la rectitud ha sido violada: nos vemosdetrás del espejo; tenemos la sensación de que un bastón sumergido en el agua se dobla bruscamente en el punto de contacto con la superficie, etc.
La decisión entre los posibles Universos hay que tomarla, por consiguiente, de un modo más indirecto. Einstein eligió el Universo riemanniano y para 1917 había deducido ya sus consecuencias, tratando de hallar alguna que se apartase sensiblemente de las correspondientes euclidianas o lobachevskianas. (Esto cabe considerarlo como el comienzo de la moderna ciencia de la cosmología.) Einstein demostró, por ejemplo, que en un Universo riemanniano la luz perdería energía al desplazarse contra la fuerza de un campo gravitatorio: el «desvío de Einstein» que este físico predijo fue detectado en la luz radiada por Sirio B. Asimismo predijo que los rayos luminosos se curvarían al pasar junto a un objeto masivo, con lo cual parecería que las estrellas cambian ligeramente de posición cuando la luz emitida por ellas pasa al lado del Sol. Durante el eclipse total de 1919 se midió la posición de las estrellas «cercanas» al Sol, comparándola luego con la posición que ocupaban cuando el Sol no se hallaba cerca, y de nuevo se comprobó que Einstein tenía razón. La teoría general de la relatividad de Einstein ha salido airosa de todas las pruebas a las que ha sido sometida. No existe una sola observación que la contradiga abiertamente. Hoy día los astrónomos aceptan con carácter general que el Universo en conjunto obedece a una geometría riemanniana, aun cuando esta geometría se desvía tan poco de la euclidiana que en condiciones ordinarias la geometría euclidiana resulta perfectamente satisfactoria.
Por otra parte, Einstein concebía este universo riemanniano como estático, es decir, que no experimentaba cambios globales. Sus componentes individuales se mueven de un lado para otro, pero si fuese posible distribuir uniformemente toda la materia, su densidad global permanecería constante. Toda vez que, según la concepción de Einstein, la curvatura del Universo (la medida en que era riemanniano) dependía de la densidad, un rayo de luz libre de toda influencia exterior viajaría en un círculo perfecto.
Sin embargo, el astrónomo holandés Willem de Sitter (1872-1934), que había sido uno de los primeros en aceptar la teoría de la relatividad, sugirió en 1917 otro diseño del Universo que también se ajustaba a las ecuaciones de campo de Einstein. Se trataba de un Universo vacío y en continua expansión, lo cual venía a significar que la curvatura del espacio se hacía cada vez menos marcada. El Universo era riemanniano, pero cada día se aproximaba más a uno de tipo euclidiano (límite que alcanzaría cuando la expansión se hiciese infinita). En el modelo del Universo de de Sitter, un rayo luminoso no seguiría una circunferencia, sino una espiral en continua expansión.
Por otra parte, supongamos que introdujésemos (mentalmente) dos partículas en el Universo en expansión de de Sitter. Las dos partículas se alejarían al instante y seguirían separándose a medida que el espacio que media entre ellas se fuese expandiendo más y más.
Si en vez de dos partículas dispersáramos un gran número de ellas a lo largo y a lo ancho de este Universo, la expansión general se traduciría en un aumento de la distancia entre cualesquiera dos partículas. Si la separación entre una partícula determinada y su vecina más próxima era de 1 año-luz al comienzo, dicha distancia sería de 2 años-luz al cabo de cierto tiempo, de 3 años- luz algo más tarde, etc.
Supongamos ahora que sobre una de esas partículas viaja un observador encargado de vigilar a las demás. En una dirección concreta habría, por ejemplo, una partícula a 1 año-luz de distancia, otra algo más allá a 2 años-luz, una tercera a 3 años-luz, etc. Al cabo de un siglo, pongamos por caso, la distancia entre cualesquiera dos partículas vecinas habrá aumentado hasta dos años-luz. Para entonces, nuestro observador, sentado en su partícula y mirando en la misma dirección que antes, vería que la partícula más cercana se halla a 2 años-luz, y así sucesivamente.
En ese caso, la partícula más próxima se ha movido de 1 año-luz a 2 años-luz, alejándose a una velocidad de 1 año-luz por siglo. La segunda partícula se ha movido de una distancia de 2 a otra de 4 años-luz, alejándose con una velocidad de 2 años-luz por siglo. La tercera se ha desplazado de 3 a 6 años-luz, alejándose a una velocidad de 3 años-luz por siglo.
Todas las partículas que ve el observador en una dirección particular se estarán alejando de él y además a una velocidad proporcional a su distancia. Naturalmente, esto es cierto cualquiera que sea la dirección en que se mire ¿Quiere decir esto que la partícula del observador sea una partícula especial? En absoluto, pues lo mismo ocurriría con cualquier otra. El efecto sería idéntico. Todas y cada una de las partículas de un universo de esta especie se estarán alejandode todas y cada una de las demás partículas con una velocidad proporcional a la distancia que separa a ambas.
Desde un punto de vista teórico, el Universo en expansión de de Sitter parecía bastante superior al Universo estático de Einstein. Esta superioridad se vio fortalecida aún más en 1922 a manos del astrónomo ruso Alexander Friedman, quien aplicó dicha teoría a un Universo no vacío. Más tarde, en el año 1930, Eddington consiguió demostrar que aun en el caso de que fuese lícito suponer que el Universo estático de Einstein existe, tal Universo sería inestable, igual que un cono colocado sobre su vértice. Si por cualquier razón se empezara a expandir, aunque fuese muy ligeramente, seguiría expandiéndose indefinidamente; del mismo modo que si comenzara a contraerse, continuaría haciéndolo indefinidamente.

§. Cúmulos de galaxias
Así pues, la ley de Hubble parece indicar (en función del Universo real) que el modelo teórico de de Sitter de un Universo en expansión es correcto. Las galaxias se alejan unas de otras no porque cada una de ellas se encuentre en movimiento, sino debido a que el espacio en su totalidad se está expandiendo. Como resultado de esta expansión, la velocidad de recesión de una galaxia particular es proporcional a la distancia que la separa de nosotros. Por otra parte, el hecho de que nuestra Galaxia parezca constituir el punto central de esta fuga universal se debe únicamente a que observamos el Universo precisamente desde ese punto. Si nos encontráramos en la galaxia de Andrómeda, o en cualquier otra, observaríamos el mismo fenómeno, y la galaxia en que nos hallásemos parecería constituir el punto central.
Naturalmente, cabe ahora argüir que si el Universo se encuentra de hecho en proceso de expansión, entonces todas las galaxias, sin excepción, deberían alejarse de las demás, lo cual es casi cierto, pero no del todo, y con «casi cierto» no se gana ningún premio. Por ejemplo, la galaxia de Andrómeda no se aleja de nosotros, sino que se aproxima. Cierto que a una velocidad muy lenta, pero ello no quita para que se trate de un movimiento de aproximación. Esto parece dar al traste con la idea de un Universo en expansión.
En realidad no es así. Al presentar un modelo del Universo, por fuerza hay que hacer hipótesis simplificadoras, pues de otro modo las complejidades del modelo adquieren tales proporciones que impiden analizarlas o describirlas. En el modelo de de Sitter, por ejemplo, se supone que las partículas de prueba no ejercen ninguna fuerza mutua, sino que se dejan arrastrar por el movimiento expansivo del Universo sin oponer resistencia.
Pero en realidad esto no es así. En el Universo existen fuerzas de gran alcance capaces de hacerse notar a grandes distancias en el momento que se introduce la materia. Estas fuerzas que actúan a grandes distancias son de dos tipos. Existen campos electromagnéticos y campos gravitatorios. El campo electromagnético da origen a fuerzas de dos clases: una atractiva y otra repulsiva; a gran escala ambos efectos se compensan. Así pues, es posible ignorar el campo electromagnético cuando nos ocupemos del Universo en su totalidad.
No sucede lo mismo con el campo gravitatorio. Este da lugar a un único tipo de fuerza, que es atractiva. Dos objetos cualesquiera localizados en el Universo —incluso en un Universo en expansión— se atraen mutuamente[xxi] . Cuanto más próximos se hallen, tanto más fuerte será la atracción gravitatoria mutua y tanto más probable será que los dos se aferren uno al otro, por así decirlo, en contra de la influencia disgregadora de la expansión del Universo.
El Universo en expansión no separa, por ejemplo, los distintos componentes del sistema solar, ni aleja unas de otras las diversas estrellas de una misma galaxia. Dicha expansión no bastará tampoco para separar a dos o más galaxias que se hallen suficientemente próximas unas de otras para estar atrapadas en las redes de un campo gravitatorio mutuo suficientemente fuerte.
En resumen, las «partículas independientes» que se disgregan en un Universo en expansión no son necesariamente, en nuestro Universo real, galaxias individuales, sino grupos particulares o cúmulos de galaxias.
No cabe duda que tales cúmulos existen. Se conocen varios casos en que dos o más galaxias interaccionan de un modo patente, están encerradas dentro de halos comunes o se hallan conectadas por medio de hilos luminosos. La causa de la interacción puede ser gravitatoria o electromagnética, pero el caso es que tal interacción existe; en consecuencia, resulta muy lógico tratar esas galaxias como una unidad, hablando desde el punto de vista general del Universo.
Nuestra propia Galaxia tiene firmemente en su puño, en calidad de galaxias satélites, a las dos Nubes de Magallanes (existen pruebas incluso de que entre éstas y nuestra Galaxia flotan minúsculas briznas de gas) y no es probable que estas Nubes se vean separadas de nosotros como resultado de la expansión del Universo. De igual modo, la galaxia de Andrómeda (M31) posee dos pequeñas galaxias (M31 y M33) en calidad de satélites.
Dando un paso más es posible considerar la galaxia de Andrómeda y la nuestra propia como los dos miembros gigantes de un grupo compuesto en total por unos doce miembros. Este grupo es el denominado «Grupo Local», y no cabe duda que mantendrá su identidad —al menos durante un período bastante largo— en contra de la fuerza expansiva del Universo.
Los movimientos de las galaxias del Grupo Local no reflejan la expansión general del Universo, sino más bien las fuerzas gravitatorias locales. Esta es la razón de que la galaxia de Andrómeda se aproxime (al menos hasta ahora) hacia nosotros.
El número de cúmulos de galaxias visibles en el cielo asciende a centenares. Y se trata evidentemente de cúmulos, porque los distintos miembros se hallan muy cerca unos de otros en el espacio y porque todos los miembros mayores exhiben una luminosidad similar. Algunos cúmulos son enormes. Existe uno en la constelación Coma Berenices, a una distancia de 120.000.000 de años-luz aproximadamente, que está compuesto de unas 10.000 galaxias.

28.jpg
Figura 28. Grupo local

Tales cúmulos resultan de extrema utilidad a la hora de estimar distancias. Si se estudian las galaxias una a una, no es del todo lícito suponer que el grado de tenuidad viene determinado exclusivamente por la distancia, pues existen galaxias gigantes y galaxias enanas, igual que existen estrellas gigantes y estrellas enanas. La galaxia de Andrómeda y sus dos galaxias satélites se encuentran a la misma distancia de nosotros, y sin embargo la primera es mucho más brillante que cualquiera de las segundas, debido sencillamente a que aquélla es una gigante mientras que éstas son enanas.
Cabría argüir, desde luego, que a la larga tales diferencias de tamaño se compensan y que, considerando la situación de un modo global y desde un punto de vista estadístico no demasiado severo, la tenuidad puede tomarse como proporcional a la distancia. Esto es cierto, pero como consecuencia de ello la ecuación general tenuidad-distancia se ve afectada entonces de irregularidades.
En cambio, tratándose de cúmulos se puede suponer que los miembros más brillantes son galaxias gigantes equivalentes a la de Andrómeda o a la nuestra propia, y que, por consiguiente, poseen una luminosidad total equiparable a una magnitud absoluta de -19 ó -20. Seguirá existiendo la posibilidad de que surjan diferencias o irregularidades entre un cúmulo y otro, pero, según la opinión de los astrónomos, éstas serán mucho más pequeñas que las que aparecerían si se trabajara con galaxias individuales.
Así pues, los astrónomos estiman más seguro juzgar la distancia de los cúmulos de galaxias a partir únicamente de la tenuidad, pasando luego a comparar dicha distancia con el valor del desvío hacia el rojo con el fin de comprobar si la ley de Hubble se cumple (de hecho se cumple). Haciendo uso de este método se ha estimado que cierto cúmulo de galaxias localizado en la constelación Virgo se encuentra quince veces más alejado que la galaxia de Andrómeda; otros cúmulos se hallan a una distancia casi mil veces superior a la de Andrómeda.

Capítulo 14
El universo observable

Contenido:
§. De nuevo la Paradoja de Olbers
§. La contante de Huble
§. Revisión de la Escala Cefeida
§. De nuevo la Paradoja de Olbers
La escala del Universo es tan descomunal que a su lado empalidece incluso la distancia de las galaxias más próximas, tal como la de Andrómeda. Cuando se determinó por primera vez la distancia de la galaxia de Andrómeda y empezaron a barajarse cifras de «cientos de miles de años-luz», parecía que la imaginación no podía ya dar más de sí. Sin embargo, al cabo de una década, más o menos, hubo que convencerse de que Andrómeda se hallaba, como quien dice, a la vuelta de la esquina. Tanto es así que forma parte, como ya hemos dicho, del Grupo Local, de un sistema al cual también nosotros pertenecemos.
De nuevo nos vemos obligados a preguntarnos dónde está el fin. Una y otra vez el hombre se ha visto precisado a ampliar su visión del Universo con el fin de dar cabida a grupos cada vez mayores. Alrededor de una estrella se agrupan pequeños objetos no luminosos para formar un sistema planetario. Las estrellas se apiñan a su vez para constituir un sistema multiestelar simple, o cúmulos abiertos de mayor tamaño, o incluso cúmulos globulares aún más grandes, o bien galaxias que superan en magnitud a todos los anteriores. Las galaxias se agrupan para formar cúmulos de galaxias. ¿Es posible que éstos se asocien a un nivel todavía superior y formen lo que cabría llamar cúmulos de cúmulos de galaxias? De Vaucouleurs opina que ello es posible, que hay indicios de que acaso exista una «supergalaxia» de la cual el Grupo Local no constituya sino una pieza muy pequeña. Si el análisis de este astrónomo es correcto, significaría que nos encontramos a decenas de millones de años-luz del centro de dicha supergalaxia; y más allá de ésta, en cualquier dirección, existirían otras supergalaxias.
¿Y no podría haber cúmulos de supergalaxias y cúmulos de cúmulos de supergalaxias, etc.? ¿Dónde estaría el límite? ¿Tiene que existir necesariamente un fin? ¿No será que nos encontramos ante un Universo infinito? Un sistema tal compuesto por una secuencia interminable de cúmulos de cúmulos recibe el nombre de «Universo jerarquía» y fue sugerido en origen por el astrónomo sueco Carl Wilhelm Ludwig Charlier (1862-1934).
Ahora bien, no olvidemos que si aceptamos la teoría de la relatividad de Einstein, entonces su Universo riemanniano debe tener un volumen finito. Aun hallándose en proceso de expansión, ese volumen finito que se halla en continuo crecimiento tiene que permanecer finito.
Y sin embargo, a veces se argumenta que aunque el Universo posea un volumen finito, podría ser capaz de albergar un número infinito de galaxias. En ese caso, el sistema de cúmulos de cúmulos de cúmulos de cúmulos de galaxias puede continuar, sin tasa, adquiriendo un grado cada vez mayor de complejidad.
Pero si estamos dispuestos a considerar la posibilidad de un número infinito de galaxias, ¿no desembocaremos de nuevo en la paradoja de Olbers?. La existencia de un número infinito de galaxias en cualquier dirección ¿no suministraría a la Tierra una cantidad infinita de luz? Y el hecho de que la Tierra no recibe una cantidad infinita de luz ¿no significa que el número de galaxias tiene que ser finito?

29.jpg
Figura 29. Supergalaxias

En efecto, si el Universo riemanniano fuese estático, como sugiriera Einstein en principio, habría que concluir que el número de galaxias es finito. En un Universo estático, el razonamiento que más adelante expondremos en favor de la posibilidad de un número infinito de galaxias no sería válido. En un Universo de esas características, tanto el volumen como el número de galaxias serían finitos y la paradoja de Olbers no plantearía ningún problema.
Mas, al parecer, vivimos en un Universo en expansión, y en él sípuede valer el argumento que aboga por un número infinito de galaxias. ¿Qué hacer entonces? ¿Cómo nos deshacemos del maleficio de la paradoja de Olbers?
En un Universo en expansión en el que las galaxias se alejan constantemente unas de otras existe un nuevo factor a tener en cuenta, un factor que se hallaría ausente si el Universo fuese estático y las galaxias se mantuvieran a distancias constantes (por término medio). Ese nuevo factor es el desvío hacia el rojo.
En un Universo en expansión, la luz emitida por las galaxias se debilita y atenúa por causa del desvío hacia el rojo. Cuanto más lejana es la galaxia, tanto mayor es dicho desvío y tanto más pronunciado es el debilitamiento de la energía total de radiación que llega hasta nosotros.
Teniendo en cuenta este debilitamiento constante de la radiación que llega hasta nosotros desde distancias cada vez más grandes, se puede demostrar que la cantidad total de radiación que incide sobre la Tierra tiende a cierto valor finito, que, por lo demás, tampoco es excesivamente grande, aun en la hipótesis de que el número de galaxias sea infinitamente grande. La paradoja de Olbers no constituye obstáculo alguno para el Universo infinito (la infinitud se refiere aquí al número de galaxias) siempre que dicho Universo se encuentre en expansión.
Esto quizá suene imposible. El lector dirá que si cada una de las galaxias de un conjunto infinito contribuye con su granito de radiación, la suma total tendrá que ser infinita, independientemente de la pequeñez de esa contribución. Esto equivale a decir que la suma de una serie infinita de números tiene que ser infinita, por pequeños que sean los números de la serie.
Razonamiento que seguramente parece muy lógico, pero que no deja de ser erróneo, como puede demostrarse fácilmente.
Consideremos la siguiente sucesión de números: 1, 1/2, 1/4, 1/8, 1/16, 1/32, 1/64... Cada número es la mitad del anterior, y la serie está compuesta de un número infinito de elementos. Por muchos términos que escribamos, la serie se puede prolongar aún más escribiendo la mitad del último número, luego la mitad de éste, etc.
Cabría suponer entonces que la suma de una serie infinita como ésta ha de ser infinita; pero intentémoslo. El primer número por sí sólo es 1; la suma de los dos primeros números es 13/4 la suma de los tres primeros es 1 3/4; la suma de los cuatro primeros es 17/8. Continuando esta secuencia de sumas, el lector se convencerá bien pronto de que aunque la suma aumenta continuamente a medida que se añaden más y más miembros, nunca llega a 2. Se acerca cada vez más al valor, pero no llega a alcanzarlo. Se dice que la suma de la serie l + 1/2 + 1/4 + 1/8 + 1/16+ 1/32+ 1/64+... tiende a 2. Este es un ejemplo de una «serie convergente»: una serie con un número infinito de términos, pero cuya suma es finita.
En la descripción original de la paradoja de Olbers señalamos que en el caso de un Universo infinito del tipo que Olbers concebía, cada una de las capas del espacio suministra a la Tierra una cantidad igual de luz. Si la luz proveniente de una de las capas se toma igual a 1, entonces la luz total de todas las capas es 1 + 1 +1 + 1... y así sucesivamente hasta siempre. Esta es una «serie divergente» y su suma es infinita. Esta suma infinita constituye precisamente el meollo de la paradoja.
Ahora bien, si tenemos en cuenta el desvío al rojo, vemos que cada capa (progresando de dentro afuera) suministra menos luz que la anterior. La serie correspondiente converge y proporciona una suma finita. En el Universo riemanniano de Einstein podemos olvidarnos de la paradoja de Olbers, pues no supone ningún problema.
Mas ahora se plantea otra cuestión. Si estamos dispuestos a considerar el desvío hacia el rojo y el consiguiente debilitamiento progresivo de la energía de radiación de galaxias cada vez más distantes, deberemos preguntarnos, no qué tamaño tiene el Universo, sino qué porción de él nos es dado observar.
El hombre ha dado por supuesto que perfeccionando sus instrumentos y refinando sus técnicas —es decir, si construye telescopios mayores y espectroscopios más perfectos y cámaras fotográficas más delicadas— estará en condiciones de escudriñar lugares cada vez más recónditos del espacio. Pero ¿es cierto esto? Si la radiación de las lejanas galaxias se atenúa progresivamente, ¿no existirá un punto a partir del cual la radiación se debilite tanto que ningún instrumento, por muy próximo que se halle a la perfección, pueda detectarla?
Si tal punto existiera, el tamaño del Universo que nos es dado observar poseería, en principio, un límite; algo así como una frontera exterior más allá de la cual sería imposible escrutar. Esta frontera acotaría lo que cabe denominar el «Universo observable».
Con el fin de averiguar si tal límite inviolable existe y dónde podría estar localizado, volvamos a la ley de Hubble.

§. La constante de Hubble
La ley de Hubble afirma que la velocidad de recesión de una galaxia es directamente proporcional a la distancia que la separa de nosotros. Quiere decirse que si multiplicamos dicha distancia por cierta cantidad (la «constante de Hubble»), el producto será igual a la velocidad de recesión.
Expresemos la distancia en millones de años-luz y llamémosla D. La velocidad de recesión podemos representarla en kilómetros por segundo y llamarla V. Por último, sea k la constante de proporcionalidad. La ley de Hubble se puede expresar entonces de la manera siguiente:

V = kD ,

donde kD es el modo matemático de decir que hay que multiplicark por D.
Puesto que todo depende del valor de k, transformemos la ecuación anterior, utilizando técnicas algebraicas muy simples:

k =V/D,

lo cual nos dice que k debe ser igual a la velocidad de recesión de una galaxia (en kilómetros por segundo) dividida por su distancia (en millones de años-luz). El valor de k se podrá obtener siempre que dispongamos de datos precisos y fiables para la distancia y la velocidad de recesión de una sola galaxia o grupo de galaxias.
Si Hubble está en lo cierto, el valor de k así obtenido será válido para todas las galaxias.
Consideremos, por ejemplo, el cúmulo de Virgo. El desvío hacia el rojo de sus componentes revela que dicho cúmulo se aleja de nosotros a una velocidad de 1.142 kilómetros por segundo. Comparando el brillo de las galaxias más brillantes del cúmulo con el de la galaxia de Andrómeda, llegamos a la conclusión de que aquél se halla 16,5 veces más alejado que Andrómeda. Por consiguiente, si la galaxia de Andrómeda se encuentra a 800.000 años-luz de nosotros (de acuerdo con la relación período-luminosidad de las Cefeidas, el cúmulo de Virgo tiene que hallarse a 16,5´800.000 ó 13.000.000 de años-luz de distancia, aproximadamente.
Para hallar ahora el valor de k, tenemos que dividir la velocidad de recesión de Virgo (en kilómetros por segundo) por la distancia que lo separa de nosotros (en millones de años-luz). El resultado es k =1142/13, o aproximadamente 88.
Así pues, cabe esperar que una galaxia que se halle a 1.000.000 de años-luz de distancia se aleje de nosotros a una velocidad de 88 km. por segundo; que otra que se encuentre a 2.000.000 de años-luz huya de nosotros a 176 km. por segundo; que una tercera que se halle a 10.000.000 de años-luz se aleje a 880 km. por segundo, etcétera.
¿Tendrá este proceso algún límite, suponiendo, claro está, que la ley de Hubble sea exacta para cualquier distancia? Desde el punto de vista matemático no existe límite alguno. Una galaxia que se encuentre a 1.000 millones de años-luz se alejaría a una velocidad de 88.000 kilómetros por segundo; otra que se halle a 1.000.000 de millones de años-luz retrocedería a 88.000.000 de kilómetros por segundo, y así sucesivamente.
Ahora bien, desde el punto de vista físico hay un límite. La «teoría especial de la relatividad» de Einstein (propuesta en 1905, diez años antes que la teoría general, más comprehensiva que aquélla) exige suponer que la máxima velocidad que se puede medir en relación con uno mismo es la velocidad de la luz en el vacío, la cual equivale a 229.776 km. por segundo.
Existe una distancia determinada a la cual cualquier galaxia tiene que alejarse de nosotros con una velocidad igual a la que acabamos de indicar; según el punto de vista de la relatividad, esa distancia representa un límite absoluto e insuperable. Es imposible trabajar con ningún objeto que se mueva más deprisa que la luz en el vacío, y por consiguiente con ninguno que se halle a una distancia superior a ese límite.
Cabría aducir toda clase de argumentos acerca de si existen o no galaxias más allá de este límite, pero no harían al caso: es absolutamente indiferente que existan o no. Pues el quid de la cuestión es que una vez que alcanzamos un punto del espacio tan alejado de nosotros que una galaxia situada allí retroceda a una velocidad igual a la de la luz en el vacío, la luz de dicha galaxia no podrá llegar hasta nosotros. El efecto Doppler-Fizeau estira infinitamente cada una de las longitudes de onda y reduce por tanto su energía a cero. Nada puede llegar hasta nosotros desde una galaxia tan distante. Ni luz, ni radiación de ninguna clase, ni neutrinos, ni influencia gravitatoria. Nada.
Aun en el caso de que fuese posible concebir algún objeto más allá de este límite de distancia, sería algo que jamás lograríamos detectar, y no por causa de la imperfección de nuestros instrumentos, sino debido a la naturaleza y estructura del Universo. En consecuencia, podemos ahorrarnos el hablar de un Universo de dimensiones infinitas. Lo que sí requiere consideración es el Universo observable, finito tanto en diámetro como en volumen.
Sólo queda por averiguar el diámetro de ese Universo observable. Para ello, partamos de la ecuación matemática que representa la ley de Hubble, V — kD, y despejemos D (distancia a nosotros). La ecuación se transforma en la siguiente:

D = V/k

Lo que buscamos es la distancia correspondiente a una velocidad de recesión igual a la velocidad de la luz. Igualamos, por tanto, V a la velocidad de la luz (299.776 kilómetros por segundo) y sustituimos k por 88, que es su valor. D (en millones de años-luz) equivale entonces a 299.776/88 ó 3.400. Esto significa que el límite del Universo observable se halla a 3.400 millones de años-luz de nosotros en todas direcciones.
Expresando lo mismo de un modo más conciso: el Universo observable es, en apariencia, una esfera con centro en nosotros mismos y un radio de 3.400 millones de años-luz (o un diámetro de 6.800 años-luz). Así pues, de acuerdo con este análisis el límite del Universo observable se encuentra 4.250 veces más alejado de nosotros que la galaxia de Andrómeda.
Dimensiones descomunales, no cabe duda, y que parecen ciertamente constituir un clímax satisfactorio para esa larga búsqueda del hombre en pos de los límites del Universo, búsqueda que se abrió con la consideración del horizonte terrestre a pocos kilómetros de distancia.
Y sin embargo, había problemas. Algo no funcionaba en la escala del Universo tal y como fue calculada hacia los años cuarenta basándose en la constante de Hubble.

§. Revisión de la escala Cefeida
Las distancias calculadas para las galaxias muy lejanas estaban basadas en la comparación de su brillo aparente con el de las más próximas, cuya distancia, a su vez, había sido determinada mediante la escala Cefeida. Y de entre los valores calculados para las más cercanas, el que parecía más cierto y fiable era el correspondiente a la galaxia de Andrómeda. Si la distancia de Andrómeda era errónea, entonces todas las distancias estarían equivocadas: la escala entera del Universo sería falsa.
Hacia 1950 empezó a tomar cuerpo la molesta impresión de que el cálculo de la distancia de la galaxia de Andrómeda escondía efectivamente un error. Si Andrómeda se hallaba a 800.000 años-luz, como parecía indicar la escala Cefeida, entonces surgían ciertas peculiaridades. Por una parte, la galaxia de Andrómeda parecía poseer un tamaño bastante menor que el de nuestra Galaxia: una cuarta parte del de ésta, aproximadamente. Este hecho en sí no constituía ningún crimen, pero lo cierto es que todas las galaxias cuyo tamaño fue posible determinar parecían ser notablemente más pequeñas que nuestra Galaxia.
Cabría replicar que alguna galaxia tenía que ser mayor que las demás, y que da la casualidad de que nosotros vivimos en ella. Y sin embargo, ¿qué razón había para que nuestra Galaxia fuese mucho más grande que las demás?
Sea cual fuere el proceso en virtud del cual se formaron las galaxias, el hecho es que resultó una gama muy amplia de tamaños. Era indiscutible que la Galaxia poseía un tamaño mucho mayor que el de las Nubes de Magallanes, o que la galaxia de Andrómeda era mucho más grande que sus satélites, M32 y M33. Pero cualquier porción de dicha gama estaba representada por numerosos ejemplares; no había una sola galaxia que fuese única en cuanto al tamaño, en ninguno de los dos extremos de la escala... excepto la nuestra. Allí estaba nuestra Galaxia, sola, con un tamaño mucho mayor que el resto.
Además, nuestra Galaxia no poseía la forma idónea para ser tan grande. Siempre que había ocasión de comparar entre sí directamente varias galaxias, eran las elípticas —en particular las esferoidales clasificadas como EO—, las gigantes. ¿A qué se debía que la más grande de todas, nuestra Galaxia, fuese una espiral?
Pero había algo peor aún, y es que aparte de que nuestra Galaxia superaba en tamaño a todas las demás, sus elementos componentes eran también mayores y más brillantes que los elementos semejantes de otras galaxias, como por ejemplo la de Andrómeda.
La galaxia de Andrómeda posee un halo de cúmulos globulares alrededor de su centro, igual que nuestra Galaxia. El número de cúmulos globulares, su aspecto y su distribución son muy similares en ambos casos. Mas si tomamos, por ejemplo, el brillo aparente de los distintos cúmulos globulares de Andrómeda y calculamos su luminosidad real suponiendo que se encuentran a 800.000 años-luz, resulta que esta magnitud es, por término medio, un cuarto de la luminosidad de nuestros cúmulos globulares, y su diámetro aproximadamente la mitad. Incluso las estrellas como entes individuales muestran el mismo efecto. Las novas ordinarias que han aparecido en Andrómeda alcanzaron una luminosidad notablemente menor que las que aparecen en nuestra Galaxia (trabajando siempre con la hipótesis de una distancia de 800.000 años-luz).
Suponer que nuestra Galaxia no sólo es una gigante dentro de su clase, sino que está compuesta de cúmulos globulares que son gigantes entre los de su especie y de estrellas que también son gigantes entre las estrellas, era pedir demasiado. Parecía casi como si estuviéramos mirando la galaxia de Andrómeda (y, por ende, todas las demás galaxias) a través de una lente de disminución que reducía todo de tamaño. Dado que todo cuanto estaba relacionado con la galaxia de Andrómeda había sido determinado sobre la base de la distancia de aquélla, era inevitable preguntarse si dicha distancia no sería errónea. Y puesto que dicha distancia, tal y como se aceptaba en 1950, dependía a su vez de la escala Cefeida, no había más remedio que poner también en tela de juicio dicha escala.
En los primeros años de la década de 1950-59 Baade centró su atención en este problema, razonando que las estrellas de las Nubes de Magallanes y de los cúmulos globulares de nuestra propia Galaxia eran estrellas de la Población II (véase pág. 249), por lo general más pequeñas y más estables que las de la Población I. Así pues, habían sido Cefeidas de la Población II lo que en origen se había utilizado para establecer la ley período- luminosidad y lo que había servido para determinar la escala de nuestra Galaxia y la distancia de las Nubes de Magallanes.
Sin embargo, las Cefeidas que se habían utilizado para determinar la distancia de la galaxia de Andrómeda (y, por consiguiente, de un modo indirecto todas las galaxias lejanas) pertenecían a los brazos espirales de Andrómeda, debido a que eran precisamente los miembros gigantes blanco-azulados de entre las estrellas de la Población I de dichos brazos los que, a la enorme distancia a que se halla Andrómeda, resultaban más visibles. ¿No sería que las Cefeidas de la Población I de los brazos espirales de Andrómeda no seguían la ley período-luminosidad por la que se regían las Cefeidas de la Población II y con la cual habían trabajado Leavitt y Shapley?
La diferencia entre ambos tipos de Cefeidas parecía ciertamente notable. Entre las Cefeidas de la Población II figuraban muchas con períodos especialmente breves (entre una hora y media y un día); tales períodos eran muy raros entre las Cefeidas de la Población I, cuyos períodos solían oscilar entre varios días y varias semanas. En segundo lugar, las Cefeidas de la Población II eran, en términos generales, más pequeñas y tenues que las de la Población I. Esta segunda diferencia quedaba enmascarada por el hecho de que en nuestra Galaxia las Cefeidas de la Población I, localizadas como estaban en medio del polvo de los brazos espirales, sufrían cierto enrojecimiento y atenuamiento a manos del polvo interestelar, efecto que no había sido tenido debidamente en cuenta.
Las Cefeidas de la Población II poseen, en efecto, un nombre especial debido a la notoriedad de sus propiedades en relación con las de otras variables. Son las «estrellas RR Lyrae», nombre que proviene de RR Lyrae, la primera (y casi la más brillante) variable de este tipo que se estudió. Dado que las estrellas RR Lyrae se observan por lo común en los cúmulos globulares, a veces se las denomina «variables tipo cúmulo».
Baade estudió detenidamente y por separado las Cefeidas de la Población I y las de la Población II, y en septiembre de 1952 anunció que la ley período-luminosidad, tal y como había sido establecida por Leavitt y Shapley, sólo era aplicable a la variedad de la Población II. Así pues, la distancia de las Nubes de Magallanes y las dimensiones de nuestra Galaxia eran correctas. Las Cefeidas de la Población I, sin embargo, obedecían una relación algo diferente, y para una periodicidad dada eran una o dos magnitudes más brillantes de lo que cabría esperar a partir de la relación ordinaria utilizada por Shapley.
Veamos lo que esto significa. Supongamos que se observa una lejana Cefeida con un período que corresponde a una magnitud absoluta de -1. Esto quiere decir que si la estrella estuviera situada a 32,5 años-luz (10 parsecs) de nosotros, parecería tener una magnitud de -1. Para que su magnitud se reduzca desde -1 hasta la magnitud real (alrededor de 20) tendría que distar 24.000 veces más que 32,5 años-luz, es decir, 800.000 años-luz.
Mas supóngase que, utilizando la nueva escala período- luminosidad que Baade dio para las Cefeidas de la Población I, resultara que la Cefeida en cuestión tuviera una magnitud de -3 en vez de -1. En ese caso su brillo sería más de seis veces superior a lo que se había pensado. Con el fin de reducir esta estrella «seis veces más brillante» hasta una magnitud de 20 aproximadamente, haría falta que estuviera situada, por tanto, mucho más lejos: 58.000 veces 32,5 años-luz, es decir, casi 2.000.000 de años-luz.
Utilizando la escala Cefeida revisada y añadiendo algunos detalles adicionales que, al parecer, es preciso introducir, se estima hoy que la galaxia de Andrómeda se halla a unos 2.700.000 años-luz. Todas las galaxias más allá de la de Andrómeda sufrirían además un desplazamiento correspondiente.
Esto eliminaba de golpe ese privilegio de unicidad que parecía ostentar nuestra Galaxia. Si Andrómeda, hallándose a 2.700.000 años-luz (en vez de 800.000), exhibe a pesar de ello el tamaño y el brillo que de hecho se observan al telescopio, por fuerza tiene que ser mucho más grande y más brillante de lo que se había supuesto antaño, en los días en que aún se aceptaba esa otra distancia más corta.

30.jpg
Figura 30. Las dos poblaciones de Cefeidas.

En la actualidad se opina que la galaxia de Andrómeda es algo mayor que nuestra Galaxia. Andrómeda tiene un diámetro de 200.000 años-luz y abarca hasta 300.000 millones de estrellas. Por otra parte, hoy día se sabe que sus cúmulos globulares (más lejanos de lo que se creía) son también mayores y más brillantes de lo que se había supuesto; en efecto, son tan grandes y brillantes como los de nuestra Galaxia. Las novas de Andrómeda son, asimismo, similares a las nuestras en lo que toca a tamaño y a brillo. Finalmente se ha comprobado que todas las demás galaxias son también más grandes y brillantes de lo que antes se creía; muchas de las espirales rivalizan en tamaño con nuestra Galaxia e incluso cabe que algunas de las esferoidales sean de diez a treinta veces más grandes que ella.
Nuestra Galaxia sigue siendo una galaxia gigante, pero ya no es ese monstruo único en su especie. La galaxia de la Vía Láctea, con sus 135 mil millones de estrellas, encaja bien en un Universo compuesto de galaxias cuyo número de estrellas oscila entre 10 y 5.000 miles de millones.
Toda vez que esta nueva escala de distancias ha eliminado del escenario galáctico las peculiaridades más graves, los astrónomos confían en haber hallado por fin la escala correcta. En los años transcurridos desde la corrección de Baade nada ha venido, ciertamente, a perturbar esta esperanza. Es más, desde su muerte en 1960, diversos astrónomos —como el ruso-americano Sergei Illarionovich Gaposchkin (n. 1898) — han seguido analizando las fotografías de Andrómeda tomadas con el telescopio de 200 pulgadas, confirmando plenamente su trabajo.
La nueva escala de distancias no ha afectado, naturalmente, a los cálculos de la desviación hacia el rojo, pues son independientes de la distancia. El cúmulo de galaxias de Virgo seguirá alejándose de nosotros a una velocidad de 1.142 kilómetros por segundo cualquiera que sea la distancia que le asignemos. A partir del brillo de sus miembros más brillantes, y comparándolo con el de la galaxia de Andrómeda, se comprueba que dicho cúmulo sigue hallándose 16,5 veces más alejado que aquélla.
Pero una vez que se triplica la distancia de Andrómeda, también es preciso triplicar la distancia del cúmulo de Virgo. Por tanto, debemos situarlo a unos 2.300.000 ´ l6,5 ó 38.000.000 de años-luz, en vez de sólo 13.000.000.
Para determinar la constante de Hubble lo que hicimos fue dividir la velocidad de recesión de una galaxia o cúmulo de galaxias por el número de millones de años-luz que distaba de nosotros. En vez de dividir 1.142 por 13 debemos dividirlo ahora por 38, de suerte que la constante de Hubble equivale a 30, en lugar de a 88. Si esta cifra peca de algo, probablemente será por defecto. Establezcamos, pues, el valor de la constante de Hubble en 24.
Con el fin de determinar la distancia a la cual tiene que hallarse una galaxia para alejarse a la velocidad de la luz, recurramos de nuevo a la ecuación D = V/k, igualando V a 299.776, y k ahora a 24. El resultado es que D vale 12.500, con lo cual podemos decir que una galaxia situada a una distancia de 12.500 millones de años- luz no puede ser ya detectada. Este es el límite del Universo observable, o «radio de Hubble».
Expresando lo mismo con otras palabras, podemos decir que el diámetro de la esfera del Universo observable (con nosotros mismos en el centro) es de 25.000 millones de años-luz: un diámetro casi cuatro veces superior al que se admitía como correcto todavía en 1950.

Capítulo 15
El origen del universo

Contenido:
§. El Big Bang
§. Antes del Big Bang
§. El Big Bang
El cambio sufrido por la escala de distancias del Universo no se limitó a subsanar ese anómalo supergigantismo de nuestra Galaxia, sino que vino a mitigar notablemente una discrepancia mucho más seria.
En el segundo cuarto del siglo XX los astrofísicos y los geólogos volvieron a discrepar acerca de la edad de la Tierra, como ya lo hicieran casi un siglo antes en los días de Helmholtz.
La discrepancia surgió una vez más en torno a un fenómeno que no parecía plantear ningún problema en el presente ni en el futuro, pero que suscitaba graves dificultades cuando era extrapolado hacia el pasado. En tiempos de Helmholtz se había tratado de la supuesta contracción del Sol; en los días de Hubble era la expansión del Universo.
Si intentamos mirar hacia adelante en el tiempo y aceptamos el hecho de que las galaxias continuarán alejándose indefinidamente unas de otras tal y como lo hacen en la actualidad, no tropezamos con ninguna dificultad insuperable. Todas y cada una de las galaxias fuera de nuestro Grupo Local seguirán retrocediendo a una velocidad que aumenta regularmente a tenor del crecimiento regular de la distancia. Las galaxias se harán cada vez más tenues, debido tanto al aumento de distancias como el desvío hacia el rojo —cada vez más pronunciado— y la consiguiente disminución de la energía de la luz. De este modo, llegará un momento en que todas ellas se aproximarán al límite del Universo observable, perdiéndose para nosotros. El universo observable consistirá entonces únicamente en nuestro Grupo Local.
Esto quizá parezca un futuro muy solitario, pero lo cierto es que sólo perderemos objetos que no son visibles a simple vista, objetos de cuya existencia y verdadera naturaleza no hemos llegado a percatarnos sino en los últimos cincuenta años. Quiere decirse que la pérdida no será demasiado grande para los no-astrónomos. Además este fenómeno está previsto para dentro de mucho tiempo —cien evos o más—, y para entonces habrán sobrevenido acontecimientos de consecuencias más directas para nosotros. El Sol se habrá convertido en una enana blanca y nuestro sistema planetario será un lugar inhóspito, suponiendo, claro está, que haya logrado sobrevivir a la etapa de gigante roja del Sol. Todas las estrellas que sean más grandes y más brillantes que las enanas rojas se habrán convertido en enanas blancas, y todas las galaxias se hallarán en una edad extremadamente avanzada. Es posible que para entonces se hubieran formado nuevas estrellas, pero lo cierto es que dentro de cien evos la reserva de polvo y gas habrá disminuido hasta valores mínimos, con lo cual el número de estrellas nuevas será escaso. Por lo demás, estas nuevas estrellas se habrán formado a partir de un gas tan sobrecargado de átomos complejos (dispersados por el espacio como consecuencia de los cientos de millones de supernovas que habrán explotado en el ínterin) que su provisión de hidrógeno será sobremanera exigua, lo cual determina una vida muy efímera para tales estrellas.
Por muy sórdida que parezca esta imagen del futuro, no contradice ninguna de las ideas científicas aceptadas ni plantea ningún dilema grave a los astrónomos. No puede esperarse que el Universo respete las emociones humanas. Envejecerá y morirá sin consideración alguna para con los lamentos del hombre, y sus componentes seguirán alejándose unos de otros en un proceso de eterna expansión incluso después de que las galaxias se hayan consumido hasta convertirse en cenizas de enanas blancas.
Pero supongamos ahora que miramos hacia atrás en el tiempo, que invertimos la dirección de marcha de la expansión del Universo como si se tratara de una película de cine. En ese caso debemos imaginarnos las galaxias aproximándose unas a otras con velocidades conocidas, sólo que ahora el proceso no puede continuar eternamente. Tiene que llegar un momento en que las galaxias se encuentren. Si la ley de Hubble sigue siendo válida para este caso, de modo que cada una de las galaxias se movería hacia adentro con una velocidad proporcional a su distancia a partir de una concreta (tal como la nuestra) tomada como patrón, entonces hay que mirar el Universo en general como sometido a un proceso de contracción, en virtud del cual todas las galaxias llegarían a reunirse simultáneamente en un punto.
Dicho con otras palabras: tuvo que existir un momento en el pasado en el que toda la materia y energía del Universo se hallasen concentradas en un gran bloque. En ese momento del pasado («tiempo cero») el Universo no podía, en modo alguno, tener el aspecto que presenta hoy día; el «Universo que conocemos» no pudo existir sino a partir de este tiempo cero, y este tiempo cero cabe considerarlo como el origen del Universo.
El tiempo cero del Universo se puede calcular a partir de las distancias que separan hoy día a las galaxias y de la velocidad con que se expande en la actualidad el Universo. De acuerdo con la escala de distancias que rigió entre 1925 y 1952, el tiempo cero tuvo que ocurrir hace, aproximadamente, 2.000.000.000 de años.
Dos evos es una longitud de tiempo respetable; ciertamente mucho mayor que los veinte millones de años que Helmholtz asignó a la Tierra. Sin embargo, dos evos no son todavía una cifra suficiente para los geólogos, quienes acogieron este valor con gran desilusión. ¿Qué significado tenía decir que el Universo existía hace dos evos en forma de un simple globo de materia y que a partir de ahí se habían formado todas las galaxias, cuando, sobre la base de los cálculos del uranio-plomo, se había comprobado que la Tierra tenía una edad de más del doble que aquélla?
La Tierra no podía ser dos veces más vieja que el Universo. Algún error grave tenía que haber, o en las velocidades de desintegración del uranio, o en la constante de Hubble.
La situación permaneció estática hasta que los trabajos de Baade demostraron que el error residía en la escala de distancias del Universo y que dicho error había resultado en un valor excesivo para la constante de Hubble. Una vez más los geólogos tenían razón, mientras los astrónomos se habían equivocado. La nueva escala de distancias del Universo parecía indicar que el tiempo cero había ocurrido hace 13 evos.
Si esta cifra peca de algo no cabe duda de que es por defecto, pues al medir la edad de los cúmulos estelares los astrónomos obtienen a veces cifras del orden de 10 a 25 evos. Sin embargo, nadie pretende que la determinación de la constante de Hubble se halle a salvo de ulteriores correcciones, ni que los métodos utilizados para calcular la edad de los cúmulos estelares sean algo más que meras aproximaciones. Así pues, cualquier polémica acerca de la posición exacta del tiempo cero sería más bien prematura; por el momento baste con decir que el tiempo cero, si de verdad existe, tuvo que ocurrir como mínimo hace 15 evos, y que desde entonces ha habido tiempo suficiente a lo largo de la vida del Universo para que se formara el sistema solar.
Mas ¿qué es lo que ocurrió en el tiempo cero? El primero en considerar seriamente este punto fue el astrónomo belga Georges Edward Lemaître (1894-1966). En
1927 sugirió que en el tiempo cero toda la materia y energía del Universo se hallaban efectiva y literalmente comprimidas en una gigantesca masa de diámetro quizá no superior a unos cuantos años-luz. Lemaître llamó a esta masa el «huevo cósmico», pues a partir de él se formó el «cosmos» (sinónimo de Universo).
El huevo cósmico era inestable y estalló en lo que cabe imaginar como la más fantástica y catastrófica explosión de todos los tiempos, pues los fragmentos de dicha explosión resultaron ser luego las galaxias, que fueron despedidas violentamente en todas direcciones. Los efectos de la explosión los tenemos todavía bien visibles en el alejamiento mutuo de las galaxias y cúmulos de galaxias.
Si los diferentes fragmentos del huevo cósmico salieron despedidos hacia afuera con distintas velocidades (según el lugar que ocupara originalmente el fragmento dentro del huevo y según la medida en que se viese frenado por las colisiones con otros fragmentos), aquellos que terminaron con una velocidad alta irían adquiriendo una ventaja cada vez mayor sobre los de velocidad baja. Lemaître sostenía que este efecto daría lugar a la situación que conocemos hoy día: las galaxias se alejan unas de otras con velocidades de recesión proporcionales a la distancia. (También es posible que aunque el huevo cósmico no tuviese momento angular alguno, parte de los fragmentos adquirieran cierto momento angular en el sentido de las manillas del reloj como consecuencia de la explosión, mientras que otros adquirieron un momento angular de sentido contrario, de suerte que la suma total fuese nula.)
El modelo del Universo propuesto por Lemaître es el análogo físico del modelo teórico de de Sitter. El Universo de de Sitter se expandía simplemente porque de este modo cuadraba bien con una serie de ecuaciones planteadas por Einstein. La expansión del modelo de Lemaître se debía, por el contrario, a un suceso físico: una explosión que difería en proporciones, pero no en naturaleza, de la de un cohete de feria. La idea del modelo de Lemaître se capta muy fácilmente; es concreto, espectacular y parece exotérico. Eddington lo adoptó y divulgó, y desde entonces el astrofísico ruso-americano George Gamow (1904-1968) lo ha defendido de un modo entusiástico. Haciendo referencia a esa inmensa explosión inicial del huevo cósmico, Gamow bautizó el modelo del Universo de Lemaître con el nombre de «teoría del big bang» [xxii] , aunque cabría llamarlo, de una forma menos espectacular, «teoría del Universo en explosión».
Naturalmente, uno siente enseguida curiosidad por saber cuál era la naturaleza del huevo cósmico. ¿De qué estaba compuesto? ¿Cuáles eran sus propiedades?
Quizá podamos hacernos una idea al respecto si observamos (mentalmente) el Universo corriendo hacia atrás y hacia adelante en el tiempo. En la actualidad el Universo parece componerse aproximadamente de un 90% de hidrógeno, un 9% de helio y 1% de átomos más complejos.

31.jpg
Figura 31 La teoría del big bang

A medida que el Universo progresa hacia adelante en el tiempo, el hidrógeno se va fusionando continuamente en helio, y éste, a su vez, en átomos más complejos dentro del núcleo central de las estrellas. Si dejamos que el Universo marche hacia atrás, la cantidad de helio y átomos más complejos decrece y la cantidad de hidrógeno aumenta. Así pues, conforme nos acercamos al tiempo cero, cabría esperar que el Universo consistiera por entero, o casi por entero, en hidrógeno.
Ahora bien, a medida que presenciamos la película del Universo marcha atrás, la materia y la energía se van haciendo más compactas. En el tiempo cero, el hidrógeno que exista tiene que hallarse comprimido hasta el límite; todas las partículas que lo componen se aprietan unas contra otras hasta más no poder.
El átomo de hidrógeno consta sólo de dos partículas: un protón central que porta una carga eléctrica positiva y un electrón exterior con una carga eléctrica negativa.
Mientras esos dos componentes una existencia propia, la presión a que se puede someter una masa de hidrógeno tiene un límite. Pero si sobrepasamos cierta presión crítica, todo ocurre como si los electrones y protones se aplastaran unos contra otros para formar una masa de partículas sin carga eléctrica llamadas neutrones.
Una masa tal de neutrones comprimidos hasta el límite se denomina a veces «neutronio» (aunque Gamow utiliza el término «ylem», palabra latina que significa la sustancia a partir de la cual se formó toda la materia). El neutronio tendría una densidad de unos 1.000 billones de gramos por centímetro cúbico y sería mucho más denso que la enana blanca más densa que se conoce.

§. La formación de los elementos
Sin comprometerse en cuanto a la naturaleza del huevo cósmico, Lemaítre lo había concebido como una especie de superátomo radiactivo que se desintegraba como los átomos radiactivos normales, sólo que a una escala increíblemente mayor. A partir de las diversas porciones del huevo cósmico se formaron las galaxias actuales, pero, a una escala mucho más íntima, el huevo cósmico también se desintegró para constituir los átomos que conocemos hoy día. Ahora bien, desde el punto de vista de Lemaítre estos átomos se formaron de arriba abajo, por así decirlo, de suerte que primero se formarían átomos muy masivos que se desintegrarían en otros menos masivos, y así sucesivamente hasta llegar a átomos perfectamente estables. Este proceso implicaría la existencia de un Universo compuesto principalmente de átomos tales como los de plomo y bismuto, que de entre los estables son los de mayor masa que se conoce, pero no explicaría la preponderancia del hidrógeno en el Universo.
Una concepción alternativa en cuanto a la formación de los elementos fue la que ofreció Gamow en 1948, y en la cual colaboraron también Bethe y el físico americano Ralph Asher Alpher (n. 1921) [xxiii] .
De acuerdo con la concepción de Gamow, en el momento del «big bang» el huevo cósmico, compuesto de neutronio, se desintegró con feroz violencia en neutrones individuales, que rápidamente se descompusieron en protones y electrones. (Este proceso de desintegración del neutrón se sigue verificando hoy día, siendo la vida media de unos trece minutos.) Los protones así formados cabe considerarlos como núcleos de átomos de hidrógeno-1.
A medida que se fuesen formando los protones, éstos chocarían de vez en cuando con los neutrones que aún quedaran e irían constituyendo gradualmente núcleos atómicos estables de mayor complejidad. La ventaja de esta teoría es que hace uso del fenómeno de adición de neutrones, proceso hacia el cual los átomos se muestran muy proclives y que se puede observar en el laboratorio.
Si un protón se combina, por ejemplo, con un neutrón, se formaría un núcleo de hidrógeno-2, o deuterio (un protón / un neutrón). El hidrógeno-2, combinado con otro neutrón, daría lugar al hidrógeno-3 o «tritio» (un protón / dos neutrones). Sin embargo, el tritio es inestable. Uno de los neutrones de su núcleo emite un electrón y se convierte en un protón, de modo que el núcleo se transforma en helio-3 (dos protones / un neutrón). El núcleo de helio-3 se anexiona un neutrón, convirtiéndose en helio-4 (dos protones / dos neutrones). El proceso continúa, y paso a paso, neutrón tras neutrón, se va formando la lista completa de los elementos.
Dadas las temperaturas increíblemente altas que seguirían a la explosión del huevo cósmico, Gamow opina que las reacciones nucleares pertinentes se desarrollaron de un modo muy rápido, quizá incluso dentro de la primera media hora. A partir de ese momento, y conforme fuese disminuyendo la temperatura, los diversos núcleos irían atrayendo hacia sí gradualmente electrones y formando átomos; los átomos se aglomerarían en volúmenes ingentes de gas, los cuales se alejarían a gran velocidad del lugar donde explotó el huevo cósmico, condensándose poco a poco, a lo largo de esta huida, en galaxias y estrellas.
Ni que decir tiene que de los núcleos de hidrógeno-1 formados en origen sólo una pequeña porción colisionaría con neutrones para formar hidrógeno-2; que de estos núcleos de hidrógeno-2 sólo una parte exigua chocaría contra algún neutrón para dar lugar a helio-3, etc. A medida que ascendiéramos en la escala de complejidad, cada átomo sería menos común que el anterior; esto vendría a explicar el hecho de que hoy día en el Universo la abundancia de los átomos decrece de una forma más o menos constante a medida que aumenta su complejidad.
Este decrecimiento no es, sin embargo, absolutamente uniforme. El helio-4 es mucho más común que el hidrógeno-2 o que el helio-3, y el hierro-56 es mucho más abundante que la mayor parte de los átomos menos complejos que él. Por otro lado, átomos simples como los del litio-6, litio-7, berilio-9, boro-10 y boro-11 son menos comunes, a escala cósmica, de lo que debieran ser habida cuenta de su simplicidad. La teoría de Gamow puede ofrecer una explicación tentativa de esta anomalía. El helio-4 y el hierro-56, por ejemplo, son dos núcleos especialmente estables que difícilmente reaccionarían para formar átomos más complejos, por lo cual se irían acumulando. Los átomos de litio, berilio, y boro, por el contrario, reaccionan con extrema facilidad, por lo cual se «quemarían» rápidamente.
La teoría de Gamow está en condiciones de explicar la abundancia relativa de los diversos átomos en la materia interestelar. Una vez que se forman las estrellas, son otros los cambios que se operan en su interior.
Sin embargo, dicha teoría presenta un grave inconveniente que hasta la fecha nadie ha sabido subsanar. Se trata de lo siguiente: los átomos se tienen que formar mediante la adición de neutrones, pero de uno en uno; cuando se llega al núcleo del helio-4, se produce una zanja que no podemos saltarnos a la torera. El núcleo de helio-4 es tan estable que su tendencia a aceptar un neutrón o un protón es prácticamente nula. Y en el caso de que un neutrón consiga anexionarse a un núcleo de helio- 4, el núcleo de helio-5 formado (dos protones / tres neutrones) se desintegra en 0,000000000000000000001 segundos aproximadamente (una milésima de trillonésima de segundo) para constituir de nuevo un núcleo de helio-4 y un neutrón. Por otra parte, si un protón consigue anexionarse al helio-4, el litio-5 (tres protones / dos neutrones) formado se desintegra de nuevo en helio-4 a una velocidad mayor aún que la anterior.
Supongamos, por otro lado, que un núcleo de helio-4 choca con un segundo núcleo de helio-4 y que ambos se fusionan. Este suceso es mucho menos probable que la fusión del helio-4 con una de esas partículas tan abundantes que son los protones y neutrones, pero aun así tampoco constituye una solución. El elemento formado es el berilio-8, que se desintegra en dos partículas alfa con una celeridad también extrema.
En otras palabras, una vez constituido el helio-4 mediante la adición de neutrones, el proceso se atasca. En el 5 y en el 8 hay dos zanjas que, al parecer, son infranqueables.
Cabe, desde luego, que dos partículas se estrellen simultáneamente contra el núcleo de helio-4. Si las partículas que chocan y se anexionan son un protón y un neutrón, entonces se forma litio-6 (tres protones/tres neutrones). Este elemento es estable y el proceso podría proseguir.
Por desgracia, en las condiciones postuladas por Gamow para esa primera media hora después del «big bang», los núcleos se encuentran tan espaciados que la probabilidad de que dos partículas choquen al mismo tiempo contra una partícula alfa es virtualmente nula. Así, pues, la teoría de Gamow parece explicar la formación de átomos de hidrógeno y helio, pero nada más.
En contraposición a esta teoría de la formación de los elementos existe otra que hemos aceptado implícitamente en este libro y utilizado en la discusión acerca de las estrellas de la segunda generación (véase pág. 239). Esta teoría ha sido sugerida por Fred Hoyle, quien considera que el material originario estaba constituido sólo de hidrógeno-1 y que los demás elementos se formaron en el interior de las estrellas, pasando a la materia interestelar por vía de las supernovas.
Hoyle recurre a los mismos mecanismos propuestos por Gamow, pero con una diferencia. En el núcleo central de las estrellas la densidad de materia es mucho más alta que en el espacio abierto, lo cual significa que la probabilidad de que dos partículas colisionen de un modo más o menos simultáneo con un núcleo de helio-4 es notablemente mayor que en la teoría de Gamow. Es más, toda vez que la zona central de las estrellas es más rica en helio-4 que en cualquier otro elemento, existe una probabilidad relativamente alta de que dos núcleos de helio-4 choquen contra un tercero en un lapso de tiempo suficientemente breve para formar un núcleo de carbono-12. Esto salvaría la zanja que representan los átomos estables comprendidos entre el helio-4 y el carbono-12: los átomos de litio, berilio, y boro que ya mencionamos antes. Estos átomos ligeros sólo se formarían a través de procesos secundarios menos comunes, lo cual explicaría su relativa rareza en el Universo actual.
La idea de la formación de los elementos en el corazón de las estrellas no sólo fue concebida para evitar la zanja de los niveles de 5 y 8 partículas, sino que viene también avalada por una prueba empírica interesante. El espectro de ciertas estrellas (poco comunes) de la clase espectral S delata la presencia de un elemento llamado «tecnecio». El tecnecio es un elemento radiactivo que no posee ninguna variedad atómica estable. La variedad que más se aproxima a la estabilidad es el tecnecio-99, que tiene una vida media de unos 220.000 años. Tiempo muy largo si lo medimos a escala humana, pero lo cierto es que al cabo de cinco millones de años (lapso insignificante en la vida de una estrella ordinaria) sólo quedaría una milmillonésima parte de la cantidad inicial de tecnecio-99. De aquí se sigue que si hoy día se puede detectar el tecnecio (por medios espectroscópicos, como hemos dicho), este elemento no pudo existir en el momento en que se formó la estrella, sino que tuvo que constituirse en el interior de ésta.
Así pues, en términos generales se puede decir que el peso de la plausibilidad y de las pruebas empíricas de que disponemos parece favorecer, hoy por hoy, al modelo de Hoyle de la formación de los elementos frente al de Gamow.

§. Antes del «Big bang»
Si postulamos la existencia de un huevo cósmico como la forma original del Universo e igualamos el momento de su explosión al tiempo cero, nos vemos obligados a preguntar: ¿Pero de dónde vino el huevo cósmico?
Podríamos zafarnos de esta pregunta refugiándonos simplemente en la eternidad. La ley de la conservación de la energía implica que la sustancia del Universo es, en esencia, eterna, por lo cual podemos decir que la materia de que se componía el hueco cósmico estuvo allí desde siempre.
Ahora bien, aun concediendo que la materia del huevo cósmico estuviera allí desde siempre, ¿lo estuvo en forma del huevo cósmico? Si el huevo cósmico, como tal, existió desde siempre, tenía que ser estable. Y si era estable, ¿por qué dejó entonces de serlo repentinamente y explotó en el momento que hemos dado en llamar tiempo cero, tras incontables evos durante los cuales, lejos de estallar, se había limitado simplemente a existir?
El problema con que nos enfrentaríamos sería el mismo —sólo que a escala estelar— si nos preguntáramos por qué una estrella experimenta una explosión tipo supernova después de haber existido durante evos en condiciones de relativa estabilidad. En el caso de las estrellas, sin embargo, sabemos hoy día lo suficiente como para poder explicar este fenómeno en función de las reacciones nucleares progresivas que se desarrollan en el interior estelar.
Por desgracia, es imposible estudiar las propiedades de un huevo cósmico: no sabemos nada acerca de lo que ocurre en su interior, ni conocemos las fuerzas que serían capaces de mantenerlo estable o de provocar cambios progresivos que, en un momento dado y de súbito, lo convirtieran en inestable.
Ahora bien, si en vez de devanarnos los sesos tratando de imaginar una explicación para dicha estabilidad, nos preguntáramos en qué forma podría existir la sustancia del Universo para permanecer estable a lo largo de innumerables evos, veríamos que lo más fácil es concebir el cosmos como un gas extremadamente disperso. El Universo sería entonces esa especie de «espacio vacío» que existe hoy entre las galaxias y que sin duda alguna es estable.
Un gas de este tipo, en extremo rarificado, seguiría estando sometido, no obstante, a su propio campo gravitatorio, sobremanera difuso. A lo largo de los evos el gas se iría apelotonando lentamente y el Universo iría contrayéndose. A medida que la sustancia del Universo se hace más compacta, el campo gravitatorio se va intensificando; al cabo de muchos evos, el Universo se halla sometido a un proceso muy rápido de contracción.
Tal contracción, empero, por fuerza tiene que provocar un calentamiento en el Universo —un calentamiento «a la Helmholtz»— y originar temperaturas cada vez más altas en esa materia que se comprime en un volumen cada vez más reducido. El aumento de temperatura contrarresta de modo creciente la contracción gravitatoria y acaba por frenarla.
Sin embargo, a causa de la inercia de la materia, ésta sigue contrayéndose por encima del punto donde el efecto térmico equilibraría exactamente a la fuerza de la gravedad, de suerte que en último término el Universo se contrae hasta un volumen mínimo, que representa el huevo cósmico o algo muy similar a él. En una fase posterior la temperatura y la radiación comienzan a empujar hacia afuera, y la sustancia del Universo se ve lanzada hacia el exterior, cada vez más de prisa, en un proceso que rápidamente desemboca en el «big bang».
Según esta concepción, el Universo parte de un estado caracterizado por un vacío virtual, pasa por una fase de contracción hasta alcanzar una densidad máxima y después por una tercera etapa de expansión que conduce de nuevo al vacío. No es preciso, pues, que nos rompamos la cabeza especulando acerca de un huevo cósmico que existía «desde siempre» y que luego, tras un período indefinido de estabilidad, explotó de pronto: basta para ello concebir el huevo cósmico como un objeto momentáneo situado a medio camino en la eternidad.
Este modelo se denomina «Universo hiperbólico», y admite una representación gráfica sin más que considerar su «radio de curvatura». Un rayo de luz que viajara indefinidamente a través del tipo de Universo al que Einstein asignó una geometría riemanniana describiría una inmensa trayectoria circular cuyo radio sería el radio de curvatura del Universo. En un Universo en contracción, este radio sería decreciente en un Universo en expansión, creciente. En un Universo hiperbólico, el radio decrecería primero hasta un mínimo y luego aumentaría.
El Universo hiperbólico perdura a través de la eternidad, mas no es auténticamente eterno en el sentido de que persista siempre en unas condiciones esencialmente invariables o en un estado que oscile alrededor de un promedio inmutable, sino que experimenta un cambio permanente e irreversible: comienza en la forma de un Universo vacío, lleno de un gas muy disperso (presumiblemente hidrógeno) y termina en forma de un Universo también vacío, pero colmado de innumerables enanas blancas. Existen un comienzo y un fin bien definidos, y nosotros habitamos el breve intervalo de tiempo durante el cual el Universo se desvía pasajeramente de su eterno vacío.
Sin embargo, el Universo hiperbólico no es el único modelo que se puede deducir a partir de una consideración teórica del huevo cósmico. Aunque concibamos el Universo como desintegrado en trozos que salen despedidos hacia afuera como consecuencia de la fuerza de una explosión gigantesca, siempre queda la fuerza de la gravitación universal que tenderá a reunir de nuevo los fragmentos y que, quizá, lo podría lograr.
Para entender lo que esto significa, consideremos una situación análoga en nuestro planeta. Una explosión normal proyecta al aire violentamente los distintos fragmentos, pero la velocidad con que éstos se alejan de la Tierra disminuirá constantemente debido a la atracción de la gravedad. Al cabo de cierto tiempo los fragmentos se detienen durante un instante en su fuga y comienzan a caer de nuevo hacia la Tierra. Cuanto más violenta sea la proyección inicial del fragmento hacia arriba, tanto mayor será la altura que alcanzará éste antes de pararse e iniciar su regreso.

32.jpg
Figura 32. El Universo hiperbólico

Ahora bien, el campo gravitatorio terrestre disminuye con la distancia, y si el objeto se lanza hacia arriba con un impulso suficiente llegará a regiones en las cuales el campo gravitatorio de la Tierra, cada vez más débil, no bastará para anular por completo la velocidad (cada vez menor) del objeto. En este caso se dice que el objeto ha sido lanzado hacia arriba con una velocidad mayor que la «velocidad de escape», que para la superficie terrestre es aproximadamente de once kilómetros por segundo.
Sin conocer el tamaño real del huevo cósmico, ni su masa, ni la fuerza de la explosión que lo desintegró, resulta difícil averiguar si los fragmentos que salieron despedidos hacia el exterior lograron alcanzar o no la velocidad de escape. ¿Seguirán alejándose las galaxias unas de otras para siempre, o irá disminuyendo lentamente su velocidad de recesión hasta anularse durante un instante, aproximándose luego unas a otras, despacio al principio, luego cada vez más rápidamente?
Supongamos que llegue un día en que las galaxias comiencen efectivamente a juntarse de nuevo. En este Universo en contracción la radiación emitida por las galaxias experimenta un desvío hacia el violeta, cuya intensidad aumenta a medida que la velocidad de aproximación crece como consecuencia de la aceleración de la contracción. La energía que se vierte así en el centro del Universo se comprime, por así decirlo, a la par que aumenta. Bajo el azote de esta invasión de energía, las reacciones nucleares que se desarrollan en un Universo en expansión experimentan una inversión total.
Mientras que en un Universo en expansión (cuya radiación disminuye constantemente) la fusión de hidrógeno en hierro suministraría energía, en un Universo en contracción (de radiación cada vez mayor) la desintegración del hierro en hidrógeno absorbería energía.
En resumen, cuando el Universo se hubiera condensado hasta un límite próximo al del huevo cósmico, aquél estaría compuesto otra vez de hidrógeno en su totalidad. La formación del huevo cósmico se vería seguida de un nuevo «big bang», y el proceso completo volvería a comenzar. El resultado sería un «Universo pulsante» o «Universo oscilante».
El Universo pulsante cabría concebirlo como una variable Cefeida ingente. Tal Universo sería eterno en el sentido estricto de la palabra, pues aunque se producen cambios catastróficos, éstos son periódicos. No existe un origen ni un fin bien definidos, como tampoco existen cambios constantes e irreversibles que transformen una estructura universal dada en otra completamente distinta. Después de contraerse y explotar de nuevo, el Universo recuperará dentro de un número indefinido de evos su forma actual, forma que ya tuvo cierto número de evos antes de su último colapso y explosión.

§. Creación continua
Y sin embargo, al menos antes de 1952 la teoría del «big bang» parecía llevar inherente a ella un elemento de imposibilidad, pues situaba el tiempo cero 2 evos atrás, cuando la propia Tierra tenía una edad de casi 5 evos. El «big bang» debía ser, por fuerza, una ilusión. Era preciso construir un modelo del Universo que no utilizase para nada el huevo cósmico.
El nuevo modelo nació de la idea intuitiva siguiente: el aspecto general del Universo debe ser el mismo cualquiera que sea el punto de observación elegido. Desde cualquier punto del Universo, desde cualquier galaxia en que se sitúe el observador, éste hallaría que las galaxias se distribuyen simétricamente en torno a él en todas direcciones, que la densidad general de la materia es idéntica, que todas las demás galaxias se alejan con una velocidad proporcional a su distancia; en pocas palabras, se hallaría a sí mismo en el centro del Universo observable.

33.jpg
Figura 33. El Universo pulsante.

La noción de un Universo generalmente uniforme a través de todo el espacio fue concebida por el cosmólogo inglés Edward Arthur Milne (1896-1950), quien la denominó el «principio cosmológico».
El principio cosmológico no pasa de ser una hipótesis, pero una hipótesis que, a falta de pruebas concluyentes que demuestren su falsedad, ejerce un gran poder de atracción sobre los astrónomos, toda vez que haciendo uso de ella el Universo se reduce a un nivel de simplicidad suficiente para quedar reflejado en la clase de modelos que los astrónomos pueden construir. Einstein, por ejemplo, aceptó el principio cosmológico al trabajar con un Universo cuya materia se encontraba diseminada de modo uniforme, pues no cabe duda de que en ese caso el aspecto del cosmos sería idéntico cualquiera que fuese la posición del observador.
El principio cosmológico parece pedir un Universo infinito, pues de otro modo cabría pensar que si el observador se traslada hasta el mismo borde, vería todas las galaxias a un lado y nada al otro. Ahora bien, ¿cómo era posible conciliar esta idea con el Universo riemannia- no supuesto por Einstein, un Universo de volumen finito?
En realidad, sí es posible que un Universo de volumen finito contenga un número infinito de galaxias.
Según la teoría de la relatividad de Einstein, es necesario suponer que un objeto que se mueve con respecto a un observador resultará —a través de cualquier medida que éste haga— más corto en la dirección del movimiento que lo que sería si se encontrara en reposo con respecto a dicho observador. Y a mayor velocidad, más pronunciado será este «acortamiento». Si el objeto se mueve a la velocidad de la luz, su longitud en la dirección del movimiento se reducirá a cero.
Las lejanas galaxias, en su movimiento de recesión, tienen que aparecer más cortas para cualquier observador terrestre; y cuanto más lejanas, tanto más acortadas, toda vez que la velocidad de recesión aumenta con la distancia. Cerca del borde del Universo observable las galaxias adquieren un espesor igual o inferior al de una hoja de papel, con lo cual en este límite se pueden apelotonar un número infinito de galaxias. De este modo tenemos un Universo infinito empaquetado en un volumen finito. (Debido al desvío hacia el rojo, esta infinidad de galaxias en el borde del Universo no liberarían más que una cantidad finita de radiación, de partículas o de fuerza gravitatoria hacia el interior.)
Naturalmente, un observador situado en una de las galaxias del borde no se vería a sí mismo y a su galaxia del espesor de una hoja de papel. Su galaxia, igual que las de su inmediata vecindad, se le antojarían normales. Pero a una distancia suficientemente grande este observador también vería un borde con una aglomeración infinita; y nuestra Galaxia, caso de que pudiera observarla, le parecería tan delgada como una hoja de papel. (Es cuestión simplemente de punto de vista, igual que los australianos nos parecerían andar de cabeza, y viceversa, si la Tierra fuese transparente y pudiéramos mirar a través de ella.)
Un Universo infinito de estas características no concuerda bien con la noción del huevo cósmico, pues no cabe duda de que resulta mucho más fácil pensar que el huevo cósmico posee un tamaño finito, y no infinito, y que al explotar dio lugar a un número finito de galaxias. Gamow, sin embargo, está dispuesto a considerar un huevo cósmico de tamaño infinito, y en ese caso el principio cosmológico no sería incompatible ni con el Universo hiperbólico, ni con el pulsante.
Para tres astrónomos que trabajan en Inglaterra —el austriaco de nacimiento Hermann Bondi (n. 1919), Thomas Gold (n. 1920) y Fred Hoyle— el principio cosmológico estaba, de algún modo, incompleto. Cierto que dejaba inalterado el Universo al variar la posición del observador en el espacio, pero¿y acerca de su posición en el tiempo?
Si el Universo experimenta cambios que son irreversibles, como en el caso del Universo hiperbólico, o reversibles al cabo de muchos evos, como en el caso del Universo pulsante, un observador vería que la naturaleza del Universo variaba radicalmente con el tiempo. Hace 10 evos, por ejemplo, el observador vería un Universo de pequeñas dimensiones, colmado de galaxias jóvenes muy juntas y constituidas casi por entero de estrellas jóvenes compuestas de hidrógeno y de muy pocos elementos más. Dentro de 50 evos, a partir de ahora, el observador quizá vería un vasto Universo vacío, con galaxias separadas por enormes distancias y compuestas en su mayor parte de enanas blancas. Y dentro de 100 evos el observador acaso se hallaría ante un Universo en contracción.
Bondi, Gold y Hoyle opinaban que no era lógico suponer que las cosas sucedan así. El Universo debía ser fundamentalmente idéntico cualquiera que fuese el momento y el lugar de observación, idea que bautizaron con el nombre de «principio cosmológico perfecto».
No obstante, el Universo cambiaba de dos modos importantes: dos modos que se aceptaban sobre la base de pruebas empíricas muy fuertes y que no admitían ninguna clase de discusión. En primer lugar, la distancia intergaláctica aumenta constantemente, y, en segundo lugar, el hidrógeno no cesa de fusionarse en helio y en otros átomos más complicados. Si el principio cosmológico perfecto pretende ser válido, entonces tienen que existir procesos que neutralicen tales cambios.
La solución que sugirieron los tres astrónomos en 1948 consistía en suponer que el hidrógeno se creaba continuamente de la nada; esta idea se conoce con el nombre de «teoría de la creación continua» o «teoría del estado estacionario».
Naturalmente, la primera reacción ante tal sugerencia es objetar que viola la ley de la conservación de la energía. Pero esta ley es una simple hipótesis basada en el hecho de que la humanidad nunca ha observado que la energía se cree de la nada. Por otra parte, lo que exige la teoría de la creación continua es bien poco; bastaría con que la materia se creara a un ritmo de un átomo de hidrógeno por año en un espacio de mil millones de litros, y tal ritmo de creación sería demasiado pequeño para poder detectarlo con los instrumentos que conocemos hoy día. La creación continua no violaría en realidad la ley de la conservación de la energía, pues ésta no dice que «la energía no se puede crear de la nada», sino simplemente que «nunca se ha observado que la energía se cree de la nada».
(Una concepción alternativa podría ser que la materia se formara a expensas de la energía de expansión del Universo, con lo cual éste se dilataría algo más despacio que en el caso de que no existiese la creación continua.)
Suponiendo que admitimos la creación continua, pasemos ahora a examinar sus consecuencias. La separación paulatina de las galaxias debe ser visualizada, no como el resultado de cierta explosión, sino como la consecuencia de un efecto más sutil. Así, por ejemplo, en 1959 Hermann Bondi y Raymond Arthur Lyttleton especularon en torno a la posibilidad de que la carga positiva del protón fuese muy ligeramente superior a la carga negativa del electrón. Si la carga positiva del protón fuese superior a la carga negativa del electrón en una trillonésima parte de ésta, tal diferencia sería demasiado exigua para detectarla con los instrumentos más perfectos del hombre, pero ello bastaría para acumular una carga neta de signo positivo en todas las galaxias y obligarlas a emprender un movimiento de recesión mutuo y constante. Esta explicación del Universo en expansión se considera, por lo general, como sumamente improbable entre los astrónomos, pero constituye un ejemplo de la especie de causa física (distinta de la explosión) buscada por quienes desean soslayar la teoría del «big bang».
A medida que las galaxias se apartan unas de otras (sea cual fuere la causa), el espacio que queda entre ellas se va llenando gradualmente de materia gracias a la creación continua.
Cierto que esta acumulación de materia es lenta, pero también lo es la velocidad con que se alejan unas de otras las galaxias si la comparamos con los inmensos espacios que se extienden entre ellas. Antes de que la distancia entre dos galaxias vecinas se duplique habrán transcurrido varios evos, y para entonces la cantidad de materia formada entre ambas será suficiente para poder condensarse en una nueva galaxia. De este modo, conforme las primitivas galaxias se van diseminando y aglomerándose paulatinamente en ese borde de espesor igual al de una hoja de papel —o, como parece suponer Hoyle, desplazándose, de algún modo, más allá del borde del Universo observable—, la densidad de la distribución galáctica jamás decrecerá. Entre las primitivas galaxias se formarían otras nuevas, y los dos efectos se compensarían mutuamente.
Por otra parte, la materia que se forma en el proceso de la creación continua sería, desde luego, de naturaleza muy simple. El fragmento de materia creado podría ser acaso un átomo de hidrógeno, o quizá un neutrón que se descompondría en cuestión de minutos en un protón y un electrón, que a su vez se asociarían para constituir un átomo de hidrógeno. En cualquier caso, las nuevas galaxias, formadas a partir de materia recién creada, serían galaxias jóvenes constituidas por hidrógeno fresco. Lo cual viene a significar que en cualquier momento del futuro un observador vería a su alrededor el mismo número de galaxias jóvenes que en la actualidad. El Universo nunca llegaría a vaciarse ni a envejecer, a pesar de que las galaxias, consideradas por separado, sí envejecen.
Si miramos retrospectivamente en el tiempo, cabe pensar que las galaxias se aproximan entre sí, pero no tienen por qué llegar a encontrarse. En una inversión del tiempo, la creación continua se convierte en destrucción continua. En un Universo retrógrado como este, los átomos complejos se desintegran en hidrógeno, y el hidrógeno a su vez desaparece. Las galaxias se desvanecen conforme se aproximan unas a otras, sin llegar a formar nunca un huevo cósmico. Su lugar pasan a ocuparlo otras galaxias procedentes de esa reserva infinita que es el borde del Universo, o bien de la reserva situada más allá de dicho borde, según el punto de vista que adoptemos. A la larga, pues, y por mucho que retrocedamos en el tiempo, las galaxias ni acortan sus distancias mutuas ni rejuvenecen.

34.jpg
Figura 34.

En tales condiciones, el estado global del Universo no cambia con el tiempo (ni hacia atrás ni hacia adelante), sino que permanece estacionario. Un modelo de estas características representa un «Universo en estado estacionario» y concuerda con el principio cosmológico perfecto.
La idea de un Universo eterno e inmortal en el que el hombre (o la especie que evolucione a partir de él) podría vivir para siempre, posee sin duda un atractivo muy singular y ha causado un fuerte impacto en el público no científico. Impacto que se ha visto acentuado por la circunstancia de que el defensor más acérrimo de la creación continua ha sido Fred Hoyle, escritor ameno y convincente, cuyas obras de divulgación sobre astronomía han encontrado una excelente acogida entre el público en general. (Por otra parte, George Gamow, el partidario más sobresaliente de la teoría del «big bang», también es un escritor de enorme éxito en temas de divulgación científica. Rara vez en la historia de la ciencia se ha dado un enfrentamiento tal de titanes ante los ojos del público profano.)
Bien es verdad que en 1952, cuando Baade propuso una nueva escala para las distancias cósmicas e hizo retroceder el tiempo cero del «big bang» hasta 6 evos o más en el pasado, el argumento más potente en favor del Universo en estado estacionario (a saber, que el «big bang» era imposible) se vino abajo. Para entonces, empero, la idea del Universo en estado estacionario resultaba demasiado atractiva para abandonarla de buenas a primeras.
Es muy difícil decidirse por uno de los modelos del Universo que hemos presentado en este capítulo. A la hora de decidir debemos recordar que el Universo en estado estacionario se adhiere al principio cosmológico perfecto, mientras que los demás no. Esto significa que si fuésemos capaces de variar nuestra posición en el tiempo, el problema quedaría resuelto. Pues si comprobáramos que el aspecto general del Universo no cambia con el tiempo, que las galaxias no se hallaban más juntas ni eran más jóvenes en el pasado, ni más espaciadas y viejas en el futuro, ello supondría un punto importante a favor de la teoría del estado estacionario. En caso contrario, sería el Universo pulsante o el hiperbólico el que se vería favorecido; la elección entre ambos se haría entonces a partir de la amplitud del cambio a lo largo del tiempo.
Cierto es que si la raza humana logra sobrevivir de aquí a varios evos, sin solución de la continuidad cultural, nuestros descendientes se hallarán entonces en lo que ahora es futuro lejano y estarán en condiciones de decidir acerca de esta cuestión; pero sucede que los astrónomos desearían, a ser posible, encontrar la solución ahora, aspiración, por lo demás, muy comprensible.
Así pues, lo que precisamos es un viaje en el tiempo, un viaje temporal. Una forma de viaje temporal es, por de pronto, posible. Veamos cómo.
Cuando decimos que la galaxia de Andrómeda se halla a 2.300.000 años-luz de nosotros, queremos expresar que la luz tarda 2.300.000 años en cruzar la distancia que separa dicha galaxia de nuestros ojos. Cuando observamos Andrómeda, ya sea a simple vista o con ayuda de algún instrumento, lo que vemos es la luz que abandonó dicha galaxia hace 2.300.000 años, por lo cual no la veremos tal y como es en el momento presente, sino como era todo ese tiempo atrás. Al estudiar la galaxia de Andrómeda nos convertimos, efectivamente, en viajeros del tiempo que retroceden 2.300.000 años hacia el pasado.
Cuanto más lejos penetremos en el espacio, tanto más tiempo tarda la luz en llegar hasta nosotros y tanto más habremos retrocedido en el tiempo. Los telescopios ópticos más perfectos de que disponía el hombre en 1950-39 alcanzaban a distinguir objetos situados a una distancia de 1 ó 2 millones de años-luz; al observarlos, los astrónomos ven esa porción del Universo tal y como era hace 1 ó 2 evos.
Si la concepción del Universo en estado estacionario es correcta, esta diferencia debe ser indiferente: el Universo de 1 ó 2 evos atrás tendría las mismas propiedades generales que las del Universo de hoy día. Las galaxias que vemos con los telescopios más potentes no deberían estar más separadas ni más juntas de lo que están en la actualidad, deberían alejarse unas de otras a la misma velocidad que hoy día y, en general, no deberían presentar ninguna propiedad que las distinguiera, en conjunto, de las galaxias que observamos en las proximidades inmediatas de nuestro sistema.
Pero si la verdad científica estuviese del lado de la concepción pulsante o hiperbólica del Universo, entonces la diferencia de tiempo sí daría lugar a cambios considerables: como mínimo habría algunas propiedades importantes respecto a las cuales el borde remoto del Universo diferiría de las regiones próximas a nosotros.
Por ejemplo: las galaxias muy lejanas deberían ser más jóvenes que las de nuestras proximidades, así como más ricas en hidrógeno, menos espaciadas y caracterizadas por una velocidad de recesión mayor (toda vez que la fuerza explosiva no habría sido debilitada aún por la atracción lenta y constante de la gravedad). Por otra parte, dado que aquellas regiones representan la juventud del Universo, podrían contener objetos que no se encuentran en nuestra propia vecindad y que fuesen característicos únicamente de un Universo joven. Por último, estudiando la medida en que estas diferencias se ponen de manifiesto sería posible determinar cuál de los dos Universos se ajusta mejor a los hechos: si el pulsante o el hiperbólico.
Las consideraciones anteriores acaso parezcan sobremanera inmediatas, pero en realidad llevan a una frustración desesperante. Cuanto más distantes son los objetos que estudiamos, tanto más probable es que podamos decidir entre los distintos modelos del Universo que hemos sugerido; pero cuanto más lejanos son dichos objetos, tanto más difícil resulta también detectar detalle alguno.
A lo más que se llegó a mediados de la década de 1950-59 fue a estudiar los desvíos al rojo de las galaxias más distantes que se podían detectar. En un Universo en estado estacionario la constante de Hubble debería ser idéntica en todo momento y, por ende, para cualquier distancia. En un Universo pulsante o hiperbólico, por el contrario, dicha constante tiene que disminuir a medida que avanza el tiempo, tomando un valor bastante alto durante la juventud del Universo.

35.jpg
Figura 35. Desvío al rojo para grandes distancias.

En ese caso, las galaxias muy distantes (que representan dicha juventud) deberían alejarse con una velocidad mayor y exhibir un desvío al rojo también superior a lo normal. Hacia 1956 parecía, en efecto, que se habían observado desvíos al rojo excesivos, lo cual constituía un argumento en contra del Universo en estado estacionario. Sin embargo, el exceso observado era tan minúsculo y las dificultades de observación tan grandes, que las pruebas obtenidas no fueron ni mucho menos concluyentes. Se precisaba algo mejor. Pero ¿qué exactamente?
Para contestar a esta pregunta es necesario centrar nuestra atención en aquellas ramas de la astronomía moderna que no dependen de la luz visible. Llegados a este punto, la luz visible falla; otras manifestaciones del Universo quizá no.

Capítulo 16
Bombardeo de partículas

Contenido:
§. Partículas sin masa
§. Rayos cósmicos
§. Fuentes de rayos cósmicos
§. Partículas sin masa
Toda la información que obtenemos acerca del Universo (excluida la Tierra) se deriva de partículas que, emitidas por cualquiera de los objetos del espacio, cruzan la zanja que se interpone entre ellos y nosotros y llegan a la Tierra. Una vez en nuestro planeta, interaccionan con otras partículas (existentes de antemano entre nosotros), de suerte que el resultado de dicha interacción es perceptible para nuestros sentidos.
Esto mismo, expresado sin tantos rodeos, se puede decir de la siguiente manera (hemos elegido el ejemplo más común y conocido): las lejanas estrellas y galaxias emiten luz que el hombre puede ver, puede separar mediante un espectroscopio o puede impresionar sobre una película fotográfica.
Mas no nos engañemos; a través de todo el siglo XIX la luz fue considerada como una forma ondulatoria, no como partículas. Sin embargo, en 1900 el físico alemán Max Karl Ernst Planck (1858-1947) propuso la «teoría cuántica», en cuyo marco la luz —y, de hecho, todas las formas de energía— eran concebidas como si estuviesen compuestas de pequeños paquetes discretos que Planck llamó «cuantos». Esta teoría fue confirmada en 1905 por Einstein, y desde entonces se vio cada vez más claro que los cuantos de energía podían, en ciertos aspectos, comportarse como partículas.
Efectivamente, hacia la década de 1920-29 se comprobó que existía una especie de dualidad, en el sentido de que todas las partículas eran capaces de comportarse, en determinadas circunstancias, como formas ondulatorias, y todas las formas ondulatorias podían comportarse como partículas. Los dos aspectos no suelen encontrarse en equilibrio. Por ejemplo, las propiedades del protón en calidad de partícula son mucho más pronunciadas y fáciles de detectar que sus propiedades ondulatorias, aunque no cabe duda de que estas últimas están ahí y que pueden ser detectadas si procedemos con un cuidado suficiente. Por otra parte, las propiedades ondulatorias de la luz ordinaria son mucho más marcadas que sus propiedades «corpusculares», aun cuando estas últimas existen. Cuanto más corta es la longitud de onda de la luz, tanto mayor es el contenido energético de los cuantos y tanto más pronunciadas y fáciles de detectar serán sus propiedades corpusculares.
En 1923 el físico americano Arthur Holly Compton (1892-1962), trabajando con formas de luz de longitud de onda especialmente corta, demostró de un modo incontestable las propiedades corpusculares de la luz. Para designar tales partículas de luz acuñó el término «fotón» (el sufijo «-on» se utiliza por lo común para las partículas subatómicas; el prefijo «fot-» se deriva de la palabra griega para «luz»).
Así pues, la luz que vemos a lo largo y a lo ancho del Universo puede ser considerada como una lluvia de fotones que desciende sobre nosotros desde todas las direcciones: de un modo directo, desde el Sol, las estrellas y las galaxias; y por reflexión, desde la Luna y los planetas. Toda la astronomía anterior a la segunda mitad del siglo XIX puede incluirse, en cierto modo, bajo el epígrafe de la interacción de estos fotones con la retina del ojo.
Desde entonces el campo de la astronomía ha experimentado una expansión notable; y no nos referimos sólo al hecho de que en vez de ser la retina sobre lo que actúen directamente los fotones, sea una placa fotográfica, sino también a que el hombre ha sabido descubrir la existencia de numerosas clases de partículas (distintas de los fotones) y ha aprendido a manejarlas. Algunas de estas clases de partículas son verdaderamente sutiles; comencemos por las más sutiles de todas y que en algunos aspectos recuerdan a los fotones.
El fotón tiene una «masa en reposo» nula. Esto significa que si pudiésemos lograr que permaneciera completamente inmóvil, no exhibiría ninguna de las propiedades asociadas con la posesión de masa: no tendría inercia y no produciría ni respondería a un campo gravitatorio. Por consiguiente, el fotón se considera como una «partícula sin masa».
Ahora bien, tal carencia de masa es puramente teórica, pues es imposible conseguir que un fotón esté en reposo. Desde el momento en que nace, se aleja del lugar de formación a 300.000 kilómetros por segundo [xxiv] . Y mientras el fotón se mueve de este modo, sí que exhibe algunas de las propiedades asociadas con la masa: la de responder ligeramente a la acción de un campo gravitatorio, por ejemplo.
Existen, como mínimo, otras dos partículas sin masa que han sido postuladas por los físicos. Nos referimos al «gravitón» y al «neutrino». Al igual que el fotón, estas dos partículas tienen una masa en reposo nula, pero nunca permanecen inmóviles; a lo largo de toda su vida viajan única y exclusivamente a la velocidad de la luz. Esto es cierto, al parecer, para todas las partículas de masa nula[xxv] .
Tanto el fotón como el gravitón y el neutrino carecen de carga eléctrica. Teniendo en cuenta además que ninguna de las tres tiene tampoco masa, parece lícito preguntarse de qué forma podrá distinguírselas. Una posible marca distintiva se deriva del hecho de que la mayor parte de las partículas subatómicas pueden ser visualizadas como si giraran (a derechas o a izquierdas) alrededor de un eje. De aquí que el momento angular asociado con esta rotación pueda expresarse mediante un número positivo o un número negativo. Los físicos utilizan un sistema de unidades tal que al fotón le asignan un «spin» [«rotación» o «giro» en inglés] de +
1 ó —1. Partiendo de esta base, y con el fin de poder explicar el modo como se comportan las partículas subatómicas, los físicos han llegado a la conclusión de que es preciso asignar un spin de +1/2 ó —1/2 al neutrino y un spin de +2 ó —2 al gravitón. Este número, por sí solo, basta para distinguir perfectamente los tres tipos de partículas.
El gravitón no pasa de ser una partícula postulada teóricamente, pues hasta ahora no ha sido detectada de un modo directo. En efecto, las propiedades que la lógica de la situación ha obligado a los físicos a asignarle son tales, que acaso no se le llegue a detectar nunca. No obstante, los físicos suponen que es precisamente en virtud de la emisión y absorción de gravitones como se crean los campos gravitatorios.
Si bien es cierto que hasta ahora ha sido imposible detectar el gravitón directamente, al menos sí se puede detectarlo indirectamente a través de los efectos del campo gravitatorio a que da lugar. Así, el intercambio de gravitones entre la Luna, el Sol y la Tierra produce las mareas y mantiene a nuestro planeta y a su satélite en órbita alrededor del Sol. El intercambio de gravitones entre el Sol y el centro galáctico mantiene al sistema solar en su majestuosa rotación en torno a ese núcleo invisible.
En términos generales se puede decir que el efecto gravitatorio que ejercen sobre nosotros las distintas estrellas fuera de nuestro sistema solar y las diversas galaxias más allá de la nuestra, es indetectable y probablemente seguirá siéndolo a lo largo de todo el futuro previsible.
Pero esto no quita para que, de hecho, existan interacciones gravitatorias entre estrellas vecinas y entre galaxias próximas unas a otras, y estas interacciones pueden proporcionarnos cierta información. Por ejemplo, las dos estrellas de un sistema binario se mueven una en torno a otra de acuerdo con la ley de gravitación obtenida por Newton; y aplicando esta ley es posible calcular las masas relativas de los dos cuerpos. Aun en el caso de que uno de los miembros del sistema sea invisible, el movimiento del otro en respuesta a los gravitones emitidos y absorbidos por el cuerpo inobservable suministrará información acerca de la masa de éste. Así fue cómo se detectó Sirio B por primera vez.
Una estrella doble que posea una componente demasiado pequeña para ser observada y que, por tanto, sólo sea detectable mediante medidas muy precisas de las diminutas evoluciones que describe la componente observable («astrometría»), se denomina «binaria astrométrica». El siglo XX ha presenciado binarias astrométricas mucho más evasivas que el sistema de Sirio.
En 1943 un equipo encabezado por el astrónomo holandés-americano Peter van de Kamp (n. 1901) estudió los movimientos de 61 Cygni. La estrella 61 Cygni es en realidad una binaria: está compuesta por 61 Cygni A y 61 Cygni B, ambas girando en torno a un centro de gravedad común. Sin embargo, la trayectoria de una de ellas serpenteaba muy ligeramente, pero lo suficiente como para delatar la presencia de un cuerpo de masa equivalente a 1/120 la del Sol. Una masa tan reducida —sólo ocho veces la del planeta Júpiter— no puede albergar reacciones nucleares con una intensidad suficiente para clasificar a la estrella ni siquiera entre las enanas. Por esta razón, el nuevo cuerpo, 61 Cygni C, fue considerado como un planeta (aunque ciertamente gigante): se trataba del primer cuerpo planetario que se descubría fuera de nuestro sistema solar. Desde entonces se han detectado otros cuerpos de la misma especie. En 1963 se llevó a cabo una observación detenida de la estrella de Barnard, detectándose una ligera ondulación en su movimiento propio que venía a indicar la presencia de masas planetarias. Van de Kamp sugirió en 1969 que dicha ondulación admitía una explicación óptima si se postulaba la presencia de dos planetas: uno que tuviera 1,1 veces la masa de Júpiter, y otro cuya masa fuese 0,8 veces la de éste. De estos dos planetas, el mayor sería el más próximo a la estrella de Barnard (a una distancia aproximadamente igual a la que media entre el Sol y la zona de asteroides), mientras que el menor se hallaría a una distancia igual a la que existe entre Júpiter y el Sol. Los períodos orbitales son de 12 y 26 años, respectivamente.
La tercera partícula de masa nula, el neutrino, se encuentra en una posición intermedia entre el gravitón y el fotón en cuanto a facilidad de detección. A diferencia del gravitón, el neutrino sí ha sido detectado, pero su observación ofrece muchas más dificultades que la del fotón.
La existencia del neutrino fue postulada en 1931 por el físico austriaco Wolfgang Pauli (1900-1958), como consecuencia de la necesidad de dar cuenta de ciertas interacciones de las partículas subatómicas que, de otro modo, resultaban inexplicables. Durante un cuarto de siglo el neutrino fue una ficción teórica, producto de la imaginación científica; más tarde, en 1956, los físicos americanos Clyde Lorrain Cowan, Jr. (n. 1919) y Frederick Reines (n. 1918) llevaron a cabo un experimento sumamente delicado que vino a demostrar de modo irrefutable la interacción (muy poco frecuente) de un neutrino con un protón. La existencia real del neutrino fue aceptada al instante por la comunidad científica.
Los neutrinos que se detectaron en 1965 habían sido producidos por la fisión del uranio dentro del núcleo de un reactor nuclear construido por el hombre. Naturalmente, en el interior de las estrellas también se producen neutrinos (aunque de un tipo algo diferente), y en cantidades inmensamente mayores. Sin embargo, los neutrinos poseen la propiedad de atravesar grandes masas de materia sin verse afectados en absoluto. A través de cada centímetro cuadrado de la sección transversal de la Tierra pasan cien mil millones de neutrinos cada segundo a la velocidad de la luz, sin percatarse siquiera de la presencia de la Tierra. Sólo muy de cuando en cuando interacciona un neutrino con alguna de las partículas del planeta.
Después de 1956 se emprendieron trabajos muy arduos para detectar, a través de estas interacciones esporádicas, los neutrinos nacidos en el Sol y en las estrellas. Reines, por ejemplo, montó un gigantesco aparato para la detección de neutrinos en una mina de oro de Sudáfrica situada a más de tres kilómetros por debajo de la superficie terrestre. El lector dirá que es extraño intentar estudiar los cielos desde un refugio subterráneo, pero lo cierto es que los neutrinos son capaces de alcanzar tales profundidades (o cualquier porción de la Tierra, hasta su mismo centro) sin dificultad alguna, mientras que las demás partículas detectables no. Finalmente, en 1965, y tras medio año de observaciones, Reines afirmó haber detectado siete neutrinos (¡siete!)
En 1968 Raymond Davis Jr. instaló una trampa de neutrinos aún más perfeccionada en una profunda mina de Dakota del Sur. Este aparato logró detectar, en efecto, neutrinos solares, pero en una cantidad que sólo representaba la mitad del mínimo establecido por cualquiera de los esquemas empleados por lo común para describir los procesos que se desarrollan en el interior del Sol. O nuestros conocimientos acerca del funcionamiento interno de las estrellas requiere una revisión a fondo, o estamos pasando por alto algún aspecto que resultará «obvio» una vez explicado, o bien el método de detección de neutrinos no es todo lo perfecto que debiera ser.
En cualquier caso, nos hallamos ante los primeros síntomas del nacimiento de la «astronomía del neutrino». Si en el futuro se consigue aumentar la eficacia de los métodos de detección, los conocimientos que se podrán adquirir serán muy valiosos. Dado que los neutrinos provienen directamente del corazón de las estrellas, analizando su distribución de energías será posible determinar la temperatura y otras propiedades de los núcleos estelares, y ello de un modo directo, no a través de deducciones mediatas e inciertas.

§. Rayos cósmicos
Mucho más espectacular es, empero, el bombardeo de la Tierra con partículas que poseen masa.
Ya en 1900 los físicos nucleares estaban estudiando el proceso en virtud del cual la radiación energética procedente de los átomos radiactivos chocaba y expelía los electrones de los átomos contenidos en la atmósfera. La parte remanente del átomo poseía una carga eléctrica positiva; estos fragmentos de átomo cargados se denominaron «iones positivos».
Con el tiempo se fue viendo cada vez más claro que por mucho cuidado que pusieran los físicos en blindar una muestra de aire —encerrándola en cajas de plomo, elemento que al parecer era impenetrable para la radiación—, seguían formándose poco a poco iones en el interior de la muestra. Al parecer, había que admitir la existencia de un tipo de radiación aún más energética que la que se había venido observando hasta entonces, una radiación capaz de atravesar un espesor de plomo que, en circunstancias normales, habría constituido un blindaje adecuado.
Los físicos, en general, dieron por supuesto que esta radiación especialmente energética provenía del suelo, pues al fin y al cabo era allí donde se hallaban las sustancias radiactivas. Con el fin de dejar sentada de una vez para siempre la cuestión, el físico austriaco Victor Franz Hess (1883-1964) organizó a partir de 1911 una serie de ascensiones en globo, con objeto de comprobar la presencia de esta radiación ionizante a una altura de varios kilómetros sobre la superficie terrestre. La capa de aire entre la superficie y el globo debería bastar para absorber cierta parte, como mínimo, de la radiación energética, con lo cual se comprobaría que la velocidad de formación de iones en el globo era menor que en la superficie.
Pero lo que se observó fue precisamente lo contrario. La velocidad de ionización aumentaba; y cuanto más alto ascendía el globo, tanto mayor era el aumento. No cabía duda: el origen de la radiación no se hallaba por debajo del globo, en la superficie de la Tierra, sino por encima de ella. Hess llamó a este tipo de radiación «radiación de gran altura». A lo largo de la década siguiente los resultados de Hess se vieron confirmados una y otra vez, lo cual demostraba claramente que la radiación incidía sobre la Tierra desde todas las direcciones y que aquélla debía provenir de fuentes localizadas en algún lugar del espacio. Dado que la radiación que llegaba a la Tierra procedía del Universo exterior (cosmos), el físico americano Robert Andrews Millikan (1868-1953) le dio en 1925 el nombre de «rayos cósmicos», denominación que se ha conservado desde entonces.
A renglón seguido se planteó el problema de averiguar en qué consistía exactamente la naturaleza de los rayos cósmicos. Dos eran las variantes que parecían más probables: o bien se trataba de fotones en extremo energéticos, de longitud de onda más corta —y por tanto de más energía— que cualquiera de los que se habían observado hasta entonces, o bien eran partículas masivas de velocidad muy alta cuya insólita energía se derivaba de la combinación de una gran masa con una velocidad muy elevada.
Todas las partículas masivas que se conocían en los años veinte poseían carga eléctrica, lo cual hacía suponer que ello seguiría siendo cierto para los rayos cósmicos, caso de que cayeran dentro de esta categoría. Y de aquí se seguía que si bien los rayos cósmicos se aproximaban a la Tierra por igual desde todas las direcciones, deberían incidir con mayor frecuencia en las regiones polares que en los trópicos.
Esto era consecuencia del hecho de que la Tierra se comporta como un imán cuyos polos magnéticos norte y sur estuvieran localizados en las regiones polares, y cuyas líneas de fuerza magnéticas se curvaran hacia afuera de norte a sur, alcanzando una separación máxima en los trópicos y un espaciamiento mínimo en las regiones polares. Cualquier partícula cargada que penetrara en el campo magnético de la Tierra sería desviada bien hacia el norte, bien hacia el sur, de acuerdo con una interacción perfectamente conocida por los físicos de aquellos tiempos.
Algunos rayos cósmicos especialmente energéticos quizá llegaran a atravesar como centellas el campo magnético gracias a su impulso y aterrizar en los trópicos (si es que era éste su punto de destino), pero en líneas generales la incidencia de tal radiación debería ir aumentando de una forma continua a medida que se avanzara hacia el norte o hacia el sur a partir del ecuador.

36.jpg
Figura 36. La Tierra como imán

Por otra parte, los fotones, desprovistos como están de toda carga eléctrica, no se verían afectados de un modo apreciable por el campo magnético de la Tierra. Si los rayos cósmicos fueran fotones y se aproximaran a nuestro planeta por igual en todas direcciones, la lluvia de esta radiación debería distribuirse de un modo uniforme por toda la superficie terrestre.
A partir de 1930 Compton realizó una serie de estudios extensivos sobre los rayos cósmicos en diferentes partes del mundo, constatando que efectivamente la intensidad aumentaba con la latitud, tal y como cabía esperar en el caso de que los rayos fuesen partículas cargadas.
Quedaba aún por averiguar si las partículas estaban cargadas positiva o negativamente. El físico italiano Bruno Rossi (n. 1905) señaló en 1930 que la naturaleza de la desviación de los rayos cósmicos debía ser distinta según el signo de la carga. Las partículas cargadas positivamente se desviarían de tal modo que un observador terrestre vería incidir un número mayor de partículas desde el Oeste que desde el Este, mientras que para partículas con carga negativa ocurriría lo contrario. Hacia 1935 el dictamen era ya claro: los rayos cósmicos se componían de partículas cargadas positivamente.
Esto es cierto para la forma en que se encuentra la radiación antes de entrar en la atmósfera terrestre («radiación primaria»). Una vez que penetra en la atmósfera, colisiona con los átomos de ésta, dando lugar a varios tipos de partículas de energía menor, aunque todavía muy alta («radiación secundaria»). Naturalmente, la radiación que más les interesa a los astrónomos es la primaria.
Para alcanzar la radiación primaria es preciso ascender como mínimo hasta la estratosfera, dejando atrás la mayor parte de las moléculas de aire, causantes de colisiones e interferencias. Hacia finales de la década de los treinta se inició una serie de ascensiones en globo encaminadas a este fin, utilizando nuevas materias plásticas más ligeras y herméticas que los productos disponibles hasta entonces. De este modo se alcanzaron alturas de hasta 21 kilómetros, dejando atrás un 97% de la atmósfera.
Como resultado de estos experimentos se comprobó que la radiación primaria consistía principalmente en protones (núcleos de hidrógeno-1) que se movían casi a la velocidad de la luz. Hacia los años 1960-69 no cabía ya duda de que aproximadamente un 90% de todas las partículas energéticas de la radiación primaria eran protones. Otro 9% estaba compuesto por núcleos de helio-4, y el resto por núcleos de átomos aún más pesados, incluidos el uranio y elementos más allá del uranio, es decir, los átomos más complejos que se dan en la Tierra en cantidades apreciables. Fue en 1967 cuando se detectaron en los rayos cósmicos los primeros núcleos más masivos que los del uranio.
En resumen, los rayos cósmicos estaban compuestos de la materia general del espacio interestelar, si bien animada por un movimiento rapidísimo y en posesión de una concentración de energía casi inimaginable.
En los últimos años los físicos han logrado construir gigantescos «aceleradores de partículas», aparatos muy costosos y complicados que pueden dotar a una partícula con energías de hasta treinta mil millones de electronvoltios («30 BeV»). La magnitud de esta concentración de energía cabe juzgarla si la comparamos con la de un fotón de luz ordinario, que puede ser algo así como de dos electrón-voltios («2 eV»).
Así pues, el hombre es capaz de producir protones con energías de hasta quince mil millones de veces la de un fotón luminoso, y tales energías sí representan una aproximación al nivel energético de los rayos cósmicos (esta es la razón de que uno de los aceleradores de partículas gigantes recibiera el nombre de «cosmotrón»).
Pero aun las creaciones más enorgullecedoras del hombre no logran alcanzar sino los niveles energéticos inferiores de los rayos cósmicos. Muchas de las partículas de los rayos cósmicos inciden en la atmósfera terrestre con energías muy superiores a los 30 BeV; algunas llegan incluso a 1.000.000 de BeV y más.

§. Fuentes de rayos cósmicos
Ahora bien, ¿de dónde provienen los rayos cósmicos? ¿Qué es lo que les confiere a algunos de ellos energías tan tremendas?
Un origen lógico podría ser el Sol, pero esta hipótesis fue rechazada casi de inmediato (al menos como una de las fuentes principales), pues los rayos cósmicos inciden sobre la Tierra desde todas las direcciones por igual: la frecuencia es la misma en la dirección del Sol que en la opuesta. Aun admitiendo que los rayos cósmicos (caso de que se originaran en el Sol) sufrieran una desviación en el campo magnético terrestre, y que algunos de ellos se vieran incluso empujados hasta la parte trasera de nuestro planeta, resulta inadmisible pensar que el resultado final de tal desviación fuese una distribución completamente uniforme de los rayos cósmicos a través de toda la superficie de la Tierra. Por consiguiente, la fuente tenía que estar localizada fuera del sistema solar, sin olvidar que la distribución uniforme del influjo de rayos cósmicos prohibía atribuir el fenómeno a un objeto particular del Universo.
Y sin embargo, no se podía descartar al Sol completamente. El sistema de radiación del Sol no es del todo uniforme; su superficie se encuentra salpicada de «manchas solares», regiones de temperatura relativamente baja que, por esta razón, destacan como zonas oscuras contra un fondo que es más caliente y brillante. Las manchas solares van acompañadas de campos magnéticos, y la acumulación de energía en estos campos se manifiesta a veces de forma violenta.
Una de estas manifestaciones es la «erupción solar», o abrillantamiento súbito de una zona irregular próxima a una mancha solar. La primera observación (al menos de las que tenemos noticia) de una erupción solar fue efectuada en 1859 por el astrónomo inglés Richard Christopher Carrington (1826-1875), quien atribuyó este abrillantamiento repentino del disco solar a la caída de un gran meteoro (en la línea de las ideas de Helmholtz en aquel tiempo). Sin embargo, casi inmediatamente después de dicha observación se registró un comportamiento anómalo en las brújulas, y la aurora boreal de las regiones polares adquirió un brillo desusado.
Desde entonces, la asociación de las erupciones solares con tales «tormentas magnéticas» ha sido inconfundible. Naturalmente, no todas las erupciones dan lugar a estos fenómenos magnéticos, sino sólo aquellas que ocupan una posición más o menos central en la cara del Sol y que, por tanto, apuntan directamente hacia nosotros. Al parecer, las grandes energías que van asociadas con las erupciones bastan para lanzar al espacio cantidades ingentes de partículas subatómicas. Dado que en todo momento se están produciendo erupciones y otros fenómenos energéticos aquí y allá en la superficie del Sol, cabe imaginar este astro como rodeado por una nube de partículas energéticas cargadas que salen despedidas de aquél en todas direcciones. Es lo que se denomina el «viento solar».
La existencia real de este viento solar quedó confirmada en 1958 mediante una serie de experimentos con cohetes. La velocidad con que las partículas son emitidas por el Sol hacia el exterior puede llegar a alcanzar los 720 kilómetros por segundo; a esta velocidad las partículas poseen una cantidad insólita de energía cinética. Antes de la década pasada se creía, por ejemplo, que la cola de los cometas fluía en dirección opuesta a la del Sol debido a la presión que ejercía la radiación solar sobre las diminutas partículas de que se componía la cola. Al parecer, esto no es cierto; es la fuerza del viento solar la causante de dicho efecto.
No es preciso decir que las partículas cargadas del viento solar tendrán que interaccionar con el campo magnético terrestre al aproximarse a nuestro planeta. Tal y como predijo el científico amateur griego (ahora físico profesional) Nicholas Christofilos en 1957, las partículas cargadas que componen el viento solar se verían desviadas por las líneas de fuerza magnéticas, describiendo una trayectoria espiral en torno a ellas desde el polo magnético norte hasta el polo magnético sur, para volver luego de nuevo al polo norte y formar así una región de alta densidad de carga alrededor de la Tierra, muy por encima de su atmósfera. Esta teoría no fue tomada en serio al principio (en parte porque Christofilos era un aficionado), pero en 1958 una serie de observaciones con cohetes, llevadas a cabo bajo la dirección del físico americano James Alfred Van Allen (n. 1914), vinieron a demostrar la existencia real de tales regiones. En principio recibieron el nombre de «cinturones de Van Allen», y más tarde el de «magnetosfera».
Las fronteras de la magnetosfera están conformadas —debido al viento solar— en una especie de gota aerodinámica. En la dirección del Sol la magnetosfera presenta un perfil redondeado y chato; en la dirección opuesta se extiende en una larga cola.
La presencia de una erupción solar apuntando en dirección a nuestro planeta origina una intensificación local del viento solar, algo así como un huracán de partículas cargadas que cayera sobre nosotros, invadiendo e inundando la magnetosfera. Las partículas se derraman principalmente sobre las regiones polares de la Tierra, dando lugar a un acentuamiento de la aurora boreal e introduciendo en el campo magnético irregularidades tales como la de hacer temblar la aguja de una brújula. Desde el punto de vista práctico, las erupciones solares tienen un efecto más importante que el que acabamos de reseñar, y es que alteran las propiedades de aquellas secciones de la alta atmósfera que normalmente contienen una concentración elevada de cargas electrónicas en forma de iones (de ahí que dicha sección de la atmósfera se llame «ionosfera»). Como consecuencia de ello, las tormentas magnéticas perturban el funcionamiento de los sistemas de radio, e incluso de cualquier dispositivo que interaccione con la radiación de la ionosfera.
La energía de las partículas que van a parar al viento solar varía naturalmente con la intensidad y la fuerza de la erupción. ¿Qué ocurre cuando se produce una erupción realmente grande? En 1942 se registró una de estas características y a renglón seguido se observó un aumento pasajero del influjo de rayos cósmicos. Tal correlación ha sido observada desde entonces en diversas ocasiones, lo cual demuestra que el Sol puede actuar como fuente de rayos cósmicos, al menos en determinadas circunstancias. Los rayos cósmicos solares son «blandos», es decir, relativamente poco energéticos, con energías que oscilan entre 0,5 y 2 BeV. Pero esto no resta validez, en modo alguno, a la conclusión anterior.
¿No será que las estrellas, en general, producen rayos cósmicos como resultado de erupciones o de otros fenómenos? Acaso sea que al pasar los rayos cósmicos a través de los vastos espacios interestelares se vean desviados una y otra vez por los campos magnéticos locales, hasta que por último desaparece todo indicio de la dirección de marcha originaria. Tales campos magnéticos locales existen de hecho. El Sol, por ejemplo, posee un intenso campo magnético concentrado en las manchas solares, como demostró ya en 1907 el astrónomo americano George Ellery Hale (1868-1938). Asimismo, el astrónomo americano Horace Welcome Babcock (n. 1912) detectó en 1947 campos similares en algunas otras estrellas.
Así pues, en último término, y gracias a tales campos magnéticos, las partículas de los rayos cósmicos llegarían a moverse en direcciones aleatorias, hasta el punto de que parecerían provenir por igual de todas direcciones, sin presentar una concentración máxima en el plano de la Vía Láctea, que es donde se halla la mayor parte de las estrellas [xxvi] .
Esta explicación no es del todo satisfactoria; pues si todas las estrellas contribuyeran equitativamente a la producción de rayos cósmicos, entonces el Sol, siendo el astro más próximo, haría sombra, digámoslo así, al resto de las estrellas, igual que ocurre con la producción de luz. En ese caso, el influjo de rayos cósmicos debería mostrar una descompensación muy marcada en la dirección del Sol, lo cual no es cierto.
Por consiguiente, es preciso concluir que algunas estrellas son mucho más pródigas que el Sol en la producción de partículas de rayos cósmicos. Existen, por ejemplo, ciertas estrellas variables cuya variación se debe a la producción periódica de grandes erupciones. Es posible que estas «estrellas eruptivas» constituyan ricas fuentes de rayos cósmicos. Y luego están, cómo no, las supernovas.
El influjo de rayos cósmicos procedentes de tales miembros (cabría decir «especializados») de la Galaxia es capaz de ahogar por completo la ridícula producción de las estrellas ordinarias, incluso de nuestro propio Sol.
Mas ello no resuelve el problema de la energía de los rayos cósmicos. Si el Sol es capaz de producir partículas de 1 BeV de energía, no es nada sorprendente que una supernova esté en condiciones de dar origen a energías mucho mayores, pero nunca de miles de millones de BeV. Ninguna de las reacciones nucleares conocidas es capaz de producir —ni siquiera en las supernovas más calientes y violentas— partículas tan energéticas como muchas de las que existen en los rayos cósmicos.
Ahora bien, ¿es necesario, en realidad, que todas las partículas posean desde el mismo momento de su formación tales energías? El físico ítalo-americano Enrico Fermi (1901-1954) sugirió en 1951 otra posibilidad. Supongamos que las partículas de los rayos cósmicos se producen a energías bastante moderadas (de algunos BeV) y que el campo magnético de la Galaxia las acelerara, aumentando así su energía primitiva.
El proceso sería análogo al de los ciclotrones construidos por el hombre. Estos dispositivos obligan a las partículas cargadas a girar en círculos bajo la influencia de un campo magnético, comunicándoles nueva energía al cabo de cada ciclo. A medida que las partículas van adquiriendo energía, la desviación producida por el campo es cada vez menor, hasta que, por último, no pueden permanecer dentro de los confines del ciclotrón y salen despedidas a grandes energías.
Las intensidades magnéticas de los imanes construidos por el hombre superan con mucho a las del campo magnético de la Galaxia, pero en cambio éste se extiende a lo largo de varios miles de años-luz. Aunque la aceleración que experimentan las partículas de los rayos cósmicos sea muy lenta, al cabo de evos enteros de tiempo pueden llegar a alcanzar energías efectivamente muy altas.
En cualquier momento de su viaje puede ocurrir que estas partículas se estrellen contra algún obstáculo, tal como nuestro propio planeta. Esto significa que estaríamos sometidos a un amplio espectro de energías, pues la energía de una partícula dada dependería en gran medida del tiempo que llevara viajando antes de chocar contra nosotros. Cuanto más largo fuese este viaje previo, tanto mayor sería la energía en el momento del choque.
Ahora bien, conforme una partícula de rayos cósmicos va ganando energía, la desviación que sufre bajo la influencia del campo magnético es cada vez menor; llega entonces un momento en que su trayectoria es tan recta que ni siquiera la inmensa anchura de la Galaxia bastará para retenerla. Cuando la energía de la partícula se aproxima a los cien millones de BeV, ésta sale despedida del ciclotrón galáctico, si se nos permite esta expresión.
Dicho con otras palabras: si nuestra Galaxia fuese la única fuente de partículas de rayos cósmicos, no cabe esperar energías superiores a los cien millones de BeV. No obstante, en ocasiones se detectan energías mayores, hasta diez mil millones de BeV como mínimo. La única hipótesis que se puede hacer es que tales partículas super- energéticas se originen en galaxias cuyos campos magnéticos son más intensos que el de la nuestra, galaxias que han explotado, implotado o, en general, que han experimentado cambios catastróficos que superan con creces a las supernovas ordinarias. Estas catástrofes galácticas liberarían energías gigantescas y verdaderas olas de rayos cósmicos en la región de los miles de millones de BeV.
Estas partículas superenergéticas, tras salir despedidas finalmente de su galaxia madre sin tener la mala fortuna de chocar con un trozo cualquiera de materia, cruzan el espacio intergaláctico, pasan por casualidad a través de nuestra Galaxia e inciden sobre nuestro planeta.

Capítulo 17
Fotones energéticos

Contenido:
§. El espectro electromagnético
§. Estrellas de rayos X
§. Antimateria
§. El espectro electromagnético
Pero volvamos ahora al fotón. Antes de 1800, los únicos fotones que conocía el hombre eran los de la luz visible, aquéllos precisamente que era capaz de percibir de un modo directo. La longitud de onda de la luz visible oscila entre 0,000076 centímetros en el extremo rojo del espectro y la mitad de ese valor, ó 0,000038 centímetros, en el extremo violeta. La energía de los fotones de la luz es inversamente proporcional a su longitud de onda. Por consiguiente, como hemos dicho que la longitud de onda de la luz en el extremo violeta es la mitad de la del extremo rojo, los fotones de la luz violeta tendrán un contenido de energía doble que el de los fotones de la luz roja. El contenido energético de los fotones de la luz visible varía entre 1,5 electrón-voltios (1,5 eV) en el extremo rojo del espectro y 3,0 eV en el extremo violeta.
Más tarde, durante los primeros años del siglo XIX, se descubrieron las radiaciones infrarroja y ultravioleta. El contenido energético de los fotones infrarrojos es, naturalmente, menor que 1,5 eV, mientras que el de los fotones ultravioletas supera los 3,0 eV.
Una cuestión que permaneció sin resolver durante buena parte del siglo XIX fue la de hasta qué punto se extendía la región infrarroja del espectro en la dirección de las energías decrecientes, y hasta dónde llegaba la región ultravioleta en la dirección opuesta, es decir, la de energías cada vez mayores.
Sin embargo, en 1861 el físico escocés James Clerk Maxwell (1831-1879) desarrolló una teoría global de la electricidad y del magnetismo que ponía de manifiesto la relación íntima e inseparable que ligaba a estos dos tipos de energía. (Como consecuencia de esta teoría sólo es lícito hablar de un «campo electromagnético», fusionando los dos tipos de energía en uno solo). Maxwell demostró asimismo que una variación periódica en la intensidad de un campo de este tipo produce una forma ondulatoria que se aleja de la fuente de variación a la velocidad de la luz. Efectivamente, la propia luz era considerada como una forma de esa «radiación electromagnética».
Puesto que el campo electromagnético puede variar con un período cualquiera, la radiación electromagnética puede tener también cualquier longitud de onda. Por tanto, debían existir radiaciones electromagnéticas con longitudes de onda mucho más grandes que el infrarrojo, y otras cuyas longitudes de onda fuesen mucho más cortas que el ultravioleta.
Poco tiempo pasó antes de que esta predicción se viera confirmada. En 1888 el físico alemán Heinrich Rudolf Hertz (1857-1894) logró producir ondas electromagnéticas de longitud de onda enorme. Tal radiación (que al principio recibió el nombre de «ondas hertzianas») se utilizó más tarde en la comunicación radio telegráfica, es decir, comunicación no por medio de corrientes eléctricas a través de hilos (como en el telégrafo ordinario), sino por medio de ondas radiadas (de ahí el prefijo «radio») a través del espacio. A la luz de las consideraciones anteriores cabría esperar que este tipo de radiación se llamara ondas radiotelegráficas, pero el término que se afincó fue la forma abreviada de «ondas de radio» o «radioondas».
En 1895 el físico alemán Wilhelm Konrad Röntgen (1845-1923) demostró la existencia de una forma de radiación que resultó ser de naturaleza electromagnética y que poseía una longitud de onda extremadamente corta. Röntgen la llamó «rayos X» como confesión de su ignorancia acerca de la naturaleza de esta radiación, y esa denominación ha persistido desde entonces, aun después de disipada dicha ignorancia.
Las tres variedades de radiación procedentes de las sustancias radiactivas (descubiertas por Becquerel en 1896) fueron bautizadas por Rutherford con las tres primeras letras del alfabeto griego: «rayos alfa», «rayos beta» y «rayos gamma». De estas tres radiaciones, sólo los rayos gamma resultaron ser de naturaleza electromagnética: se trataba de una forma de radiación de longitud de onda aún más corta que la de los rayos X.
Así pues, hacia principios del siglo XX los físicos se hallaban en posesión de un enorme «espectro electromagnético» que se extendía a lo largo de unas sesenta octavas (es decir, la longitud de onda se duplicaba sesenta veces desde la más corta a la más larga). Esto equivale a decir que las ondas más largas eran 260 —o aproximadamente 1.000.000.000.000.000.000 (un trillón) — veces superiores a las más cortas. De esta gama tan amplia, la luz visible cubría únicamente una octava.
El espectro electromagnético es continuo, y no existe salto alguno entre una forma de radiación y otra. Las clasificaciones que el hombre ha impuesto a este espectro son puramente arbitrarias: en el caso de la gama visible, la clasificación depende de la capacidad humana para percibir la luz de un modo directo; en el caso de las restantes porciones del espectro depende de los accidentes de la historia de los descubrimientos. Estas clasificaciones o fronteras arbitrarias se suelen describir en función de la longitud de onda, o bien de la frecuencia (el número de longitudes de onda producidas por segundo). Nosotros, sin embargo, las describiremos en este libro en función del contenido energético de los fotones que componen la radiación, valor que es directamente proporcional a la frecuencia.
Las radiaciones electromagnéticas de longitud de onda más larga (y, por consiguiente, compuestas de fotones de mínima energía) son las radioondas. En un sentido amplio, las radioondas contienen fotones de 0,001 eV para abajo. Pero dado que esta gama es muy amplia y resulta muy incómoda de manejar, a menudo se descompone en tres regiones: radioondas largas, radioondas cortas y radioondas muy cortas. Estas últimas se denominan hoy día con frecuencia «microondas». El contenido energético de los fotones sería el siguiente:
Radioondas largas — cero a 0,00000001 eV
Radioondas cortas — 0,00000001 eV a 0,00001 eV
Microondas — 0,00001 a 0,001 eV
La región infrarroja se puede dividir a su vez en infrarrojo lejano, infrarrojo medio e infrarrojo próximo, a medida que la longitud de onda se acorta y aumenta la energía de los fotones:
Infrarrojo lejano — 0,001 a 0,03 eV
Infrarrojo medio — 0,03 a 0,3 eV
Infrarrojo próximo — 0,3 a 1,5 eV
La región visible se encuentra, como ya dijimos anteriormente, entre 1,5 y 3,0 eV. Atendiendo al color, las energías se pueden clasificar del modo siguiente (se trata de promedios):
Rojo — 1,6 eV
Naranja — 1,8 eV
Amarillo — 2,0 eV
Verde — 2,2 eV
Azul — 2,4 eV
Violeta — 2,7 eV
Las radiaciones electromagnéticas consistentes en fotones de energía mayor que la de los de la luz visible comprenden, en orden creciente de energía, el ultravioleta próximo, el ultravioleta lejano, los rayos X y los rayos gamma:
Ultravioleta próximo — 3 a 6 eV
Ultravioleta lejano — 6 a 100 eV
Rayos X — 100 a 100.000 eV
Rayos gamma — de 100.000 eV en adelante.

§. Estrellas de rayos X
Naturalmente, la cuestión que surge ahora es la siguiente: hasta dónde se extienden, dentro del espectro electromagnético total, los espectros del Sol y las estrellas. En este sentido queda fuera de toda duda que el espectro solar no está restringido a la octava visible, pues tanto la radiación infrarroja como la ultravioleta fueron detectadas por primera vez precisamente en dicho espectro.
Ahora bien, las investigaciones que se pueden llevar a cabo acerca de las regiones situadas más allá de los bordes visibles del espectro solar poseen un límite tajante, al menos en lo que se refiere a las investigaciones efectuadas desde la superficie terrestre. Y ello se debe a que la atmósfera, aunque transparente en la región de la luz visible, es bastante opaca para casi todas las demás regiones del espectro electromagnético. Aunque muy bien pudiera ser que el Sol fuese rico en radiación perteneciente al ultravioleta e infrarrojo lejanos, tal radiación no podría llegar hasta nosotros, estando como estamos bajo un colchón de aire de varios kilómetros de espesor. Hasta bien entrado el siglo XX nada pudo hacerse para remediar esta situación.
Pero hacia mediados del siglo presente la tecnología del hombre consiguió que la atmósfera dejara de ser esa barrera impenetrable que fue en un tiempo. Los aviones fueron capaces de remontarse hasta la estratosfera y permanecer allí durante horas; los globos podían subir a alturas aún mayores y permanecer allí durante días enteros; y los cohetes y satélites estaban en condiciones de elevarse por encima incluso de la atmósfera y permanecer allí durante semanas, meses y años.
Las observaciones astronómicas efectuadas desde la estratosfera y desde regiones aún más altas tenían la ventaja de poder aprovechar toda la gama de energías de los fotones, sin tener que limitarse a las pocas variedades capaces de penetrar sin interferencias hasta el fondo del océano de aire dentro del cual nos movemos y vivimos.
En 1964, por ejemplo, se logró estudiar la porción infrarroja de la luz reflejada por el planeta Venus, haciendo uso de un telescopio montado en un globo. Las bandas de absorción que se hallaron en el espectro infrarrojo del planeta delataban claramente la presencia de cristales de hielo en las nubes de Venus, deduciéndose de ello que éstas se componían probablemente 'de agua. Desde la superficie de la Tierra habría resultado difícil, cuando no imposible, llegar a tal conclusión de un modo inequívoco; pues desde la superficie terrestre la porción interesante del espectro permanece oculta, y cualquier efecto que el contenido de agua de la atmósfera de Venus tuviera sobre la porción espectral visible desde la superficie terrestre necesariamente se vería enmascarado —en mayor o en menor medida— por el vapor de agua presente en la atmósfera de la Tierra.
Por otra parte, desde un globo se pueden tomar fotografías solares mucho más precisas que desde la superficie terrestre. De este modo, se logró aplicar los métodos fotográficos hasta la región ultravioleta del espectro solar, y (sobre todo después de que entraran en uso los cohetes espaciales) fue posible registrar y medir miles de rayas de absorción que desde la Tierra habrían permanecido para siempre invisibles.
Pero no es el Sol el único que se ha beneficiado de esta extensión del alcance espectral. En 1968 ciertas observaciones llevadas a cabo desde satélites cuya órbita estaba situada más allá de la atmósfera terrestre revelaron que la radiación ultravioleta de los núcleos de diversas galaxias (entre ellas la de Andrómeda) era varias veces más intensa que lo que se había esperado.
Tampoco es necesario pararnos en el ultravioleta. Ya en 1949 se descubrió que el espectro solar penetraba en la región de los rayos X en una medida mucho mayor de lo que se había estimado como posible. Pues, en general, cuanto más alta es la temperatura de un cuerpo, mayor es la cantidad de fotones altamente energéticos que emite, hecho que por lo demás ya demostró Wien antes de que se sospechase la existencia de los fotones. Y la temperatura superficial del Sol no era, en modo alguno, suficientemente alta para emitir rayos X.
La superficie del Sol, con sus 6.000°C de temperatura, tiene su pico de radiación en la región de la luz visible, y los fotones que emite con mayor profusión poseen un contenido energético de varios electrón-voltios. El hecho de que se emitiesen grandes cantidades de fotones de rayos X, con energías de cientos e incluso miles de electrón-voltios, implicaba la presencia de temperaturas mucho más altas. Tales temperaturas no se daban en la tranquila superficie del Sol, pero sí en la «corona» (su rarificada atmósfera exterior. Aquí, en la corona, la distribución de las partículas era muy dispersa; y como consecuencia del vapuleo a que éstas se veían sometidas por parte, probablemente, de ondas de choque procedentes de la baja atmósfera, las partículas adquirían un movimiento extremadamente rápido. Las energías impartidas a estas partículas equivalían a temperaturas de 500.000° C como mínimo. Y cuando se producía una erupción solar, la temperatura de la parte correspondiente de la corona aumentaba hasta millones de grados.
Ahora bien, a pesar de que cada una de las partículas de la corona por separado era sobremanera energética, el calor total de la corona no pasaba de ser pequeño, debido a que el número total de partículas era relativamente exiguo. El calor de la corona no constituye peligro alguno para la Tierra. (Es curioso constatar que existen razones para pensar que las briznas más exteriores de la corona se extienden desde el Sol hasta más allá de la órbita terrestre, por lo cual en cierto modo se puede decir que la Tierra gira dentro de la atmósfera solar, aunque ello no afecta desde luego a nuestro planeta de un modo sensible.)
La fuente de los rayos X solares es la corona y las erupciones. Y son precisamente las altas temperaturas, o mejor dicho, las enormes energías cinéticas correspondientes a las temperaturas de dichas regiones, las que arrancan tal profusión de electrones de los átomos, originando líneas espectrales totalmente nuevas: líneas que en años anteriores fueron interpretadas como representantes de un nuevo elemento llamado coronio.
Al mismo tiempo se emprendió también la búsqueda de fotones energéticos procedentes de orígenes distintos del Sol. En ciertos aspectos los fotones energéticos gozarían de grandes ventajas con respecto a las partículas energéticas de los rayos cósmicos. Los fotones, al carecer de carga, no se verían afectados por los campos magnéticos y viajarían sin desviarse de su trayectoria. De este modo se podría identificar la fuente de fotones, o al menos la dirección de donde provenían. Así fue como en 1956 y en los años subsiguientes se descubrieron ciertas regiones particularmente ricas en radiación ultravioleta; tampoco resultó difícil averiguar que las más notables de estas fuentes se hallaban localizadas en las constelaciones de Orión y Virgo.
En el caso de Orión, la radiación energética parecía asociada con las nebulosas luminosas que rodean a las estrellas especialmente calientes. En cierto modo, estas nebulosas parecían ser algo así como coronas de gran extensión, calentadas desde dentro por la abundantísima energía de las estrellas que se encuentran en su interior, igual que la corona solar es calentada por el Sol.
Lina vez más, los fotones de rayos X trajeron consigo algunas sorpresas. No cabía duda de que el Sol radiaba rayos X; pero en ausencia de erupciones la radiación se reducía drásticamente. Los rayos X solares se podían detectar gracias únicamente a la gran proximidad del Sol. De las demás estrellas no cabía esperar que hiciesen llegar sus rayos X hasta nosotros desde distancias interestelares tan enormes.
No obstante, cierto equipo de investigadores, entre los que figuraba Bruno Rossi, estaba interesado en averiguar si los rayos X solares eran reflejados o no por la Luna (cuya superficie, a diferencia de la terrestre,no estaba protegida por ninguna clase de atmósfera). En 1962 se lanzaron cohetes especiales equipados con instrumentos para detectar rayos X, que efectivamente fueron detectados, mas no procedentes de la Luna, sino en la dirección del centro galáctico.
Al año siguiente un grupo encabezado por el astrónomo americano Herbert Friedman (n. 1916) lanzó otra serie de cohetes con el fin de escudriñar los cielos en busca de fuentes de rayos X y fijar sus posiciones con la mayor exactitud posible. A lo largo de los dos años subsiguientes se detectaron de este modo unas treinta regiones con actividad de rayos X, concentradas en la dirección del centro galáctico. En la totalidad de la Galaxia acaso existan unas 1.250 regiones de este tipo. La más intensa de ellas, y que quizá sólo se halle a 100 años-luz de distancia, fue localizada en la constelación de Escorpión. Esta fuente, denominada hoy día Sco XR-1, quizá fue la que detectaron los dispositivos de observación durante aquel primer vuelo de 1962.
La fuente que seguía a Sco XR-1 en intensidad (un octavo de la intensidad de ésta) parecía estar localizada en la nebulosa del Cangrejo [xxvii] l. Su nombre es Tau XR-1. Ahora bien, esta comparación puede inducir a error, pues Sco XR-1 es más intensa debido a que es mucho más cercana. En igualdad de distancias, la nebulosa del Cangrejo sería quizá cien veces más intensa que Sco XR-1.
Uno de los problemas más intrigantes estribaba en la naturaleza de estos objetos cuya radiación de rayos X era tan intensa que se dejaban detectar a muchos años-luz de distancia. Una vez más había que suponer la existencia de temperaturas de millones de grados, pero en este caso —y dada la abundancia de la radiación— la energía total tendría que ser muy superior a la de la corona solar. Incluso cabría pensar que se trata de procesos del núcleo central de las estrellas. ¿Será acaso el resultado de una explosión tipo supernova? La nebulosa del Cangrejo son los restos de una tal explosión ocurrida hace unos mil años, y Sco XR-1 bien pudiera ser las reliquias de una supernova de unos 500.000 años de edad. Pero ni siquiera esto es suficiente.
Las temperaturas que necesitamos pueden derivarse de contracciones catastróficas de proporciones mucho mayores que las que intervienen en la conversión de super- novas en enanas blancas ordinarias. La materia degenerada de que se compone una enana blanca está constituida por protones, neutrones y electrones. De estas tres partículas, la componente crucial son los electrones. Los electrones son menos compactos que los protones y neutrones, y, por consiguiente, muestran mayor resistencia a la compresión que estos últimos. Mientras la masa de la enana blanca no sea superior a 1,4 veces la del Sol, los electrones son capaces de mantener expandida la estrella hasta un volumen planetario como mínimo, incluso en contra de la enorme fuerza de compresión que ejerce su campo gravitatorio, concentrado como está hasta grados insospechados. Si la masa de la enana blanca es superior a 1,4 veces la del Sol, entonces ni siquiera los electrones son capaces de resistir la fuerza compresiva de este nuevo y más intenso campo gravitatorio.
Una estrella ordinaria con una masa superior a 1,4 veces la del Sol perdería gran parte de su masa al sufrir una explosión tipo supernova, y la parte restante se hallaría, muy probablemente, por debajo de la marca crucial para la formación de una enana blanca. Pero ¿y si no ocurriera así?
En ese caso la compresión, lejos de pararse en el estadio de enana blanca, continuaría: los electrones se funden con los protones para formar neutrones, y el total se convierte en una masa de neutrones en contacto mutuo. Una «estrella de neutrones» tal contendría la masa de un par de Soles en una esfera no superior a los veinte kilómetros de diámetro. Estaría compuesta de neutronio, o del «ylem» de Gamow. Vendría a ser un fragmento minúsculo de la sustancia que, según los partidarios de la teoría del «big bang», constituía el huevo cósmico. Por esta misma razón, la sola existencia de tales estrellas de neutrones sería un pequeño punto a favor de la teoría del «big bang».
Los teóricos opinan que durante cierto período después de su formación, la estrella de neutrones poseería una temperatura uniforme a través de toda su estructura: una temperatura de unos 10.000.000°C. Como consecuencia de ello, liberaría un torrente furioso de rayos X, constituyendo así una fuente de rayos X muy efectiva. Es decir, una estrella de neutrones sería al mismo tiempo una «estrella de rayos X».
El problema de la existencia de estrellas de neutrones es preciso someterlo, si es posible, a una prueba de observación. Si la fuente de rayos X es efectivamente una estrella de neutrones, entonces aquéllos emergen de un punto del espacio. Ningún dispositivo de detección que seamos capaces de construir podría aumentar un cuerpo de apenas veinte kilómetros de diámetro y situado a miles de años-luz de nosotros (como ocurre con la nebulosa del Cangrejo) hasta un tamaño superior al de un simple punto. Por otra parte, si los rayos X emergen de una zona relativamente extensa del espacio, entonces es probable que la fuente esté constituida por una región turbulenta de gas y polvo, lo cual vendría a debilitar la hipótesis de las estrellas de neutrones. (La hipótesis no quedaría eliminada del todo, pues podría suceder que la zona de gas y polvo rodeara a una estrella de neutrones, y que tanto aquélla como ésta emitieran rayos X.)
Como resultado de un interesante accidente astronómico fue posible discernir entre una fuente puntual y una fuente extensa de rayos X. La nebulosa del Cangrejo está situada en una posición tal que se ve cubierta («ocultada») periódicamente por la Luna. A medida que ésta pasa por delante de la nebulosa, la fuente de rayos X puede, o bien cesar de un modo instantáneo (y en ese caso se trataría de una fuente puntual), o bien dejar de emitir de una forma lenta y gradual, y entonces se trataría de una fuente extensa.
Para 1964 estaba previsto que tuviera lugar una ocultación de la nebulosa del Cangrejo por la Luna. Si los astrónomos desaprovechaban esta oportunidad, no dispondrían de otra hasta después de ocho años. El grupo de Friedman lanzó un cohete a tiempo y los instrumentos a bordo funcionaron a la perfección. El resultado fue que el flujo de rayos X se desvanecía gradualmente, comprobándose asimismo que la fuente consistía en una zona de un año-luz, aproximadamente, de diámetro, localizada en el centro de la nebulosa del Cangrejo.
De momento (pero como se comprobó más tarde, sólo de momento) había que desechar la posibilidad de que existiesen estrellas de neutrones, y sobre todo después de 1966, año en que Sco XR-1 fue identificada como una estrella de magnitud 13. Al fin y al cabo no parecía probable que una estrella de neutrones pudiera ser observada desde distancias astronómicas.
No obstante, y aunque la idea de las estrellas de neutrones parecía andar de capa caída, las fuentes de rayos X seguían planteando numerosos enigmas a los astrónomos. Por ejemplo, si Sco XR-1 no era una estrella de neutrones ¿qué era entonces lo que originaba ese torrente de rayos X cuya intensidad equivalía a mil veces la de la luz visible emitida por esa misma fuente?
Por otra parte, tampoco tardó mucho en descubrirse que las fuentes de rayos X podían ser en extremo variables. Cyg XR-1, una fuente de rayos X muy intensa situada en la constelación de Cygnus, experimentaba al cabo de sólo un año una disminución notable en su emisión de rayos X. Otra de ellas, Cent XR-2 (en Centauro), que en octubre de 1965 no había dado todavía señales de vida, se inflamó repentinamente y aumentó en intensidad hasta convertirse, en abril de 1967, en la fuente de rayos X más brillante del cielo, para desvanecerse más tarde (en septiembre de 1967) hasta una décima parte de su máximo. Cabría casi considerarla como una «nova de rayos X».
Por último diremos que también se han localizado fuentes de rayos X fuera de la galaxia de la Vía Láctea. En 1968 se detectó una en la Nube Grande Magallanes que acaso sea hasta 150 veces más intensa que la de la nebulosa del Cangrejo. Dos, como mínimo, de las fuentes de rayos X resultaron estar asociadas con galaxias distintas de la nuestra: Cygnus A y M-87. Estas fueron las primeras «galaxias de rayos X», y es posible que existan hasta 10.000 galaxias de este tipo detectables en el Universo.

§. Antimateria
En el espacio exterior se han detectado asimismo fotones de rayos gamma (más energéticos aún que los fotones de rayos X) con ayuda de instrumentos instalados a bordo de satélites artificiales. En 1961 los instrumentos del satélite Explorer XI detectaron veintidós fotones de este tipo. La dirección de la que provenían no parecía limitarse en particular al plano de la Vía Láctea, de lo cual se dedujo que procedían de otras galaxias. En 1965 se detectó la primera fuente puntual de rayos gamma, de modo que a partir de ahora tendremos que habérnoslas también con «estrellas de rayos gamma».
Naturalmente, habrá que tratar de encontrar una posible fuente para estos rayos gamma. Pero teniendo en cuenta que se trata de sucesos más bien raros, no es preciso pensar en fuentes masivas, sino que basta con postular que aquéllos son consecuencia de fenómenos subatómicos aislados. La colisión de una partícula de rayos cósmicos altamente energética con un núcleo atómico desencadenaría una serie de consecuencias entre las cuales figuraría la producción de rayos gamma. Así pues, los rayos gamma que nosotros detectamos desde la Tierra acaso marquen la «tumba» de partículas de rayos cósmicos muertos.
Existe otra posibilidad, algo más dramática que la anterior y que requiere un breve prólogo. En 1932 se conocían tres tipos de partículas subatómicas: el protón (masivo, cargado positivamente), el neutrón (masivo, sin carga) y el electrón (ligero, cargado negativamente). A partir de estas tres partículas se componen los átomos, y a partir de los átomos se compone la materia.
Sin embargo, en 1930 el físico inglés Paul Adrien Maurice Dirac (n. 1902) había sugerido, sobre la base de consideraciones puramente teóricas, que para cada partícula debería existir una «antipartícula». Las antipartículas estarían caracterizadas por propiedades exactamente opuestas a las de sus correspondientes partículas.
Así, como contrapartida del electrón de carga negativa existiría un «antielectrón», análogo a aquél en todos los aspectos excepto en la carga, que sería positiva y de igual magnitud que la negativa del electrón. Del mismo modo, como contrapartida del protón de carga positiva existiría un «antiprotón» de carga negativa. En cuanto al neutrón, si bien es cierto que carece de carga, posee un campo magnético orientado en una dirección determinada, con lo cual existiría un «antineutrón», carente también de carga, pero con un campo magnético orientado en la dirección opuesta a la del neutrón.
En principio esta teoría pareció un tanto extravagante, mas en 1932 el físico americano Carl David Anderson (n. 1905) descubrió, en el curso de sus estudios acerca de los rayos cósmicos, el antielectrón. Haciendo referencia a su carga positiva, Anderson lo llamó «positrón», nombre con el cual se conoce hoy día generalmente a esta partícula, aun cuando el término «antielectrón» sería más pertinente. Más tarde, en 1956, se logró detectar también el antiprotón y el antineutrón.
Las antipartículas poseen todas las propiedades de las partículas (sólo que invertidas, como en la imagen de un espejo) y se comportan igual que ellas. Si los protones y los neutrones son capaces de combinarse para formar núcleos atómicos, no hay razón alguna para suponer que los antiprotones y antineutrones no puedan unirse para constituir «antinúcleos» atómicos. En efecto, en 1965 se logró combinar en el laboratorio de Brookhaven antiprotones y antineutrones en la relación 1 a 1. Puesto que un protón más un neutrón constituyen el núcleo del hidrógeno-2, o deuterio, la combinación protón-neutrón se denomina «deuterón». Y de ahí que la combinación de un antiprotón y un antineutrón se llame «antideuterón».
Por otra parte, igual que un núcleo atómico es capaz de rodearse de electrones para formar un átomo neutro, los antinúcleos atómicos también pueden rodearse de antielectrones (positrones) y constituir así «antiátomos» neutros. Y así como los átomos constituyen la materia, los antiátomos constituyen la «antimateria».
La dificultad de construir la antimateria en el laboratorio estriba en la naturaleza efímera de las antipartículas. Las antipartículas, por sí solas, serían tan estables como las correspondientes partículas; pero sucede que aquéllas no están a solas. En el momento en que se forma una antipartícula, queda sumergida en un Universo de partículas ordinarias; es como si se hallara aislada en medio de un vasto océano compuesto por seres opuestos.
Una vez formado un antielectrón, no transcurrirá mucho tiempo (una millonésima de segundo o menos) antes de que tropiece y colisione con un electrón. El resultado es la «aniquilación mutua» de las dos partículas. Las cargas se cancelan y la masa total del par se convierte en energía en forma de fotones. Y lo mismo es cierto para la colisión de un protón y un antiprotón.
La aniquilación mutua de partículas y antipartículas ofrece una nueva y potentísima fuente de energía. Las reacciones nucleares ordinarias más energéticas —como aquellas en virtud de las cuales el hidrógeno se fusiona en hierro dentro del núcleo central de las estrellas— suponen la pérdida de sólo un 1% de la masa total. En la aniquilación mutua de materia y antimateria toda la masa se convierte en energía. Quiere esto decir que, en punto a las masas, la aniquilación mutua produce cien veces más energía que la fusión nuclear.
El proceso inverso también se da: un rayo gamma de energía suficientemente alta se puede convertir en un par electrón-antielectrón. Si el rayo gamma es aún más energético, se puede transformar en un par protón-antiprotón. (Este último proceso, que fue predicho hace mucho, se observó por fin en 1965.)
Pero surge ahora una dificultad. Observaciones minuciosas parecen indicar que existe algo así como una «ley de conservación de la carga eléctrica». Ni la carga eléctrica negativa ni la positiva pueden crearse o destruirse por sí mismas. Lo que sí puede ocurrir es que dos cantidades iguales de carga negativa y positiva experimenten una aniquilación mutua y una conversión en fotones de rayos gamma, pues en ese caso no se produciría la destrucción de una carga eléctrica neta. De modo análogo se pueden crear cantidades iguales de carga positiva y negativa a partir de fotones de rayos gamma, de suerte que no se produzca la creación de una carga eléctrica neta.
Mas si esto es así, ¿cómo es que nos hallamos rodeados por un Universo de materia, sin ningún signo apreciable de antimateria? Pues, al fin y al cabo, cualquier proceso que cree partículas debería crear también antipartículas, y además en cantidades iguales.
Ahora bien, ¿cómo sabemos que habitamos un Universo compuesto exclusivamente de materia?
En cuanto a la Tierra, podemos estar seguros de que se compone única y exclusivamente de materia, pues si contuviera cierta cantidad de antimateria, ésta interaccionaría al instante con la materia y se desvanecería en un relámpago de rayos gamma. La Luna también es materia, y de ello nos da fe el hecho de que los cohetes construidos por el hombre hayan alunizado sin que se produjera una explosión colosal.
Los meteoritos están compuestos de materia [xxviii] , y lo mismo ocurre con el Sol, como lo demuestra el que el viento solar esté constituido por partículas y no por antipartículas. En consecuencia, es lícito afirmar que el sistema solar es materia.
Por otra parte, puesto que los rayos cósmicos están compuestos casi exclusivamente de partículas y no de antipartículas, podemos decir que nuestra Galaxia (y quizá también las galaxias exteriores más próximas) son materia.
¿Cómo explicar entonces la no-existencia de antimateria?
Consideremos el modelo del estado estacionario del Universo. Si existe una creación continua de átomos de hidrógeno (protones y electrones), ¿por qué no existe una creación análoga de antiátomos de hidrógeno (antiprotones y antielectrones)? Si existe una creación continua de neutrones, que luego se desintegran en protones y electrones, ¿por qué no se produce también la creación continua de un número igual de antineutrones que se desintegran en antiprotones y antielectrones?
No conocemos razón alguna que explique esta preferencia de un tipo sobre el otro; pero todas las pruebas empíricas reunidas hasta el momento por los físicos parecen demostrar que no existe tal preferencia.
Una posibilidad es, desde luego, que tanto la materia como la antimateria se creen de una forma continua, pero que en virtud de cierto mecanismo el proceso quede equilibrado, de modo que aquéllas se formen en lugares distintos. Cuando un átomo se produce aquí, inmediatamente se ve compensado por la creación de un antiátomo allá. En ese caso, quizá existan tanto galaxias de materia como galaxias de antimateria; o expresándolo de un modo más compacto, tanto galaxias como antigalaxias.
Suponiendo que esto fuese cierto, ¿sería posible distinguir entre una galaxia y una antigalaxia?
A través de la luz que emiten, evidentemente no. El fotón es su propia antipartícula, de suerte que tanto la materia como la antimateria, al interaccionar consigo mismas (es decir, materia con materia, o antimateria con antimateria), producen fotones de idéntica naturaleza. La luz de una antigalaxia es exactamente igual a la de una galaxia.
El problema de los efectos gravitatorios es algo más oscuro. Mientras que la materia experimenta una atracción gravitatoria mutua con la materia, igual que la antimateria con la antimateria, se ha especulado acerca de si la interacción gravitatoria entre materia y antimateria no será una repulsión. Jamás se ha observado una repulsión gravitatoria, pero hay que tener en cuenta que la antimateria tampoco ha sido estudiada en cantidades suficientes para producir un campo gravitatorio perceptible. Así pues, se trata de un problema aún no resuelto.
Si la repulsión gravitatoria existe, ha de darse necesariamente entre galaxias y antigalaxias. El hecho de que hasta el momento no se haya observado ninguna interacción de este tipo acaso indique que no existen antigalaxias en el Universo. Otra posible interpretación es que los efectos que se producirían a distancias intergalácticas (observados además a distancias también intergalácticas) son demasiado pequeños, y que a pesar de que tales efectos existen, no han podido ser observados o interpretados adecuadamente...
Los neutrinos ofrecen una perspectiva mucho más halagüeña. Las galaxias liberan torrentes de neutrinos y las antigalaxias torrentes de antineutrinos. Si fuese posible localizar en el cielo una fuente rica de antineutrinos, no habría duda de que se había detectado una antigalaxia. Sin embargo, los neutrinos son partículas sobremanera difíciles de detectar; y la ciencia de las astronomía no se encuentra aún en un estadio que permita llevar a cabo observaciones de ese tipo.
Por otra parte, las antigalaxias deberían producir antipartículas de rayos cósmicos. Muy pocas de ellas lograrían llegar hasta nuestros dominios, pero estas pocas serían de gran utilidad. Antipartículas de mil millones de BeV o más (la energía necesaria para que los rayos cósmicos logren deshacerse de sus galaxias y precipitarse hacia nosotros a través del espacio intergaláctico) no se verían apenas afectadas por los campos magnéticos galácticos. De este modo, la dirección de su trayectoria serviría para localizar la antigalaxia.
Ahora bien, es importante recordar que las galaxias no se hallan aisladas, sino que existe un sinfín de ellas y que algunas pueden interaccionar a pesar de la expansión general del Universo. Puede darse el caso, por ejemplo, de que una galaxia y una antigalaxia perteneciesen al mismo cúmulo y que se aproximaran una a otra. Si llegaran a acercarse hasta una distancia suficientemente corta para que el gas y el polvo comenzaran a mezclarse en los bordes, al instante se empezarían a emitir cantidades ingentes de energía. Y de hecho se han observado casos de tremendas emisiones de energía en las profundidades del espacio galáctico, emisiones que posiblemente indiquen la presencia de una aniquilación mutua de materia y antimateria. Sobre este punto volveremos más adelante en este libro.
Cabe también que las galaxias y antigalaxias se hallen protegidas contra una aniquilación mutua gracias a tales reacciones periféricas. En este aspecto puede establecerse una analogía con una gota de agua que cayese sobre una plancha caliente. El agua no se evapora inmediatamente con una pequeña explosión, sino que salta y resbala sobre la superficie al rojo durante un tiempo sorprendentemente largo. La explicación de este fenómeno es la siguiente: la porción de la gota que primero establece contacto con la superficie caliente se evapora, formándose una nube de vapor que empuja a la gota hacia arriba y la aísla hasta cierto punto del calor.
De modo análogo, cuando una galaxia y una antigalaxia se aproximan una a otra, el primer contacto en los bordes quizá produzca un torrente de energía que tiende a mantenerlas separadas y, por así decirlo, a aislarlas una de otra.
En ese caso, la interacción aislante constituiría una fuente muy rica de fotones de rayos gamma, que se dispersarían por todo el Universo. Los rayos gamma detectados por el Explorer XI posiblemente procedieran de tales fuentes, proporcionándonos un indicio de que el Universo puede contener tantas galaxias como antigalaxias.
¿Cómo encajaría esto en la teoría del Big Bang? Un Universo en contracción que contuviera tantas galaxias como antigalaxias debería experimentar una aniquilación mutua cada vez mayor a medida que convergieran las galaxias, de suerte que el huevo cósmico estaría compuesto únicamente de rayos gamma. Quizá fuese la presión de la radiación de estos fotones lo que en último término provocase el propio Big Bang; en los primeros momentos caóticos de la expansión, los rayos gamma quizá dieran lugar a una cantidad igual de partículas y antipartículas.
Ahora bien, es preciso suponer que estas partículas y antipartículas estaban separadas, pues de otro modo se aniquilarían mutuamente y volverían a convertirse en rayos gamma. Podemos postular que por cada partícula que se formara en un extremo del huevo cósmico en explosión, nacía una antipartícula en el extremo opuesto, estableciendo así el equilibrio. El físico austriaco-americano Maurice Goldhaber (n. 1911) ha sugerido, efectivamente, una idea de este tipo, concibiendo la formación de un Universo de materia y un Antiuniverso de antimateria (que él llama «cosmon» y «anticosmon», respectivamente).
Nos preguntamos ahora: estos dos universos ¿se entremezclan, en el curso de la expansión, para formar un Universo conjunto de galaxias y antigalaxias en números iguales? Si es así, cabe imaginar un Universo pulsante en el cual tenga lugar una fusión de materia y antimateria en el curso de cada fase de contracción, y una separación de las mismas a lo largo de cada fase de expansión.
O quizá sea que el Universo y el Antiuniverso experimentan una repulsión gravitatoria mutua, separándose por completo, de suerte que nuestro Universo esté constituido sólo por materia. En el modelo pulsante del Universo, el Universo y el Antiuniverso acaso se fundan uno con otro durante el proceso de contracción para formar un único huevo cósmico, para luego volverse a separar durante el proceso de expansión.
Cabe también (y esta es mi contribución personal a las especulaciones en torno al problema, contribución que, según mis conocimientos, no ha sido sugerida con anterioridad) que el Universo y el Antiuniverso se hallen permanentemente separados, pulsando de un modo acorde: mientras uno se contrae, el otro se expande, y viceversa.
Este «modelo del Universo doble» elimina dos asimetrías evidentes de nuestro propio Universo. El Universo doble se hallaría, en conjunto , perfectamente equilibrado en cuanto a materia y antimateria, a pesar de que nuestro propio Universo sería prácticamente pura materia. Por otra parte, el Universo doble estaría perfectamente equilibrado en cuanto a movimiento radial se refiere. El Universo y el Antiuniverso formarían un conjunto esencialmente estático, y la circunstancia de que nuestro Universo se halle actualmente en expansión se debería sencillamente a que esa es la fase del ciclo que nos ha tocado presenciar.

Capítulo 18
Radioastronomía

Contenido:
§. El Sol
§. Los planetas
§. Las estrellas
§. La Galaxia
§. Púlsares
§. El Sol
Aunque los rayos cósmicos, rayos X y rayos gamma que llegan a la Tierra desde el espacio sideral encierran un interés enorme para el astrónomo, la máxima aportación de mediados del siglo XX se produjo en el extremo opuesto del espectro: en la región de las radioondas, poco energéticas y de gran longitud de onda.
Dos son las razones principales que explican este hecho. En primer lugar, sucede que la atmósfera, que es transparente para la luz visible pero opaca para la mayor parte de las demás regiones del espectro electromagnético, también es transparente para una ancha banda de la zona de radioondas de longitud de onda muy corta, o microondas. Así pues, los astrónomos disponían de una segunda «ventana» para observar los cielos. Cualquier radiación de microondas procedente del espacio podía ser estudiada a placer desde la superficie terrestre, sin necesidad alguna de lanzar instrumentos a bordo de globos o cohetes.
En segundo lugar, el empleo de radioondas en la comunicación sin hilos condujo en último término al desarrollo de técnicas muy perfeccionadas para recibir y ampliar radiaciones débiles de aquel tipo.
La posibilidad de que sobre la Tierra incidieran radioondas provenientes de los cielos fue una idea que los científicos concibieron bien pronto en esta etapa de la astronomía. Efectivamente, pocos años después del descubrimiento de la región de radioondas del espectro ya se especulaba en torno a la posibilidad de detectar radioemisiones del Sol. Aparte de otros científicos, el físico inglés Oliver Joseph Lodge (1851-1940), uno de los hombres de vanguardia en el terreno de las radiocomunicaciones, trató de detectar, hacia 1890, ondas de radio solares, aunque sin éxito. Los esfuerzos en esta dirección languidecieron luego durante una generación entera; y cuando por fin se pudo cantar victoria, ello fue debido a un simple accidente.
El descubrimiento fue registrado por el técnico de radio americano Karl Jansky (1905-1950), quien en 1931 andaba tras el problema (completamente ajeno a la astronomía) de eliminar los efectos perturbadores de la electricidad estática en las comunicaciones por radio. Entre las fuentes de estático había una que Jansky no consiguió localizar al principio, llegando más tarde a la conclusión de que era debida a la interferencia de un influjo de radioondas muy cortas procedentes del espacio exterior. Publicó sus hallazgos en 1932 y 1933, pero estos trabajos suscitaron escaso interés entre los astrónomos.
En efecto, la única persona en la que prendió la llama de estos descubrimientos fue otro técnico de radio americano, Grote Reber (n. 1911), que en 1937 montó un «radiotelescopio» en el patio trasero de su casa; se trataba de un dispositivo parabólico de treinta y un pies de diámetro, diseñado de modo que captaba, sobre un área bastante extensa, la radiación de microondas del espacio y la concentraba en otro dispositivo (receptor) situado en el foco de la parábola. Durante varios años Reber fue localizando, en un trabajo arduo y fatigoso, las radiofuentes del cielo. El fue el primer —y durante bastante tiempo, el único— «radioastrónomo». El primer trabajo sobre este tema lo publicó en 1940.
Fue entonces cuando los astrónomos comenzaron a interesarse en este campo, aunque también es cierto que de un modo muy paulatino. Una de las dificultades estribaba en que las microondas procedentes del cielo eran mucho más cortas que las que se utilizaban por lo común en las radiocomunicaciones, de suerte que la radiación del espacio no interfería por lo general con la radiorecepción; por tanto, el hombre no se percataba de su presencia. Por otra parte, la tecnología no había proporcionado aún métodos eficientes para trabajar con tales microondas.
Sin embargo, a finales de la década de 1930-39 se dieron algunos pasos clave, que en último término acabaron por romper el hielo. Gran Bretaña y Estados Unidos desarrollaron el «radar», dispositivo que emitía un rayo de microondas que al chocar con un obstáculo se reflejaba hacia atrás, produciendo un eco detectable de micro- ondas. A partir del ángulo con que se recibe el eco es posible determinar la dirección del obstáculo. Por otra parte, basándose en el lapso de tiempo transcurrido entre la emisión del rayo original y la recepción del eco, puede calcularse la distancia del obstáculo (puesto que las microondas se desplazan a la velocidad de la luz). El radar era un instrumento ideal para detectar de un modo rápido y preciso objetos distantes, sobre todo en condiciones en las que los métodos ópticos ordinarios resultaban inadecuados. Funcionaba tanto de noche como de día; y mientras las nubes y la niebla eran opacas a la luz, resultaban prácticamente transparentes para las microondas.
El radar, utilizado por los ingleses para detectar de antemano la llegada de la aviación alemana, fue un factor crucial en la victoria de la Batalla de Inglaterra. Cualquier interferencia con el buen funcionamiento del radar tenía que ser, por tanto, del máximo interés para Gran Bretaña y sus aliados. En 1942 se produjo una interferencia de este tipo. El sistema de radar completo se vio seriamente perturbado por una inundación de microondas extrañas, con lo cual el sistema de alarma de Inglaterra quedó inutilizado durante algún tiempo. Si se trataba de una perturbación provocada intencionadamente por los alemanes, las consecuencias podían ser fatales. Investigaciones ulteriores revelaron, sin embargo, que la causa residía en esa gigantesca erupción solar que proporcionó los primeros indicios de la existencia de los rayos cósmicos del Sol. Al parecer, la erupción había vertido sobre la Tierra un torrente de microondas que consiguieron ahogar la radiación artificial que alimentaba al sistema radárico. Fue así como se descubrió que el Sol radiaba en la región de radioondas del espectro. Una vez finalizada la Segunda Guerra Mundial, los astrónomos comenzaron a dedicar a la «radioastronomía» toda la atención que merecía.
Tras estudiar el espectro de radioondas del Sol con ayuda de técnicas que habían alcanzado un alto nivel de perfeccionamiento en conexión con la tecnología del radar, no tardó en comprobarse que este astro emitía una cantidad de radiación de microondas muy superior a la que podía proporcionar su temperatura superficial. En el caso de algunas longitudes de onda, las intensidades con que eran emitidas sólo podían derivarse de temperaturas de 1.000.000°C más o menos. Tales longitudes de onda provenían, naturalmente, de la corona, cuya temperatura era suficiente para radiar también rayos X.
El Sol emitía asimismo bocanadas de radiación de microondas de alta intensidad en conexión con las manchas solares, erupciones y otras perturbaciones.

§. Los planetas
Mas el Sol (y esto es un hecho sorprendente) no es la única fuente de microondas del sistema solar. Aunque los planetas sólo brillan por luz reflejada, algunos de ellos emiten microondas propias con una intensidad suficiente para ser detectadas desde la Tierra.
En 1955, por ejemplo, se identificó a Júpiter como la fuente de ciertas oleadas de microondas que habían desconcertado a los observadores a lo largo de cinco años. Parte de la emisión general de microondas de Júpiter era de origen térmico; es decir, aquéllas se generaban debido simplemente a que la superficie de Júpiter se hallaba a una determinada temperatura y, por consiguiente, radiaba energía a lo largo de una ancha banda del espectro electromagnético; y esta banda comprendía la región de microondas. Pero en el caso de ciertas longitudes de onda la radioemisión era demasiado intensa para poder atribuirla simplemente a una fuente térmica. (Al fin y al cabo, nadie esperaba que Júpiter poseyera una corona de alta temperatura como la del Sol.) La radiación de origen no-término quedó explicada finalmente postulando la existencia de un campo magnético mucho más fuerte e intenso que el de la Tierra, como expondremos en la sección siguiente.
No menos interés encerraban las microondas recibidas desde Venus. Fueron detectadas por primera vez en 1956, planteando a los astrónomos una discrepancia muy curiosa. Las medidas de la radiación infrarroja ordinaria de Venus habían indicado «temperaturas superficiales» de unos —43° C. Sin embargo, la radiación de microondas implicaba temperaturas superiores a aquélla en cientos de grados y bastante por encima del punto de ebullición del agua.
Ahora bien ¿se trataba realmente de una discrepancia? La radiación infrarroja procedente de Venus tenía que originarse en la alta atmósfera del planeta, pues si naciera en la superficie sólida de Venus, o cerca de la misma, dicha radiación sería absorbida por la atmósfera. Por otra parte, tanto la atmósfera de Venus como la de la Tierra son transparentes para las microondas. Incluso esa cubierta opaca y permanente de nubes que se extiende por encima de Venus y que hasta ahora ha impedido al hombre ver la superficie sólida de este planeta, es transparente para dicha clase de ondas. Así pues, es muy probable que la temperatura indicada por la radiación infrarroja corresponda al bajo nivel térmico que cabe esperar de las capas altas de la atmósfera, mientras que la temperatura delatada por la radiación de microondas seguramente es la de la superficie sólida del planeta.
El hecho de que Venus posea una temperatura superficial muy superior al punto de ebullición del agua resulta bastante sorprendente. ¿No será que la radiación de microondas no es de origen térmico, sino que viene producida (al menos en parte) por un campo magnético como en el caso de Júpiter? La probabilidad de que esta hipótesis sea cierta es pequeña. Entre los astrónomos prevalecía en general la opinión de que Venus rotaba muy despacio en torno a su eje. Y dado que también había razones para sospechar que alrededor de un planeta sólo se produce un campo magnético cuando la rotación es suficientemente rápida para crear torbellinos dentro del núcleo fundido, no parecía probable que Venus, con su lenta velocidad de giro, pudiera tener un campo magnético importante.
La cuestión quedó sentada con el lanzamiento del Mariner II, cohete muy bien equipado de instrumentos científicos y que en diciembre de 1962 pasó a 34.700 km., de Venus. No se detectó ningún campo magnético apreciable. Si Venus poseía un campo magnético, su intensidad no podía ser superior a una centésima de la del campo terrestre. Los datos del Mariner II vinieron a demostrar también que la radiación no provenía de la ionosfera de Venus, sino de su superficie. Así pues, la emisión de microondas tiene que ser de origen térmico, y la superficie del planeta debe ser caliente. Su intensidad, según las mediciones del Mariner II, indica una temperatura superficial de unos 400°C.
El sistema solar también puede proporcionar información a través de radiación de microondas reflejada. La primera experiencia de esta clase se obtuvo en 1945, al captar microondas reflejadas por una lluvia de meteoritos. Gracias a esta técnica, tales fenómenos podían ser detectados y estudiados incluso en pleno día, cuando de otro modo habrían resultado completamente invisibles. Utilizar obstáculos aún más lejanos como reflectores de microondas era ya sólo cuestión de perfeccionar la técnica, es decir, de poder enviar impulsos muy intensos y detectar y ampliar ecos muy débiles de entre todo un conjunto de radiaciones de la misma naturaleza («parásito»).
La Luna, por ejemplo, servía como obstáculo para reflejar un rayo de microondas, experiencia que se logró por primera vez en 1946. En 1958 se recibieron ecos de Venus, en 1959 del Sol, y desde entonces también de otros miembros del sistema solar tales como Mercurio, Marte y posiblemente Júpiter.
El lapso transcurrido entre la emisión y la recepción del eco puede utilizarse para calcular las distancias planetarias; efectivamente, la radiación reflejada por Venus proporcionó un nuevo método sumamente preciso para determinar la escala del sistema solar. Esta técnica supuso un avance apreciable sobre las determinaciones paralácticas del asteroide Eros efectuadas una generación antes.
Por otra parte, las reflexiones de microondas son susceptibles de proporcionar información acerca de la naturaleza de la superficie reflectante. Si el cuerpo reflectante fuese una esfera lisa y perfecta, sólo la porción encarada directamente con la Tierra devolvería un eco. Pero si la superficie es rugosa y desigual, entonces se recibirían ecos procedentes de zonas que en otras condiciones (es decir, si la superficie fuese lisa) no devolverían eco alguno. Ahora bien, como consecuencia de la curvatura de la Luna (o de cualquier planeta), la distancia entre dichas zonas y la Tierra oscilaría entre ciertos límites, con lo cual el eco se dispersaría en cierta medida y su duración sería mayor que la del impulso original emitido. Los ecos de microondas se verían también distorsionados por el efecto Doppler en aquellos casos en que el objeto reflectante se hallara en rotación.
Es cierto que muchos de los datos que el radar nos puede proporcionar acerca de la superficie de la Luna se pueden obtener también a través de la luz solar reflejada por aquélla. Pero no así en el caso de Venus, pues si bien la superficie sólida de este planeta resulta accesible a esas microondas capaces de horadar las nubes, permanece en cambio oculta para el ojo humano. Así, el método de reflexión de microondas reveló, al parecer, en 1965 la presencia de dos gigantescas cordilleras en la superficie de Venus: una que corre de norte a sur y la otra de este a oeste.
Más interesante aún fue el problema de la rotación de Venus. Todo cuanto se vislumbraba en el globo de este planeta era una capa uniforme de nubes, de modo que no había forma de determinar con exactitud el período de rotación. Hasta 1962 se supo mucho más acerca de la rotación del lejano Plutón que sobre la rotación de nuestro planeta más próximo. Muchas eran las conjeturas (o estimaciones basadas en datos inadecuados) que se habían hecho, pero la más difundida de todas venía a afirmar que el período de rotación era igual al período de revolución alrededor del Sol, a saber, de 225 días.
Ahora bien, si esta conjetura fuese cierta, una de las caras del planeta miraría constantemente hacia el Sol, mientras que la otra se hallaría siempre apartada de él (igual ocurre con las dos caras de la Luna). Y en ese caso, el «lado soleado» de Venus sería extremadamente caliente y el «lado de sombra» extremadamente frío.
Mas para sorpresa de los astrónomos, las emisiones de microondas parecían indicar que la temperatura de la superficie de Venus no variaba tanto como cabría esperar de existir realmente un lado de sol y otro de sombra. De ahí que hubiese que postular la existencia de fuertes vientos que transportasen el calor del primero al segundo. O bien que el período de rotación de Venus no equivaliera quizá exactamente a su período de revolución, con lo cual no habría una parte de sol y otra de sombra, sino que —como ocurre en la Tierra— cualquier punto de la superficie planetaria se vería expuesto, periódica y alternativamente, a la presencia y ausencia del Sol.

37.jpg
Figura 37. Reflexión de microondas.

Esta última posibilidad viene apoyada por los experimentos de reflexión con microondas. Nueva sorpresa para los astrónomos: en 1962 se descubrió que Venus tenía un período de revolución de 247 días, pero en sentidoretrógrado; es decir, mirando desde arriba hacia su polo norte, la superficie venusiana giraba en el sentido de las manillas del reloj, y no —como en el caso de la Tierra y casi todos los demás planetas— en la dirección contraria a la del reloj. Expresándolo de otro modo: la superficie de Venus rotaba de este a oeste, y no de oeste a este, como sucede en nuestro caso. El efecto conjunto del período de revolución y del movimiento del planeta alrededor del Sol determinaría el que un observador —cualquiera que fuese su situación sobre Venus y suponiendo que no existiesen nubes— vería al Sol levantarse en Poniente y ponerse en Levante dos veces aproximadamente a lo largo de cada año planetario.
La razón de que Venus gire en sentido retrógrado y de que su temperatura sea tan alta sigue constituyendo un dilema para los astrónomos. Pero, por otra parte, más vale tener planteados problemas sin solucionar que no plantearse problemas.
Venus no constituye el único caso de un planeta en relación con el cual las nuevas técnicas de microondas trajeron consigo una revisión radical de las nociones relativas a su rotación. En 1965, y haciendo uso del método de reflexión de microondas, se demostró que el período de rotación de Mercurio no era igual a su período de revolución alrededor del Sol (ochenta y ocho días). Y esto era tanto más sorprendente por cuanto Mercurio, a diferencia de Venus, carecía de una cubierta de nubes, y su superficie podía ser observada directamente (aunque no sin cierta dificultad, debido a la proximidad de este planeta al Sol); su período de rotación se puede medir de un modo inmediato sin más que seguir el desplazamiento de los rasgos sobresalientes de la superficie. Ya en los años 1880-89, el astrónomo italiano Giovanni Virginio Schiaparelli (1835-1910) había estudiado estos rasgos de la superficie mercuriana, llegando a la conclusión de que el planeta giraba en torno a su eje una vez por cada revolución alrededor del Sol. Y esta conclusión permaneció indiscutida durante ochenta años.
Cuando las microondas hicieron su aparición en el escenario científico, se procedió a observar de nuevo la superficie de Mercurio —esta vez con una minuciosidad impecable—, comprobando que Schiaparelli se había equivocado. La equivocación era, no obstante, comprensible. Mercurio describe una rotación completa alrededor de su eje en 58 V i días, o aproximadamente dos tercios de su año. Esto quiere decir que la cara del planeta que mira hacia el Sol en uno de los perihelios es la misma que muestra aquél en su segundo retorno al perihelio, en su cuarto, en su sexto, etc. Así pues, quienquiera que hiciese una serie de observaciones separadas entre sí (en el tiempo) por un múltiplo arbitrario de dos revoluciones, vería los mismos rasgos de la superficie situados en el mismo lugar, y tendría derecho a ser perdonado por haber supuesto que el planeta rotaba una vez por cada período de revolución, pues esto sería ni más ni menos lo que se observaría en ese caso.

§. Las estrellas
La radioastronomía no se agota, claro está, en las emisiones de microondas de los cuerpos del sistema solar, por muy interesantes que sean estos fenómenos. Y en efecto, las primeras observaciones efectuadas en el campo de la radioastronomía afectaban a fuentes de micro- ondas localizadas mucho más allá de las fronteras del sistema solar.
Jansky hizo sus primeras observaciones en un período en que el Sol se hallaba en una fase relativamente serena y emitía microondas en cantidades bastante pequeñas. Por consiguiente, la fuente que él detectó no podía ser el Sol. Pero Jansky pensó al principio que sí lo era, pues la fuente viajaba a través del cielo emparejada con el astro rey. No obstante, conforme fueron transcurriendo los días Jansky se percató de que la fuente sacaba al Sol una ventaja de cuatro minutos al día, lo cual significaba que aquélla se mantenía en una posición fija respecto a las estrellas. Más tarde se comprobó que la fuente se hallaba situada en la dirección de la constelación de Sagitario, y por ello se le ha dado el nombre de «Sagitario A». No cabía duda de que la fuente no era otra cosa que el núcleo mismo de la Galaxia, núcleo que, según los datos proporcionados por los métodos de microondas, tiene 10 parsecs de diámetro y comprende unos 100 millones de estrellas.
Fue éste un descubrimiento de primera categoría. Las nubes de polvo, que de otro modo habrían impedido irremisiblemente cualquier estudio óptico directo del centro de la Galaxia, eran bastante transparentes a las microondas. Aun cuando jamás llegaríamos a ver el núcleo galáctico del modo ordinario, sí lo podíamos «ver» por medio de microondas.
En el curso de ciertas investigaciones en solitario acerca de las emisiones de microondas procedentes del espacio, Reber trazó lo que cabría llamar el «radiocielo»: las intensidades de fondo de la emisión de microondas en cada punto. El rasgo más sobresaliente de este radiomapa del cielo era la banda de alta emisión que se extendía a lo largo de la Vía Láctea; la intensidad era máxima en la dirección del núcleo galáctico, disminuyendo hacia ambos lados hasta alcanzar un mínimo en la dirección opuesta a la de dicho núcleo.
Sin embargo, el plano de la Vía Láctea no monopolizaba todas las fuentes de microondas del «radiocielo». Aquí y allá existían nudos de gran intensidad, incluso en lugares muy alejados de la Vía Láctea. En un principio fue imposible relacionar estas radiofuentes con ningún cuerpo visible, pero estaba claro que no podía tratarse de estrellas ordinarias como nuestro Sol. La razón era evidente: si las estrellas en general emitiesen microondas con la misma intensidad que el Sol, el centro galáctico no podría radiar una cantidad suficiente de microondas para que éstas llegaran hasta nosotros con la intensidad con que lo hacen.
La extraña naturaleza de las radiofuentes se puso claramente de manifiesto cuando, sin tardar mucho tiempo, se identificó una de ellas («Taurus A») en la nebulosa del Cangrejo. En ocasiones anteriores ya estudiamos este objeto como fuente de rayos X y de rayos cósmicos. Y ahora se descubría que también era una fuente de microondas: la tercera en intensidad fuera del sistema solar.
De entrada resulta tentador suponer que la emisión de microondas de la nebulosa del Cangrejo, cuya intensidad es muy superior a la de la emisión de microondas del Sol, es simplemente el resultado de esas mismas temperaturas tan altas que producen los rayos X, y los rayos cósmicos. Al parecer, esto no es cierto. Pues si la temperatura fuese suficientemente elevada para producir micro- ondas con la intensidad que de hecho se observa, la nebulosa del Cangrejo tendría que ser ópticamente mucho más brillante. Por otro lado, la intensidad de las microondas originadas por altas temperaturas debe decrecer a medida que aumenta la longitud de onda, cosa que no ocurre en el caso de dicha nebulosa.

lamina07.jpg
Nebulosa del Cangrejo fotografiada con distintas longitudes de onda. (Fotografías de los observatorios de Mount Wilson y Palomar)

lamina08.jpg
Nebulosa gaseosa IC 443. (Fotografía Observatorios Mount Wilson y Palomar)

Una posible solución a este dilema surgió de ciertos hallazgos realizados en el campo de la física nuclear. Para que un cuerpo en movimiento cambie de velocidad o de dirección de marcha es preciso comunicarle energía, y en respuesta a ello el cuerpo puede radiar hacia el exterior cierta cantidad de ella.
Se trata de un efecto que se observó especialmente en los «sincrotrones», instrumentos que, haciendo uso de campos magnéticos intensos, obligan a los electrones a girar en círculos mediante una transferencia continua de energía a las partículas. Los electrones, por su parte, emiten «radiación sincrotrón», cuya longitud de onda e intensidad dependen de su contenido energético.
En 1953 el astrónomo soviético Iosif Samuilovich Shklovsky (n. 1916) propuso la idea de que la nebulosa del Cangrejo podía tener un campo magnético intenso cuyas líneas de fuerza obligaban a los electrones a girar en espiral; durante este proceso, los electrones emitirían radiación sincrotrón, la cual incluiría tanto luz visible como microondas.
Suponiendo que esta hipótesis fuese cierta, las formas ondulatorias emitidas se verían canalizadas o guiadas por las líneas de fuerza del campo magnético, líneas que se hallan orientadas según una posición fija en el espacio.

lamina09.jpg
NGC 5128. (Fotografía Observatorios Mount Wilson y Palomar.)

Como consecuencia de ello, las formas ondulatorias se moverían a su vez según un plano fijo, de suerte que la luz de la nebulosa del Cangrejo tendría la propiedad de estar «polarizada». Nada más fácil para los astrónomos que comprobar si la luz está polarizada o no; fue el astrónomo soviético V. A. Dombrovsky quien primero demostró que la luz de dicha nebulosa gozaba, efectivamente, de esta propiedad, extremo que no tardaron en confirmar otros astrónomos. En perfecta concordancia con lo que cabe esperar de la luz polarizada, las fotografías de la nebulosa del Cangrejo tomadas a través de filtros Polaroid orientados en direcciones determinadas revelan un conjunto de líneas rectas que son siempre perpendiculares a dicha orientación.
El éxito obtenido por esta hipótesis —formulada en relación con la nebulosa del Cangrejo— fue precisamente lo que condujo a la idea de que algunas de las emisiones- no-térmicas de Júpiter acaso fuesen radiación sincrotrón. Júpiter debería tener entonces un campo magnético diez veces más intenso que el de la Tierra; y teniendo en cuenta la gran velocidad de rotación de dicho planeta (Júpiter tarda sólo diez horas en describir un giro completo en torno a su eje, frente a las veinticuatro horas que tarda la Tierra, y ello a pesar de que el diámetro de aquél es once veces superior al de ésta), tal hipótesis parece altamente probable. En 1960 se comprobó que las emisiones de microondas de Júpiter están polarizadas, y precisamente en la dirección que era de esperar si los polos magnéticos se hallasen próximos a los geográficos, como sucede también en la Tierra.
Por aquel entonces se había logrado ya entender de qué modo y con qué eficacia las líneas de fuerza magnéticas son capaces de atrapar a las partículas, como también se había descubierto ya la magnetosfera que envuelve a la Tierra (véase pág. 330). En cuanto a Júpiter, era preciso concluir que se hallaba rodeado de una magnetosfera mucho más intensa. Además, a raíz de un experimento nuclear efectuado en 1962 muy por encima de la atmósfera, las líneas magnéticas terrestres se vieron inundadas de partículas cargadas que, atrapadas en aquéllas y moviéndose de acá para allá en espiral alrededor de dichas líneas, emitían efectivamente una radiación sincrotrón detectable. Esto venía a ser como el toque final del cuadro: la teoría de la radiación sincrotrón de la nebulosa del Cangrejo (y de otras muchas radiofuentes) fue aceptada desde entonces con carácter general.
La nebulosa del Cangrejo es —casi sin lugar a dudas— los restos de una supernova; además de aquella nebulosa, existen otras radiofuentes que también se pueden identificar con supernovas de las cuales se sabe positivamente han explotado en nuestra Galaxia. Ejemplos de ellas son las de Tycho y Kepler. Sin embargo, la radiofuente más potente no está relacionada con ninguna supernova co n ocida. Nos referimos a «Cassiopeia A», cuyo nombre se debe a que está localizada en dicha constelación. Ópticamente, Cassiopeia A no exhibe ningún rasgo sorprendente; todo cuanto se observa son nubes y briznas de gas a unos 10.000 años-luz de nosotros. En un estudio más detenido se comprobó que este gas se encontraba a una temperatura feroz y estaba sometido a un violento movimiento. Muy bien pudiera ser que se tratase de los restos de una supernova que explotó hacia 1700, pero que —en una época en que el interés por las «estrellas nuevas» eran tan escaso que sólo aquellas de brillo muy notable atraían la atención de los observadores— pasó inadvertida debido precisamente a que su enorme distancia le impedía exhibir un brillo especial. Otra radiofuente interesante es IC443, nebulosa que acaso sea también los restos de una supernova que explotó hace 50.000 años. Por culpa una vez más de la distancia, las enanas blancas asociadas con tales nebulosas resultan invisibles desde la Tierra.
No sería ni mucho menos descabellado suponer que la emisión de microondas de la Vía Láctea, en general, proviene de las supernovas que aparecen dentro de aquélla; no obstante, tampoco es lícito afirmar que éstas, las supernovas, constituyen necesariamente la única fuente. Existe cierto tipo de estrellas enanas que se encienden de vez en cuando de un modo irregular. Se presume que tales abrillantamientos se deben a erupciones como las del Sol, aunque más intensas, y que estas erupciones liberan microondas, exactamente igual que ocurre en el astro rey. Los trabajos conjuntos del astrónomo inglés Alfred Charles Bernard Lovell (n. 1913) y el astrónomo americano Fred Lawrence Whipple (n. 1906) demostraron que la intensidad de la emisión de micro- ondas corría, en efecto, parejo con el abrillantamiento. Estas «estrellas eruptivas» fueron las primeras estrellas individuales más o menos ordinarias que se identificaron como radiofuentes.

§. La Galaxia
De lo antedicho no debemos deducir que la totalidad de la emisión de microondas de la Galaxia se origina en las estrellas o en los restos de supernovas. También existe la materia interestelar, ese gas extremadamente rarificado que se compone en su mayor parte de hidrógeno. Puede ocurrir que este hidrógeno se caliente debido a la proximidad de alguna estrella. En ese caso, los átomos se hinchan, como si dijéramos, de energía y se ionizan. Esta energía puede a su vez ser radiada, con lo cual el astrónomo observará una nube luminosa y podrá detectar las líneas espectrales asociadas con el hidrógeno.
Lo cual siempre es mejor que nada, pero tampoco mucho mejor, pues sucede que sólo una pequeña proporción del hidrógeno interestelar de la Galaxia se caliente lo suficiente como para producir tales líneas. Un 95% como mínimo, del hidrógeno, del espacio interestelar es relativamente frío y, desde el punto de vista de la radiación, inactivo. (Estas últimas regiones son llamadas «regiones H-I», en contraposición a las «H-II», calientes e ionizadas) Por otra parte, las líneas emitidas por el hidrógeno caliente sólo pueden ser observadas en aquellos casos en que no se interpone ninguna nebulosa oscura, y esto reduce el campo de estudio de los astrónomos terrestres a la parte de la Galaxia más próxima a nosotros.
En 1944, sin embargo, el astrónomo holandés Hendrik Christoffel van de Hulst (n. 1918), obligado a ello por la circunstancia de que la ocupación de Holanda por los alemanes durante la Segunda Guerra Mundial excluía toda posibilidad de efectuar un trabajo astronómico normal, tomó lápiz y papel y se entretuvo en hacer cálculos en torno al comportamiento del hidrógeno frío. Entre otras cosas averiguó la forma en que los campos magnéticos asociados con el protón y el electrón dentro del átomo de hidrógeno se hallan orientados uno respecto al otro. Los dos campos magnéticos podían estar alineados o en una misma dirección, o en direcciones opuestas. Comoquiera que entre ambas formas existe una ligera diferencia de energía, puede suceder que de vez en cuando un átomo de hidrógeno que se halle en la modalidad menos energética absorba un fotón de energía adecuada que acierte a pasar por allí, con lo cual el átomo saltará a la forma más energética. De igual modo, puede ocurrir que un átomo de hidrógeno que se encuentre en la forma más energética emita un fotón, cayendo al nivel de menor energía. La diferencia entre los dos niveles es tan pequeña que los fotones absorbidos o emitidos son fotones muy poco energéticos, con longitudes de onda de unos 21 centímetros, es decir pertenecientes a la región de las microondas.
La emisión o absorción de un fotón de microondas de 21 centímetros por parte de un átomo de hidrógeno concreto es un suceso que no tiene lugar sino muy raramente —una vez cada 11 millones de años, por término medio—; pero el número de átomos de hidrógeno en el espacio es tan ingente que por fuerza se tiene que producir una llovizna continua y detectable de tales fotones.
Una vez finalizada la guerra, los astrónomos se lanzaron en busca de pruebas empíricas que confirmaran esta teoría. Y el éxito llegó: en 1951, el físico suizo-americano Félix Bloch (n. 1915) y el físico americano Edward Mills Purcell (n. 1912), trabajando por separado, detectaron la radiación de 21 centímetros. Más tarde también se logró detectar la absorción de fotones de 21 centímetros por parte del hidrógeno.
Ahora ya se disponía de un método para localizar el hidrógeno interestelar en el espacio y averiguar si se hallaba presente en profusión o en cantidades escasas. Además, los fotones eran fotones de microondas, y no de luz visible, con lo cual podían atravesar nubes de polvo sin dificultad alguna, permitiendo a los astrónomos «ver» el hidrógeno interestelar en muchas partes de la Galaxia que de otro modo serían invisibles.
Puesto que era de esperar que el polvo y el gas de la Galaxia se hallaran concentrados en los brazos espirales, al trazar un mapa de las fuentes de radiación de 21 centímetros debería obtenerse algo así como un plano de la estructura espiral de nuestra Galaxia. En realidad, antes de que se detectara la radiación de 21 centímetros ya se habían llevado a cabo algunos intentos de establecer la estructura de los brazos espirales, tomando como punto de partida las nubes luminosas de hidrógeno caliente. Tales nubes, se suponía, que rodeaban a las estrellas de la Población I (particularmente calientes) que se formaban en la masa de polvo de los brazos. La línea de gigantes blanco-azuladas —estrellas que hacen brillar al hidrógeno circundante en un radio de varios años-luz— revelarían así la forma de los brazos. Utilizando esta técnica, el astrónomo americano William Wilson Morgen (n. 1906) y sus colaboradores confeccionaron en 1951 un mapa de los brazos espirales de nuestra Galaxia.
En el mapa se distinguían diversas partes de tres brazos perfectamente perfilados. Uno de ellos se extendía por la constelación de Orión y recibió el nombre de «Brazo de Orión». A él pertenece nuestro Sol. Más cerca del centro galáctico que aquél se encuentra el «Brazo de Sagitario» y más alejado del centro que el Brazo de Orión se halla el «Brazo de Perseo».
El mapa fue ganando en complejidad a medida que se fueron efectuando otras investigaciones de este tipo, pero llegó un momento en que la técnica en cuestión, superada por el descubrimiento de la radiación de 21 centímetros, quedó anticuada. A partir de entonces, los astrónomos podían trabajar con distancias mucho mayores y con mucho más detalle. Los mapas de la estructura de la Galaxia que se confeccionaron por entonces indicaban en la dirección de una espiral doble bastante simétrica.
El gas de hidrógeno, frío y neutro, de la Galaxia no es ni mucho menos estático. Los estudios de Oort y Van de Hulst parecen demostrar que el hidrógeno fluye desde el centro hacia las estribaciones del sistema a una velocidad sorprendentemente alta. Oort calcula que la cantidad de hidrógeno transportada al año desde el centro a las afueras equivale a la masa del Sol. De acuerdo con ciertas conjeturas, la misión de este flujo de gas a lo largo de los brazos espirales consiste en mantener la integridad estructural de los brazos, suministrar una reserva abundante de gas y garantizar así la formación de nuevas estrellas. Por otra parte, no es fácil encontrar una respuesta a la cuestión de por qué no se agota la fuente de hidrógeno localizada en el centro galáctico. No cabe duda de que tuvo que extinguirse hace mucho de no haber existido una circulación general de hidrógeno que proporcione el suministro preciso a la fuente central, a expensas quizá de ese «halo» gigantesco de gas de hidrógeno que al parecer envuelve a la Galaxia en su totalidad. En cuanto al agente que mantiene en movimiento la circulación de hidrógeno, se desconoce por ahora su naturaleza.

38.jpg
Figura 38. Esquema de los brazos espirales de la Galaxia.

Nuestra Galaxia no es, naturalmente, la única que posee una reserva de hidrógeno, aunque la cuantía de ésta puede variar según el tipo de galaxia. Parece ser que las espirales tienen más hidrógeno que las elípticas. Se cree también (de acuerdo con los estudios sobre la radiación de 21 centímetros) que las galaxias espirales más abiertas poseen una mayor abundancia de hidrógeno que las más «empaquetadas», y que las galaxias irregulares superan a todas las demás en este aspecto. Hoy por hoy, la posible relación que esto pudiera tener con la evolución de las galaxias pertenece al terreno de lo incierto.
Los astrónomos, impulsados por el lógico interés de descubrir otros tipos de radiación de microondas que puedan ser de utilidad en el estudio del gas interestelar, centraron su atención en el deuterio (hidrógeno-2). El hidrógeno es la componente más abundante (y con gran diferencia) del gas interestelar; cierto porcentaje —si bien pequeño— de tales átomos tiene que estar constituido por hidrógeno-2. El átomo de hidrógeno-2 difiere del de hidrógeno-1 ordinario en que, además de un protón, posee un neutrón en el núcleo. Según las predicciones teóricas, y al igual que ocurre con el átomo de un solo protón, el campo magnético del núcleo protón- neutrón debe interaccionar con el campo magnético del electrón, emitiendo microondas de longitud de onda de 91 centímetros. Después de escudriñar todas las radio- fuentes de cierta intensidad (tales como Cassiopeia A) en busca de la susodicha longitud de onda, ésta fue detectada en 1966 por los astrónomos de la Universidad de Chicago. En la actualidad se cree que la cantidad de deuterio del Universo asciende a un 5% de la de hidrógeno corriente.
Después del hidrógeno, el elemento más común del Universo es el helio. En 1966, el astrónomo soviético N. S. Kardashev logró detectar microondas producidas por el helio, y con longitudes de onda que concordaban con las calculadas a partir de consideraciones teóricas.
El tercer elemento (detrás del hidrógeno y del helio) en la escala de abundancias del gas interestelar es el oxígeno. Un átomo de oxígeno se puede combinar con otro de hidrógeno para formar un «grupo oxhidrilo», combinación que, sin embargo, no sería estable en nuestro planeta, pues dicho grupo es muy activo y reaccionaría con cualquier otro átomo o molécula que encontrara. En este aspecto es de destacar su reacción con un segundo átomo de hidrógeno para formar una molécula de agua. Pero (como ya señaló Shklovsky en 1953) tratándose del espacio interestelar, donde los átomos se encuentran muy dispersos y las colisiones son escasas y muy espaciadas, una vez formado un grupo oxhidrilo, éste se mantendrá intacto durante mucho tiempo.
Según los cálculos teóricos, los grupos oxhidrilos emiten o absorben cuatro clases de microondas de longitudes de onda diferentes. Finalmente, tras un estudio detenido de Cassiopeia A a cargo de un equipo de técnicos de radio del laboratorio Lincoln del M. I. T., se logró detectar en 1963 dos de estas longitudes de onda: se trataba de líneas de absorción en torno a los 55 centímetros.
Las absorciones del grupo oxhidrilo resultaron ser de una utilidad insospechada. La masa del grupo oxhidrilo es unas veces diecisiete veces superior a la del átomo de hidrógeno, lo cual hace que sea mucho más «perezoso» que éste: para una temperatura dada, su velocidad es sólo una cuarta parte de la del átomo de hidrógeno. Y como, en general, el movimiento de los átomos se traduce en líneas más difusas, la línea de absorción del grupo oxhidrilo es mucho más definida que la del hidrógeno. Esto, a su vez, facilita la tarea de averiguar si la línea del oxhidrilo se ha desplazado ligeramente hacia las longitudes de onda más cortas o más largas y, por consiguiente, de determinar la velocidad radial de la nube de gas.
Por otra parte, la proporción entre la cantidad de grupos oxhidrilo y átomos de hidrógeno varía, por una razón u otra, según los lugares, y parece ser que la cantidad relativa de grupos oxhidrilo aumenta rápidamente a medida que nos vamos acercando al centro galáctico y a las regiones calientes tipo H-II. En vista de ello, los astrónomos albergan la esperanza de que trazando un mapa de la abundancia relativa del grupo oxhidrilo en la Galaxia se podrá llegar a localizar con gran exactitud su centro, lo cual permitiría una interpretación más clara de los procesos que allí se desarrollan.
En 1967 se descubrió que algunas de las regiones ricas en grupos oxhidrilo no poseían un tamaño mucho mayor que el del sistema solar. Inmediatamente se hicieron conjeturas en torno a la posibilidad de que dichas regiones representaran estrellas en proceso de formación: estrellas que aún eran suficientemente frías para permitir la asociación de átomos de oxígeno e hidrógeno en forma de grupos oxhidrilo. En lo que respecta a las más frías y jóvenes se pensó que eran gigantes infrarrojas. Inmediatamente fueron sometidas a investigación, comprobando que varias de ellas estaban asociadas efectivamente con radiación oxhidrilo, lo cual aumenta la probabilidad de que la hipótesis anterior sea cierta.
Después del hidrógeno, helio y oxígeno, los componentes más comunes de la materia interestelar son el nitrógeno y el carbono. Como es natural, en seguida se inició la búsqueda de posibles combinaciones que incluyeran estos elementos. En 1968 se detectaron en el polvo y gas interestelares ciertas líneas espectrales asociadas con la molécula de amoniaco (constituida por un átomo de nitrógeno y tres de hidrógeno: NH3 ), y en 1969 se descubrieron otras asociadas con moléculas de formaldehido (un átomo de carbono, dos de hidrógeno y uno de oxígeno: CH2O). Estos hallazgos despertaron un interés inusitado, pues se esperaba que en cualquier esquema de formación de vida planetaria las moléculas del tipo amoniaco y formaldehido tendrían que constituir la materia prima. El hecho de que tales compuestos se hallen presentes incluso en la materia interestelar confirma en cierto modo la sospecha de que la vida es un fenómeno que puede darse en muchos planetas y una manifestación común a todo el Universo.

§. Púlsares
Durante los años sesenta los astrónomos empezaron a interesarse en el problema de cómo era posible que las microondas procedentes de una fuente concreta lograran variar de intensidad. Dicha variación no tenía nada de sorprendente siempre que fuese lenta, pero hacia 1964 se observó que en el caso de algunas fuentes la intensidad de las microondas variaba con una rapidez insólita. Podría casi decirse que las microondas parpadeaban o hacían guiños.
La consecuencia inmediata de este fenómeno fue que los astrónomos se lanzaron al diseño de radiotelescopios capaces de captar impulsos muy breves de microondas, con la esperanza de que estos instrumentos permitiesen estudiar con más detalle esos cambios súbitos de intensidad. Uno de los astrónomos que comenzó a trabajar con un radiotelescopio de este tipo fue Anthony Hewish, en el Observatorio de la Universidad de Cambridge. Poner en funcionamiento el telescopio y detectar pequeños impulsos de energía de microondas, fue todo uno. Tales impulsos, provenientes de un punto a medio camino entre Vega y Altair, dejaron estupefacto a Hewish; pues aunque había esperado encontrarse con impulsos muy rápidos, nunca hubiera creído que fueran tan breves: cada uno de ellos duraba sólo 1/30 de segundo. Pero había algo más sorprendente aún, y es que los impulsos se sucedían con notable regularidad a intervalos de U/3 segundos. Ahora bien, decir P/3 segundos, a secas, sería decir la verdad a medias, pues lo cierto es que los intervalos eran iguales hasta la cienmillonésima de segundo. El período del primer caso que se observó era de 1,33730109 segundos.
Quizá parezca extraño que el nuevo instrumento captara al instante esta fuente de emisión, cuando los radiotelescopios ordinarios habían sido incapaces de ello. Sin embargo, hay que tener en cuenta que aunque los impulsos son muy energéticos y en su momento de máxima intensidad resultan fáciles de captar, este momento no pasa de ser un instante. Los radiotelescopios normales, que no están concebidos para detectar impulsos muy breves, sólo registran la emisión media, que representa únicamente el 3% o menos de la intensidad máxima. Es lógico, pues, que los impulsos pasaran inadvertidos.
Hewish no poseía la menor idea de lo que este raro fenómeno de microondas podía representar. Pero como las microondas parecían emerger de los cielos, supuso que se trataría de algún tipo de estrella; una «estrella pulsante», por lo demás, puesto que las microondas eran emitidas en breves impulsos. La denominación de «estrella pulsante» [pulsating star] fue abreviada bien pronto en «púlsar», y este es el nombre con que se conoce desde entonces a esta clase de objetos.
Y decimos objetos, en plural, porque una vez que Hewish detectó el primero, se lanzó en busca de otros análogos. Cuando, en febrero de 1968, anunció su descubrimiento, había localizado ya hasta cuatro. A esta búsqueda se unieron más tarde otros astrónomos, y en cuestión de dos años el número de púlsares ascendió a casi cuarenta.
Dos terceras partes de ellos están situados muy cerca del ecuador galáctico, lo cual constituye un indicio muy fuerte de que, en general, los púlsares forman parte de nuestra Galaxia. Lo cual no quiere decir que no existan también en otras galaxias, pero ocurre que a la distancia a que se encuentran éstas, los púlsares serían probablemente demasiado débiles para revelar su presencia. Se calcula que algunos de los púlsares que se han localizado hasta ahora quizá estén a sólo unos 100 años-luz de nosotros.
Aunque, como es natural, el período de los diferentes púlsares varía de uno a otro, todos ellos se caracterizan por una regularidad asombrosa en sus pulsaciones. Uno de ellos tiene un período de hasta 3,7 segundos, mientras que otro, descubierto en noviembre de 1968 por los astrónomos de Green Bank (West Virginia) en la nebulosa del Cangrejo, tiene un período de sólo 0,033089 segundos, es decir, emite 30 pulsaciones por segundo.
Naturalmente, la cuestión latente en todo este problema estribaba en saber qué era lo que originaba estos relámpagos brevísimos de regularidad tan fantástica. Tal fue el estupor que los primeros púlsares produjeron en Hewish y sus colaboradores que llegaron a pensar que se trataba de señales emitidas por alguna forma de vida inteligente que habitaran en las profundidades del espacio. Sin embargo, no tardó en comprobarse que las longitudes de onda que formaban parte de los impulsos eran fácilmente oscurecidas por la radiación de microondas que pulula en general por la Galaxia. Ninguna forma de vida inteligente —capaz además de producir tales impulsos— sería tan obtusa como para seleccionar esas longitudes de onda. Por otra parte, la cantidad de energía que implican estos impulsos hace sumamente improbable que provengan de seres inteligentes, pues se calcula que a tal efecto se requeriría una energía equivalente a 10.000 millones de veces la que puede producir el hombre. Sería descabellado derrochar tanta energía para enviar simplemente señales regulares. A medida que aumenta el número de púlsares detectados por los astrónomos, parece menos probable que existan tantas formas de vida diferentes ocupadas en transmitirnos señales. Esta teoría fue abandonada muy pronto.
Pero los impulsos tienen que provenir de alguna parte, o lo que es lo mismo, tiene que haber algún cuerpo astronómico que experimente un cambio a intervalos suficientemente rápidos para producir los impulsos.
Cabría pensar, por ejemplo, en un planeta que girara alrededor de una estrella de modo que al cabo de cada revolución se ocultara detrás de ella (visto desde la Tierra). Cada vez que el planeta emergiera de detrás de la estrella emitiría un potente impulso de microondas. O bien cabría pensar que el planeta gira alrededor de su propio eje y que en algún punto de su superficie se produce una fuga cuantiosa de microondas, de suerte que cada vez que dicho punto pasara por la dirección de la Tierra, nosotros recibiríamos un impulso. Esta hipótesis requeriría, sin embargo, que el planeta girase alrededor de la estrella o alrededor de su propio eje con un período comprendido entre 4 segundos y 1/30 de segundo, lo cual resulta inadmisible.
Para que se produzcan impulsos tan rápidos como los de los púlsares es preciso que exista algún objeto que gire con una velocidad enorme, y ello requiere la presencia de campos gravitatorios ingentes. Inmediatamente se pensó en las enanas blancas (véase pág. 215). Los teóricos pusieron en seguida manos a la obra, pero a pesar de todos sus esfuerzos no lograban concebir una enana blanca que girara alrededor de otra, o alrededor de su propio eje, o que emitiera impulsos con una velocidad suficiente para explicar el fenómeno de los púlsares. Las enanas blancas eran demasiado grandes y sus campos gravitatorios demasiado débiles.
Había que buscar algo más pequeño y más denso que las enanas blancas, y Thomas Gold pensó en las estrellas de neutrones. Este tipo de estrellas había salido a relucir ya en una ocasión anterior, cuando los astrónomos especulaban en torno a las fuentes de rayos X; pero su aparición fue muy breve. Ahora, la idea de las estrellas de neutrones se hallaba de nuevo sobre el tapete.
Gold señaló que las estrellas de neutrones eran suficientemente pequeñas y densas para describir una rotación alrededor de su eje en 4 segundos o menos. Por otra parte, la teoría había predicho que tales estrellas poseerían un campo magnético y polos magnéticos. Los electrones se hallarían tan ligados por el campo gravitatorio de la estrella que sólo podrían escapar en los polos. Y una vez fuera de la esfera de acción de la estrella, los electrones perderían energía en forma de micro- ondas. El resultado sería éste: de dos puntos opuestos de la superficie de la estrella de neutrones emergerían sendos haces continuos de microondas.
Si, en estas condiciones, da la casualidad de que la estrella gira de modo que el haz de microondas se emite precisamente en la dirección de la Tierra, no cabe duda de que detectaremos un breve impulso de microondas por cada revolución de la estrella. Naturalmente, los observatorios terrestres sólo detectarían aquellos púlsares que estuvieran orientados de modo tal que uno de sus polos magnéticos emitiera en la dirección de nuestro planeta. Algunos astrónomos calculan que sólo una de cada cien estrellas de neutrones poseen tal orientación, y que a pesar de que el número de estas estrellas quizá llegue a las 100.000 en la Galaxia 1% serían localizables desde la Tierra.
Gold indicó también que si su teoría era correcta, la estrella de neutrones perdería energía por los polos magnéticos y su velocidad de rotación disminuiría. Es decir, cuanto más corto fuese el período de un pulsar, más joven sería éste, más rápido sería el ritmo de pérdida de energía y más de prisa se iría parando la estrella.
El pulsar más rápido que se conoce —situado en la nebulosa del Cangrejo— quizá sea también el más joven, pues la explosión supernova que probablemente dio origen a la estrella de neutrones tuvo lugar hace sólo mil años.
El púlsar de la nebulosa del Cangrejo fue sometido a un estudio minucioso y se vio que su período iba efectivamente en aumento, tal y como había predicho Gold. El aumento era de 36,48 milmillonésimas de segundo por día. Este mismo fenómeno fue observado también en otros púlsares, por lo que la teoría de las estrellas de neutrones fue aceptada con carácter provisional.
En ocasiones ocurre que un púlsar se acelera ligeramente, para recuperar luego de nuevo su tendencia hacia la deceleración. Algunos astrónomos lo interpretan como el resultado de un «estrellemoto», o cambio en la distribución de la masa dentro de la estrella de neutrones. También puede ser debido a la inmersión de un voluminoso meteoro en la estrella de neutrones, de modo que al momento propio de la estrella vendría a sumarse el del bólido.
Está claro que no hay razón alguna para suponer que los electrones que emergen de la estrella de neutrones pierden su energía sólo en forma de microondas; todo lo contrario: deben producirse ondas a lo largo de todo el espectro. Los astrónomos centraron entonces su atención en aquellas porciones de la nebulosa del Cangrejo donde existían restos visibles de la antigua explosión. Y efectivamente, en enero de 1969 se observó que la luz que emitía una de las tenues estrellas de la nebulosa se encendía y apagaba en perfecta sincronización con los impulsos de microondas. Era el primer pulsar óptico que se descubría: la primera estrella de neutrones visible.
El pulsar de la nebulosa del Cangrejo también emitía rayos X. Un 5% aproximadamente de la cantidad total de rayos X de la nebulosa procedían de ese minúsculo objeto parpadeante.
Pero las estrellas de neutrones quizá tampoco constituyan el límite último, En su teoría general de la relatividad, Einstein había predicho que las fuerzas gravitatorias debían transmitirse por medio de ondas. Por desgracia, las ondas gravitatorias- serían mucho menos intensas que las ondas luminosas: billones y billones de veces menos intensas que éstas. Aun suponiendo que existieran, no parecía posible que se llegara jamás a detectarlas. Pues incluso en el caso de que en el Universo existieran masas gigantescas moviéndose a velocidades enormes, las ondas gravitatorias que emitirían serían increíblemente débiles. Esto, sin embargo, no desanimó a Joseph Weber, de la Universidad de Maryland, quien desde el año 1957 viene intentando detectarlas.
A este fin utilizó cilindros de aluminio de un metro y medio de longitud por algo más de medio metro de anchura, suspendidos de un alambre dentro de una cámara de vacío. Con este dispositivo se podían detectar desplazamientos de una cienbillonésima de centímetro; en opinión de Weber, algunas de las ondas gravitatorias que chocaran contra el cilindro deberían ser suficientemente intensas para producir un desplazamiento de esa magnitud. Ahora bien, puesto que la extensión de una de estas ondas bastaría para abarcar la Tierra entera, Weber instaló dos cilindros, uno en Baltimore y el otro en Chicago, de suerte que si ambos reaccionabansimultáneamente, podría estar bien seguro de que se trataba de una onda gravitatoria.
En 1969 Weber anunció que había detectado algunos «sucesos» que, en su opinión, cabía atribuir a las ondas gravitatorias. A principios de 1970 había observado ya unos 200 casos análogos. Parece ser que las estrellas de neutrones son los únicos objetos capaces de producir las ondas gravitatorias detectadas; pero tampoco es seguro que la masa de aquellas estrellas sea suficiente para dar lugar a ondas detectables desde la Tierra.
¿Quiere decir esto que los trabajos de Weber apuntan hacia algo más lejano aún, hacia fuerzas más intensas todavía o formas de materia de un tamaño y concentración aún más monstruosos? Aún es pronto para decirlo.

Capítulo 19
El borde del Universo

Contenido:
§. Galaxias en colisión
§. Galaxias en explosión
§. Las radiofuentes lejanas
§. Quásares
§. Galaxias en colisión
Hacia mediados de la década de los años cincuenta se sabía ya de la existencia de unas 2.000 radiofuentes. Aunque algunas de ellas formaban parte, sin lugar a dudas, del complejo general de emisión de microondas de la Vía Láctea, no ocurría otro tanto con la mayor parte de ellas (unas 1.900, para ser más exactos). Las fuentes de este segundo grupo no se extendían a lo largo de una superficie considerable —como ocurría con la emisión de microondas procedente de la Vía Láctea—, sino que, como ya indicó el astrónomo australiano John G. Bolton en 1948, se trataba de fuentes puntuales, de microondas que emergían de pequeños sectores del cielo.
Parecía lógico suponer que estas microondas provenían de estrellas que, por alguna razón desconocida, radiaban con gran intensidad en esa región del espectro. Tal razonamiento fue lo que indujo a Bolton a darles el nombre de «radioestrellas».
Lo que era indudable es que si las radioestrellas existían, no podían ser estrellas ordinarias, sino, probablemente, restos de supernovas. En el caso de la nebulosa del Cangrejo —la tercera radioestrella por orden de brillo— esto tenía que ser absolutamente cierto, y lo mismo podía asegurarse, aunque con un grado de certidumbre algo menor, de Cassiopeia A, la radioestrella más brillante. (Hoy día se especula en torno a la posibilidad de que Cassiopeia A constituya los restos de una super- nova que explotó hace sólo 300 años, permaneciendo, sin embargo, invisible debido a las nubes de polvo que se interponen entre aquélla y nosotros. Tales nubes no representan, en cambio, barrera alguna para la radiación de microondas. Cassiopeia B, otra de las fuentes de radio en Cassiopeia, acaso sea los restos de la supernova de Tycho.
Pero había un inconveniente, y es que en aquellos primeros tiempos de la radioastronomía resultaba casi imposible asociar las radioestrellas con objetos ópticamente visibles, ni siquiera con tenues manchas de carácter nebuloso como Cassiopeia A. La dificultad estribaba en parte en que la precisión con que se puede observar un objeto depende de la longitud de onda de la radiación utilizada. Las radiaciones de larga longitud de onda producen una visión más borrosa. Y comoquiera que las microondas tienen una longitud 400.000 veces superior a la de las ondas luminosas con que normalmente observamos las estrellas, la «visión» que obtenemos con este tipo de radiación es tanto más borrosa. Mirar el cielo a través de las microondas es algo así como observarlo con ayuda de instrumentos ópticos completamente desenfocados; en lugar de un punto bien definido, lo que se obtiene es una tenue mancha difuminada. Dentro de esa mancha tiene que encontrarse el punto que buscamos, pero ¿dónde exactamente?
El procedimiento que tenían que seguir entonces los radioastrónomos era el siguiente: localizar lo mejor posible la fuente de radio, delimitar en torno a ésta una zona relativamente pequeña (pequeña a simple vista, claro está, porque con ayuda de un potente telescopio óptico resultará gigantesca), y comprobar después si en algún punto de dicha zona se observa algún punto sospechoso que emita radiación visible. Si el resultado es positivo, se procurará por todos los medios enfocar al máximo la imagen de microondas con el fin de averiguar si la imagen se concentra en el punto sospechoso. Con el paso del tiempo, y a medida que los radiotelescopios fueron aumentando de tamaño y los instrumentos de detección adquirieron mayor precisión, fue también aumentando la eficacia de los métodos de la radioastronomía.
Pero los años fueron pasando, y la sensación de inquietud que la idea de las radioestrellas provocaba en los astrónomos, lejos de desvanecerse, iba en aumento. Pues por grande que fuese la exactitud con que se fijara la supuesta posición de estos objetos, no había modo de localizar —salvo en un número muy reducido de casos— ningún cuerpo visible dentro de la Galaxia. Pero había algo peor, y es que a medida que se iban localizando más y más radioestrellas, mayor era el convencimiento de que se hallaban distribuidas uniformemente por todo el cielo, en rotundo contraste con todos los demás objetos de nuestra Galaxia —desde las estrellas ordinarias hasta los restos de las supernovas—, que, como sabemos, se hallan concentrados fuertemente en el plano de la Vía Láctea. Para ser más exactos: los únicos objetos ópticamente visibles que presentan una distribución uniforme a lo largo y a lo ancho del firmamento son las galaxias. ¿Quería esto decir que las llamadas radioestrellas eran, en realidad, galaxias? ¿Debería entonces hablarse de «radiogalaxias» y no de radioestrellas?
La primera ruptura en esta dirección tuvo que ver con «Cygnus A», fuente de radio que ocupaba el segundo lugar en la escala de brillo. En 1944 Reber había registrado ya cierta emisión de microondas proveniente de esa dirección, y en 1948 Bolton demostró que se trataba de una radioestrella. Este descubrimiento revestía su interés, pues era la primera fuente de radio que Bolton logró identificar con una precisión suficiente para garantizar y justificar el nombre de radioestrella. En 1951 se había logrado ya delimitar la posición de Cygnus A a una zona de un minuto de arco de lado, aproximadamente. El problema se reducía, pues, a localizar algo visible dentro de dicha zona.
Baade estudió esa parcela con el telescopio de 200 pulgadas e identificó dentro de ella una galaxia de extraña configuración. Investigaciones ulteriores revelaron que, al parecer, no se trataba de una galaxia distorsionada, sino de dos galaxias cuyos núcleos se hallaban en íntimo contacto.
La explicación parecía inmediata: ¡dos galaxias en colisión! Igual que a nivel estelar se producían catástrofes que resultaban en un vómito de microondas, también existían catástrofes colosales a nivel galáctico, con emisiones aún más profusas de microondas. Por otra parte, parecía claro que al entrar en colisión, las galaxias tendrían que experimentar un trabajo ingente. Este extremo quedó confirmado cuando, finalmente, se logró registrar el espectro óptico correspondiente (labor sumamente ardua dada la debilidad de la imagen); dicho espectro exhibía las líneas de átomos altamente ionizados, líneas cuya presencia delataba de modo inequívoco temperaturas altísimas (Baade se había apostado con Minkowski una botella de whisky a que ocurría esto, y ganó).
No tardó en surgir la sospecha de que acaso todas, o casi todas, las llamadas radioestrellas fuesen en realidad galaxias en colisión. Al punto se emprendió una búsqueda intensa de otros casos de este tipo, o mejor dicho, de cualquier «galaxia peculiar» que, exhibiendo alguna anormalidad en su forma o estructura, pudiera indicar la presencia de un suceso poco usual a escala cósmica.
Tales casos fueron hallados, y en cantidades copiosas. Hasta la fecha se han detectado más de cien «radiogalaxias», y muchas de ellas no cabe duda de que son peculiares. Entre ellas figura, por ejemplo, la galaxia NGC 5128, que presenta el aspecto de una galaxia esferoidal con una ancha banda de polvo que corre todo a lo largo de su parte central. En aquel tiempo se especuló en torno a la posibilidad de que en este caso se tratara también de una colisión galáctica y que la banda oscura del centro fuese una galaxia espiral, vista de canto, abriéndose paso a través de la esferoidal.
Los astrónomos calcularon la probabilidad de que se produjera una colisión galáctica en general y llegaron a la conclusión de que este suceso quizá fuese mucho más probable que una colisión estelar. El Sol, por ejemplo, tiene un diámetro de 1.400.000 kilómetros y se halla a 40.000.000.000.000 de kilómetros de su vecino más próximo. Si tomamos estas cifras como representativas de la situación general, entonces la distancia entre dos estrellas cualesquiera equivale aproximadamente a 3.000.000.de veces su diámetro. Significa esto, por tanto, que una estrella que se mueva al azar tiene muchas más probabilidades de pasar de largo a través del espacio interestelar vacío que de hacer blanco precisamente en esos cuerpos relativamente diminutos que son las estrellas.
Por otro lado, nuestra Galaxia tiene un diámetro de 100.000 años-luz, y su vecino más próximo (de entre los de mayor tamaño), la galaxia de Andrómeda, se halla a 2.300.000 años-luz. Si de nuevo consideramos esta situación como representativa, entonces la distancia entre dos galaxias cualesquiera equivale a unas veinte veces su diámetro. Vemos, pues, que la aglomeración relativa de las galaxias en el espacio es mucho mayor que la de estrellas dentro de una galaxia, lo cual se traduce en el hecho de que las colisiones intergalácticas son tanto más probables que las interestelares.
En aquellos días de esplendor que siguieron al descubrimiento de la supuesta colisión de galaxias en Cygnus se calculó que en la porción de Universo que nos rodea deberían producirse cinco colisiones por cada mil millones de galaxias, mientras que en el interior de los cúmulos galácticos dichos sucesos serían mucho más comunes. En relación con cierto cúmulo de la constelación Coma Berenices, constituido por 500 galaxias, se estimó que en todo momento se deberían estar produciendo como mínimo dos colisiones, y que todas y cada una de estas 500 galaxias tendrían que experimentar más de una colisión a lo largo de su vida.
Claro está que cuando dos galaxias entran en colisión, pasando una a través de la otra, el número de colisiones estelares que se producirán será muy escaso, pues no olvidemos que las estrellas se hallan muy separadas entre sí en relación con su tamaño. No ocurre lo mismo con las nubes de polvo de ambas galaxias; dichas nubes es muy probable que choquen entre sí, pasando una a través de la otra. Posiblemente sea este proceso lo que constituye la fuente de emisión de microondas.
Esta última hipótesis viene apoyada por lo siguiente: a medida que se fue localizando con mayor precisión la radiofuente de Cygnus, se comprobó que no parecía surgir de los dos núcleos galácticos (carentes de polvo) que en ese momento se hallaban en colisión, sino de dos puntos situados claramente a sendos lados de dichos núcleos, es decir, en los brazos espirales, donde la concentración de polvo es muy alta.

§. Galaxias en explosión
La teoría de la colisión de las galaxias tuvo una vida alegre pero efímera, pues había una cuestión —la de la energía— que no dejaba de atormentar a los astrónomos.
Una galaxia ordinaria, como la nuestra, emite unos 10.000.000.000.000.000.000.0 00.000.000 (diez mil cuatrillones) de kilovatios de energía en forma de microondas. Esto equivale a la acción conjunta de unas mil fuentes de radio como Cassiopeia A.
La cifra anterior ni es excesiva, ni produce asombro alguno entre los astrónomos, pues para explicar una emisión de microondas de esta magnitud basta con suponer que la galaxia (ordinaria) que la emite contiene varios miles de restos de supernovas. La emisión de microondas de una galaxia ordinaria representa sólo una millonésima parte de la energía radiada en forma de luz. No hay, pues, motivo de alarma.
Ahora bien, si pasamos al grupo de las radiogalaxias observamos que incluso la más débil de ellas vierte al espacio unas cien veces más energía en forma de micro- ondas que las galaxias ordinarias. Cygnus A radia un millón de veces más energía en forma de microondas que dichas galaxias, y cinco veces más energía en esta forma que en forma de luz. Pero tampoco se contenta con eso, sino que produce además cantidades fantásticas de rayos cósmicos. Se cree que la energía de rayos cósmicos que se halla presente en Cygnus A equivale a siete veces la que se obtendría si la masa total del Sol se transformara en energía.
El asunto comenzaba a resultar desconcertante, y cuantas más vueltas se le daba, más difícil parecía poder llegar a explicar el origen de estas auténticas avalanchas de microondas. Se había comprobado, por ejemplo, que la energía total de la emisión de microondas de Cygnus A equivalía aproximadamente a la energía total del movimiento de las dos galaxias que, supuestamente, habían colisionado. Parecía de todo punto increíble que la energía de colisión pudiera convertirse por completo en microondas, pues ello supondría que en último término las dos galaxias acababan en reposo una con respecto a la otra. ¿Pero a expensas de qué? ¿De miles y miles de millones de colisiones estelares? ¡Imposible! Y aun suponiendo que esto fuese cierto, ¿cómo es que toda la energía se emitía en forma de microondas? Sería lógico suponer que gran parte de aquélla se emitiese en forma de radiación correspondiente a otras regiones del espectro.
Por otro lado, a medida que la década de los años cincuenta se acercaba a su fin se fue comprobando que la emisión de microondas de las diversas fuentes de radio no tenía otro origen que la radiación sincrotrón de electrones altamente energéticos atrapados en un campo magnético. Así pues, la energía cinética no se convertiría directamente en microondas durante la colisión, sino en electrones muy energéticos que más tarde se verían atrapados en un campo magnético. Sin embargo, los científicos no conocían ningún mecanismo que explicara de un modo razonable esta conversión de energía cinética en electrones de alta energía.

39.jpg
Figura 39. Fuentes de radio en el interior de las galaxias

Pero al margen de estas dificultades de orden teórico había observaciones empíricas que contradecían la hipótesis de las galaxias en colisión. En efecto, a medida que se iban localizando fuentes de microondas e identificándolas con galaxias, resultaba cada vez más difícil interpretar todo cuanto se observaba en éstas como colisiones. Algunas de las «galaxias peculiares» eran peculiares por la intensidad de la emisión de microondas, pero no por su forma o aspecto. Parecían galaxias perfectamente ordinarias, solitarias, imperturbables, pero emitiendo grandes cantidades de microondas.
Ante este dilema, los astrónomos empezaron a pensar en otra posibilidad: quizá no se tratara de dos galaxias, sino de la explosión de una sola.
La galaxia NGC 1068, por ejemplo, es una débil radio- galaxia cuya emisión de microondas es sólo unas cien veces superior a la de una galaxia normal; pero sucede que toda esta radiación parece surgir de una pequeña zona situada justamente en el centro de la galaxia. Si se tratara de la colisión de dos galaxias (proceso en el que desempeñarían un papel muy activo las nubes de polvo), sería lógico esperar que la fuente de radiación se dispersara por una zona muy ancha, pero nunca que se concentrara en el centro, pues esta parte carece prácticamente de polvo. En el caso de una explosión, por el contrario, el proceso alcanzaría su máxima virulencia precisamente en el centro, allí donde la aglomeración de estrellas es mayor y donde la probabilidad de que ocurra una catástrofe que afecte a un gran número de astros en un lapso de tiempo relativamente corto, es máxima. En estas condiciones, es posible que estemos presenciando el comienzo de una catástrofe de este tipo en NGC 1068. La emisión de microondas se halla todavía altamente concentrada en ese centro que comienza a explotar y es aún bastante débil.
Una etapa algo posterior del mismo proceso quizá venga representada por la galaxia NGC 4486, mejor conocida como M87, debido a su posición en la lista de Messier. (Digamos de paso que ésta es la galaxia más masiva que se conoce, con un total de unos 3 billones de estrellas.) Esta galaxia, al igual que la anterior, posee una intensa fuente de microondas en el centro; pero a diferencia de aquélla, emite también microondas —aunque débilmente— a lo largo de todo un halo que se extiende alrededor del centro y que coincide casi por completo con el volumen total ópticamente visible. Es como si la furia rabiosa de la explosión central se hubiese extendido decenas de miles de años-luz en todas direcciones. De este modo, la galaxia M87 emite microondas con una intensidad cien veces superior a la de NGC 1068. Hay además otro hecho muy interesante, y es que un estudio óptico detenido revela en M87 un chorro luminoso que emerge de su centro. ¿Se tratará quizá de material estelar lanzado al espacio intergaláctico por la violencia de la explosión central? Baade demostró que la luz de este chorro estaba polarizada, lo cual viene a apoyar la teoría de Shklovsky en el sentido de que el origen de las microondas es la radiación sincrotrón.
En una fase aún posterior del proceso, la fuente principal de emisión de microondas posiblemente se desplace fuera del núcleo galáctico, emergiendo a ambos lados de éste. (Esto parece ser cierto en un 75%, aproximadamente, de las radiogalaxias estudiadas.) En el caso de NGC 5128, que radia microondas con una intensidad comparable a la de M87, existen cuatro regiones de emisión de microondas: dos regiones intensas, una a cada lado de la banda central de polvo, y otras dos, más débiles y extensas, una a cada lado de la porción ópticamente visible de la galaxia. La fuente de emisión de microondas se ha dividido en dos, a la vez que se ha alejado hacia el borde del núcleo galáctico y al tiempo que parte de ella se ha visto lanzada lejos del núcleo en ambas direcciones. ¿No será entonces que la banda de polvo no sea el borde de una galaxia espiral en trance de atravesar otra esferoidal (tal y como se pensó en principio), sino que represente el producto de alguna catástrofe que haya afectado al núcleo galáctico? Esa banda de polvo ¿no será una vasta nube de materia estelar desintegrada que, por puro azar, se haya visto lanzada en dirección a nosotros?
La galaxia NGC 5128 se encuentra a una distancia relativamente corta de la tierra (unos quince millones de años-luz), circunstancia que permite observarla con cierto detalle. Si su distancia fuese mucho mayor de lo que en realidad es, entonces la banda de polvo y todo cuanto la rodea quedaría reducido de tamaño, hasta el punto de que lo único que podríamos distinguir serían dos manchas de luz que no llegarían a tocarse; de este modo, nosotros lo interpretaríamos como dos galaxias acercándose una a otra de plano, como dos platillos.
Pero esta es precisamente la interpretación de las galaxias de Cygnus A, que quizá representen un caso muy análogo al de NGC 5128, con la única diferencia de que su aspecto es más tenue por causa de su distancia: 700 millones de años-luz, en lugar de los 15 millones que nos separan de NGC 5128. En ese caso, la explosión quizá se encuentre en una fase más avanzada, pues todo el material que da origen a la emisión de microondas ha sido lanzado más allá del núcleo galáctico, quedando una parte a cada lado y una distancia de 300.000 años-luz entre ambas. Lo mismo cabría decir de otras galaxias en las cuales las fuentes de radio se hallan localizadas a ambos lados del cuerpo galáctico propiamente dicho. No obstante, las galaxias siguen exhibiendo signos de las catadas: la galaxia pasa a ser de nuevo (al menos en lo que deducen de sus espectros ópticos.
La fase final acaso tenga lugar cuando las fuentes de radio empiezan a hacerse tenues y difusas, hasta que por último llega un momento en que ya no pueden ser detectadas: la galaxia pasa a ser de nuevo (al menos en lo que atañe a la radioastronomía) una galaxia normal.
Ahora bien, a pesar de que, como decimos, la idea de las galaxias en colisión iba muriendo poco a poco a medida que la teoría de la explosión galáctica iba adquiriendo cada vez más auge, lo cierto es que las pruebas empíricas que abogaban en favor de esta última se reducían casi por entero a deducciones hechas a partir de la naturaleza de las emisiones de microondas detectadas durante los años 1950-59. La única prueba óptica que hablaba a favor de la teoría de las explosiones era ese chorro luminoso que se había observado en M87, prueba que, por otro lado, no dejaba de ser dudosa, pues el chorro emergía en una sola dirección, cuando lo lógico era que un fenómeno de ese tipo se produjera en dos direcciones opuestas.
La prueba óptica que tanta falta hacía vino con la llegada de los años sesenta. En 1961 el astrónomo americano Clarence Roger Lynds (n. 1928) estaba ocupado en la localización de cierta fuente de radio de intensidad muy débil catalogada como 3C231. Dentro de la zona que, de un modo muy difuso, cubría la fuente se hallaban comprendidas varias galaxias de la constelación de la Osa Mayor, de las cuales M81 era la más grande y sobresaliente. Hasta entonces se había supuesto que la fuente de radio en cuestión era M81; Lynds, sin embargo, logró localizarla con mayor precisión y comprobó que la fuente no era M81, sino otra galaxia vecina de menores proporciones, M82.
La galaxia M82 se hacía ciertamente acreedora al apelativo de «peculiar», y con mucha más razón que M81. Las primeras fotografías que se tomaron de M82 habían demostrado que se trataba de una galaxia excepcionalmente rica en polvo; tanto, que a pesar de hallarse a sólo diez millones de años-luz (distancia más que suficiente para distinguir estrellas individuales) resultaba imposible discernir ningún astro dentro de la galaxia. Por otro lado, la fuente de radio se encontraba emplazada en el centro, y por encima y debajo de éste aparecían tenues indicios de lo que acaso fueran filamentos de gas o polvo.
Desde el momento en que se logró identificar a M82 como una fuente de radio, sus propiedades ópticas cobraron un nuevo interés. El astrónomo americano Alian Rex Sandage (n. 1926) tomó fotografías con el telescopio de 200 pulgadas utilizando un filtro rojo especial que dejaba pasar preferentemente la luz asociada con el hidrógeno caliente. El razonamiento de Sandage era que si en el centro de aquella galaxia se estaba operando algún proceso, como consecuencia del cual se expelía cierta cantidad de materia hacia el exterior, entonces esta materia debería consistir principalmente en hidrógeno; y este hidrógeno se podría observar con una nitidez máxima si se lograba aislarlo de la luz procedente de otras fuentes.
Sandage estaba en lo cierto. La galaxia M82 estaba experimentando, clara y visiblemente, una inmensa explosión. En una fotografía tomada con una exposición de tres horas se observaban diversos chorros de hidrógeno de hasta 1.000 años-luz de longitud emergiendo del núcleo galáctico. La masa total de hidrógeno expulsada equivalía a un mínimo de 5.000.000 de estrellas de tipo medio. A juzgar por la velocidad con que se desplazaban los chorros y por la distancia que en ese momento llevaban ya recorrida, se podía deducir que la explosión, tal y como la vemos hoy día desde la Tierra, debió de iniciarse hace aproximadamente 1.500.000 años. Al parecer, se trata de una fase temprana del proceso de explosión, por lo cual aún no se observa esa duplicidad de fuentes a ambos lados de la galaxia que caracteriza a la fase tardía.
La luz de M82 está polarizada de una forma tal que delata la presencia de un intenso campo magnético en la galaxia. Esto viene a confirmar una vez más la teoría de la radiación sincrotrón. (En 1965 se descubrió radiación sincrotrón procedente de un halo en torno a M81; tal vez se trate de una respuesta al manantial de energía ocasionado por la explosión de la galaxia vecina.)
¿Son las explosiones galácticas un fenómeno relativamente común, un estadio por el que las galaxias atraviesan con relativa frecuencia, igual que muchas estrellas pasan a lo largo de su vida por la fase de nova? ¿Ha pasado nuestra Galaxia por una de estas fases? ¿Y habrá explotado ya nuestro núcleo galáctico? Si el núcleo de nuestra Galaxia efectivamente explotó, la explosión no debió de ser muy grande ni muy reciente, pues no existe señal alguna que indique la presencia de fuentes de radio a ambos lados de la Galaxia. Por otro lado, una explosión de esas características produciría intensas oleadas de neutrinos que influirían sobre las proporciones de algunos de los tipos de átomos contenidos en la corteza terrestre; y en efecto, algunos científicos opinan que las proporciones que se encuentran hoy día en la corteza abogan por una invasión tal de neutrinos.
Por último, tampoco debemos olvidar el flujo continuo de hidrógeno desde el centro de la Galaxia hacia los bordes ni el hecho de que se ha comprobado la existencia de nubes de hidrógeno neutro a grandes latitudes galácticas, es decir, lejos del plano de la Vía Láctea. Estas nubes tal vez indiquen la presencia de una explosión en tiempos remotos.

§. Las radiofuentes lejanas
Pero ¿cuál es la causa de tales explosiones?
La explosión más colosal de que tenemos noticia a escala subgaláctica es la supernova. Por ello parece razonable suponer —como sugirió el astrónomo americano Geoffrey R. Burbidge— que las explosiones galácticas se producen como consecuencia de la explosión simultánea, o casi simultánea, de un gran número de supernovas.
Imaginemos un gran número de estrellas masivas que se hallen en trance de experimentar una explosión tipo supernova. En el momento en que una de ellas explota, la radiación que emite aumentará un poco la temperatura de las estrellas vecinas, pero lo suficiente como para desencadenar la explosión de las mismas. Estas, a su vez, afectarán a otras estrellas del mismo modo. La probabilidad de que tenga lugar este proceso será máxima en el centro galáctico, es decir, allí donde las estrellas alcanzan una mayor aglomeración y donde este efecto de «fichas de dominó»[1] que viene a ser la formación de supernovas puede progresar a una velocidad máxima (recordemos que la radiación tarda cierto tiempo en atravesar el espacio que separa a las estrellas).
Ahora bien, ni siquiera esta formación múltiple de supernovas es capaz de suministrar suficiente energía, pues para proporcionar la cantidad total de energía de micro- ondas emitida, por ejemplo, por una radiofuente gigante como Cygnus A sería necesario todo el hidrógeno contenido en diez mil millones de estrellas como el Sol, y ello suponiendo que la energía de la fusión del hidrógeno se convirtiera en microondas con un rendimiento del 100%. Una catástrofe de este tipo tendría que afectar a la casi totalidad de las estrellas del núcleo de una galaxia de tamaño medio.
Esta matanza masiva de estrellas constituye un modo más bien drástico de salir del paso. ¿No existirá alguna otra explicación que resulte más económica en lo que toca a las estrellas?
Supongamos, por ejemplo, que el proceso que en realidad tiene lugar es la interacción de materia y antimateria. La aniquilación de materia-antimateria convierte toda la materia de partida en energía, y no sólo un 1 % como ocurre en el caso de la fusión nuclear. Si se admite esta hipótesis no harían falta ya diez mil millones de supernovas para proporcionar la energía de Cygnus A, sino sólo cien millones de estrellas (la mitad de materia y la otra mitad de antimateria) en aniquilación mutua.
Y sin embargo, esta idea tampoco resulta plenamente satisfactoria, pues no existe ninguna prueba directa de la existencia de antimateria en cantidades gigantescas. La presencia de antimateria en grandes masas podría proporcionar una explicación de ese chorro que se observó en M87, que no sería sino la consecuencia de la invasión de una cuña de antimateria procedente del exterior de la galaxia (o de la invasión de cierta cantidad de materia, caso de que M87 fuese antimateria). ¿Pero cómo explicar la aparición de fuentes de radio a ambos lados de una galaxia? Una invasión simultánea y simétrica de nubes de antimateria desde ambos lados de la galaxia se nos antoja un hecho demasiado improbable. Y si suponemos que el proceso de aniquilación se produjo en el centro y que las dos nubes situadas a ambos lados fueron el resultado de la explosión, habría que preguntarse cómo es posible que la antimateria penetrara hasta el centro de la galaxia sin haber aniquilado antes la materia de los bordes.
Fred Hoyle ha señalado que quizá haya que buscar la solución en la energía gravitatoria. Partiendo de una masa suficientemente grande y postulando un colapso suficientemente violento es posible explicar la producción de cantidades ingentes de energía. En efecto, la cantidad de energía originada de este modo por unidad de masa puede llegar a ser cien veces superior a la que proporciona la fusión nuclear ordinaria y, por consiguiente, del mismo orden que la que se obtendría mediante la aniquilación de materia y antimateria.
Nada se opone a que imaginemos el núcleo galáctico tan repleto de estrellas que el campo gravitatorio mutuo sea suficientemente intenso para contrarrestar la acción de todos aquellos factores que tienden a mantenerlas separadas. El proceso sería el siguiente: cierto número de estrellas comienzan a acercarse entre sí; como consecuencia de ello se intensifica el campo gravitatorio, arrastrando otras estrellas hacia el vórtice, hasta que en último término la masa de unos cien millones de estrellas, formando una única superestrella, se funde en una gigantesca estrella de neutrones. La energía producida de este modo bastaría para explicar la existencia de Cygnus A.
La ventaja que tiene la teoría gravitatoria sobre la teoría de la materia-antimateria es que no exige la intervención de colisión alguna. Una galaxia de materia (o para el caso, de antimateria) bastaría por sí sola para explicar cualquier fenómeno.
Ahora bien, ¿quién nos dice que la explicación de todo esto resida únicamente en hechos conocidos? Hace un siglo, Helmholtz trató de explicar la enorme producción de energía del Sol por medio de las fuerzas conocidas en aquellos tiempos y se vio obligado a postular un sistema solar demasiado efímero. Y es que la radiación del Sol y otras estrellas no podía admitir una explicación verdaderamente elegante hasta que se descubrió una nueva clase de energía: la nuclear. Así pues, algunos astrónomos no pueden por menos que preguntarse si esa producción aún más ingente de ciertas fuentes de radio tal vez indique tipos de energía hoy por hoy desconocidos.
Sea cual fuere el origen de la feroz energía que emiten algunas radiofuentes, lo cierto es que su simple existencia encierra, en potencia, una gran utilidad para aquellos que se interesan por los problemas de cosmología y cosmogonía.
Hacia mediados de la década de 1950-59, las galaxias ordinarias más distantes que podían verse con ayuda de los telescopios ópticos se hallaban de nosotros a unos dos mil millones de años-luz. Esta distancia, que equivale aproximadamente a una sexta parte de la distancia del borde del Universo observable, no basta del todo para dictaminar con claridad si el Universo es hiperbólico, pulsante o en estado estacionario.
En este sentido el método de microondas promete alcanzar distancias mayores. Y ello se debe a que las fuentes de luz son casi infinitas, mientras que las de microondas son pocas. Dentro de nuestra Galaxia son miles de millones las estrellas que se agolpan en el telescopio, pero sólo cientos las fuentes de radio. Fuera de la Galaxia existen miles de millones de galaxias ordinarias, pero las radiogalaxias se cuentan sólo por millares. Lo cual no significa otra cosa que las fuentes de microondas, a pesar de su lejanía, no es probable que se pierdan en medio de la aglomeración de fuentes vecinas, con lo cual resultan mucho más fáciles de detectar y estudiar que los objetos ópticos que se encuentran a la misma distancia.
Así, Cygnus A, que se halla situada a 700.000.000 de años-luz de nosotros, tiene tan escasa competencia, por así decirlo, de otras radiofuentes cercanas que está clasificada como la segunda radioestrella (en cuanto a brillo) del cielo. Sólo Cassiopeia A la supera en intensidad. Por otra parte, los radiotelescopios terrestres son capaces de localizar una radiofuente de la intensidad de Cygnus A a distancias que superan con mucho el alcance de nuestros mejores telescopios ópticos. La emisión de microondas de Cygnus A se podría seguir detectando de un modo claro a una distancia a la cual la luz de la fuente se habría reducido a un débil centelleo apenas perceptible. Minkowski localizó, por ejemplo, en 1959 una radiofuente cuyo corrimiento al rojo indicada una distancia de 4,5 mil millones de años-luz, distancia que supera con creces la de cualquier objeto ópticamente visible conocido en aquellos tiempos. Quiere esto decir que la distribución de las radiofuentes muy lejanas podría ser de gran utilidad a la hora de elegir un modelo particular del Universo, precisamente en unas condiciones en que la distribución de las galaxias ordinarias (más cercanas, desde luego, pero sólo detectables por medios ópticos) no servirían de nada.
Como primera aproximación cabría suponer que en líneas generales las radiogalaxias más tenues son también las más distantes, lo mismo que Hubble se apoyó en la hipótesis de que las galaxias más débiles se hallaban más alejadas que las más brillantes. Haciendo uso de esta hipótesis, el astrónomo inglés Martin Ryle (n. 1918) intentó averiguar en qué forma aumentaba el número de radiofuentes a medida que disminuía su intensidad, como ya hiciera Herschel en su día con las estrellas.
Si la teoría del estado estacionario del Universo es correcta, entonces la distancia media entre las galaxias ha sido siempre la que es ahora. La radiación de las radio- fuentes lejanas (que, por haber nacido hace muchos evos, representan un Universo mucho más joven que el que nos rodea) debería indicar que dichas radiofuentes no exhiben una concentración mayor que la que presentan las radio- fuentes de las galaxias más próximas a nosotros. Y en ese caso, el número de radiofuentes debería aumentar, conforme disminuye la intensidad, de acuerdo con una fórmula determinada.
Herschel había comprobado que en el caso de las estrellas el aumento del número de éstas con la tenuidad era menor que el que predecía la fórmula, de lo cual dedujo que se trataba de una Galaxia finita. Ryle se encontró ante el caso opuesto: la rapidez con que el número de radiofuentes aumentaba con la tenuidad era mayor que la que indicaba la fórmula. Todo ocurría como si la fuentes se hallaran más concentradas en las lejanías que en nuestra propia vecindad.
Ryle publicó estos resultados a mediados de la década de 1950-59 y sus análisis parecían apoyar la teoría del «big bang», señalando en dirección a un Universo hiperbólico o pulsante. Pues inmediatamente después del «big bang», en plena juventud del Universo, las galaxias —y por tanto también las radiogalaxias— se hallaban menos espaciadas entre sí. Esto significa que en los lejanos confines del espacio, donde la radiación que hoy llega hasta nosotros fue producida en la juventud del Universo, las radiofuentes son más numerosas que en nuestro entorno.
En su tiempo, los datos de Ryle parecían estar incluso de acuerdo con la teoría de la colisión de las galaxias. En efecto, si antaño (lo cual, en este caso, es tanto como decir: si a distancias remotas) las galaxias se encontraban más próximas unas de otras, es lógico esperar que el número de colisiones fuese mayor y las radiogalaxias más numerosas.
El ocaso de la teoría de las galaxias en colisión no va, sin embargo, en detrimento de la idea de Ryle, suponiendo, claro está, que sus datos sean válidos. Pues muy bien pudiera ser que los núcleos en explosión constituyan un rasgo característico de la juventud de una galaxia, es decir, que sea más probable que una galaxia experimente la catástrofe en su primer evo de vida que en el segundo, más probable en el segundo evo que en el tercero, etc. En ese caso es de esperar que las explosiones fuesen más numerosas en la juventud del Universo (léase: en los confines más lejanos a que pueden llegar nuestros radiotelescopios) que en el Universo actual que nos circunda.
Pero, de hecho, no hace falta buscar una explicación para esta diferencia, pues la mera existencia de ésta es ya suficiente. Desde el momento en que existe una diferencia de carácter general entre el Universo que nos rodea y el Universo próximo al borde, queda eliminada la teoría del estado estacionario, pues la esencia de ésta consiste en suponer que no existeninguna diferencia importante a lo largo del tiempo y del espacio.
Naturalmente, los datos de Ryle no son, ni mucho menos incuestionables, porque basándose como se basan en la detección y medida de radiofuentes demasiado débiles, su precisión y fiabilidad sólo podrán ser limitadas. Hoyle, por ejemplo, se aferró tenazmente a la teoría del estado estacionario a pesar de los hallazgos de Ryle, afirmando que los datos referentes a las microondas no eran todavía lo bastante sólidas como para poder tomar la decisión final.
Pero entonces, y cuando nadie lo esperaba, llegó un fenómeno que vino a ampliar el radio de acción de los astrónomos de una forma mucho más drástica que antes lo hicieran las lejanas radiofuentes de Ryle. Además, dicho fenómeno supuso una vuelta a la porción óptica del espectro, la cual,ceteris paribus, ofrecía la posibilidad de observaciones más precisas.

§. Quásares
Como dijimos en una ocasión anterior, muchas de las radiofuentes habían sido identificadas, ya en 1948, como fuentes puntuales que tenían su origen en áreas muy reducidas del cielo. El diámetro medio de tales radiofuentes es de unos 30 segundos de arco, o expresándolo de un modo más gráfico, todas las «radioestrellas» cabrían holgadamente dentro de un área no muy superior a la mitad de la Luna llena.
Y sin embargo, existen unas cuantas radiofuentes cuyo tamaño resulta pequeño aun midiéndolo con esos patrones de medida. Conforme se fueron perfeccionando los métodos de localización de fuentes se vio que, al parecer, algunas no superaban un segundo de arco de diámetro.
El objeto en cuestión tenía que ser en extremo compacto, e inmediatamente despertó la sospecha de que si las «radioestrellas» comunes eran en realidad radiogalaxias, las «radioestrellas» compactas debían ser literalmente radioestrellas, pues de este modo quedaría explicada su compacidad.
Entre las radiofuentes compactas figuraban varias conocidas con los nombres de 3C48, 3C147, 3C196, 3C273 y 3C286. El prefijo «3C» es una abreviatura de «Tercer Catálogo de Cambridge de Radioestrellas», una lista confeccionada por Ryle y su grupo de seguidores; los restantes números representan el lugar que ocupa la fuente en dicho catálogo. Con ayuda del telescopio de 200 pulgadas, Sandage escudriñó en 1960 las zonas en que se hallaban estas radiofuentes compactas, comprobando que en todos los casos la fuente parecía ser una estrella; la primera que detectó fue 3C48. En el caso de 3C273, el objeto más brillante de esta especie, fue Cyril Hazard, en Australia, quien consiguió determinar su posición exacta, registrando el momento preciso en que la Luna ocultó a dicha fuente. Las estrellas pertenecientes a esta zona habían sido registradas ya en anteriores estudios fotográficos del cielo, pero siempre se las había clasificado como simples miembros, muy tenues, de nuestra Galaxia. Mas ahora, apoyándose en estudios fotográficos sumamente minuciosos, como correspondía al interés inusitado que habían despertado las emisiones de microondas, los astrónomos comprobaron que ahí no se acababa la historia. Algunos (aunque no todos) de los objetos iban acompañados de tenues nebulosidades, y 3C273 mostraba signos de un chorro diminuto de materia que emergía de él. En efecto, con 3C273 están asociadas dos radiofuentes: una procedente de la estrella y otra procedente del chorro.
Aunque su aspecto recordaba al de una estrella, las radiofuentes compactas tal vez no fuesen ni mucho menos estrellas comunes. Por ello se dio en llamarlas «fuentes cuasi-estelares». A medida que este concepto fue adquiriendo importancia para los astrónomos, la expresión «radiofuentes cuasi-estelares» resultó cada vez más incómoda de emplear, por lo cual Hong-Yee Chiu ideó en 1964 la abreviatura de «quásar» («quasistellar» en inglés), expresión nada eufónica, pero que, sin embargo, se encuentra ya firmemente afincada en la terminología astronómica.
Los quásares poseían naturalmente un interés suficiente para convertirse en objetos de investigación y merecer la aplicación de todas las técnicas astronómicas conocidas; y entre ellas figuraba la espectroscopia. Primero Sandage, y después Jesse L. Greenstein y Maarten Schmidt, comenzaron a trabajar en la tarea de obtener los correspondientes espectros; y cuando finalmente lograron coronar su labor en 1960, se encontraron ante una serie de líneas espectrales extrañas que no sabían identificar. Además, las líneas del espectro de un quásar determinado no coincidían con las de los demás. Aquello era sin duda desconcertante, pero a pesar de todo los quásares siguieron aceptándose como objetos pertenecientes a nuestra Galaxia.
En 1963 Schmidt volvió sobre el espectro de 3C273, que, como una magnitud de 12,8 es el quásar más brillante. De las seis líneas que se observaban en el espectro, cuatro estaban espaciadas de un modo análogo a cierta serie de líneas del hidrógeno, con la única salvedad de que dicha serie no debería encontrarse en el lugar en que de hecho aparecía. Ahora bien, ¿no podría ser que tales líneas estuvieran localizadas realmente en otro lugar, apareciendo, sin embargo, en el sitio en que aparecían como consecuencia de haber sufrido un desplazamiento hacia el extremo rojo del espectro? De ser así, tenía que tratarse de un desplazamiento enorme, pues a partir de él se deducía una velocidad de recesión de más de 40.000 kilómetros por segundo. Por muy increíble que pareciera esta hipótesis, lo cierto es que admitiendo dicho desplazamiento quedaban automáticamente identificadas las otras dos líneas: una de ellas representaba el oxígeno desprovisto de dos electrones, y la otra el magnesio desprovisto también de dos electrones.
Estudiando de nuevo los demás espectros de quásares, Schmidt y Greenstein comprobaron que las líneas que aparecían en ellos también podían ser identificadas, siempre que se trabajara sobre la base de enormes desvíos al rojo.
Estos enormes desvíos al rojo podrían ser producto de la expansión general del Universo; pero si a partir de dicho corrimiento se calculaba la distancia de acuerdo con la ley de Hubble, resultaba que los quásares no podían ser, en modo alguno, estrellas ordinarias de nuestra Galaxia, sino objetos extraordinariamente distantes, alejados de nosotros miles de millones de años- luz.
Este resultado era muy duro de aceptar, por lo cual se buscaron otras explicaciones para el desvío hacia el rojo. Se pensó, por ejemplo, que los quásares tal vez fuesen objetos muy masivos asociados con campos gravitatorios suficientemente intensos para producir desvíos al rojo de Einstein muy grandes. O que quizá se tratara de regiones de gas muy disperso cuya luminosidad fuese debida a la radiación dura emitida por las numerosas estrellas de neutrones contenidas en el interior de aquél; el gigantesco campo gravitatorio de estas estrellas se encargaría, por su parte, del desvío hacia el rojo. Existe un quásar, el 3C-273B (y se sospecha que no es el único) del cual se sabe, desde 1967, que emite rayos X (en una cantidad mil millones de veces superior a la emitida por la nebulosa del Cangrejo), y este hecho concuerda con la teoría de las múltiples estrellas de neutrones. En este sentido, Philip Morrison, del M. I. T., había especulado ya con la posibilidad de que los quásares fuesen gigantescas estrellas de neutrones; en ese caso, los quásares serían a una galaxia normal lo mismo que un pulsar a una estrella corriente.
Si todo esto fuera cierto, los quásares serían objetos relativamente cercanos. Pero más tarde se demostró que a la posibilidad de que el corrimiento hacia el rojo estuviera originado por efectos gravitatorios podían hacerse fuertes objeciones de orden teórico. Fuera cual fuese la explicación, el desvío hacia el rojo parecía deberse a la velocidad.
Ahora bien, ¿no podría ser que los quásares se hallaran relativamente próximos a nosotros y que, a pesar de ello, hubiesen adquirido velocidades gigantescas debido no a la expansión del Universo, sino a alguna explosión en el centro de nuestra Galaxia, como por ejemplo la colisión de estrellas de neutrones?
Sin embargo, si esto fuese así, todos los quásares se alejarían del centro de la Galaxia, y entonces cabría esperar que algunos de ellos se moviesen hacia nosotros produciendo un gran corrimiento hacia el violeta, mientras que otros, hallándose a una distancia relativamente corta de nuestro sistema, exhibiesen un movimiento propio mensurable. Pero nada de esto se ha observado: hacia finales de los años sesenta se habían descubierto unos ciento cincuenta quásares; pues bien, absolutamente todos los espectros estudiados indicaban la presencia de un gran corrimiento hacia el rojo (mayor, de hecho, que el de 3C273), mientras que ninguno de ellos indicaba la presencia de un movimiento propio perceptible.
James Terrell, del observatorio de Los Álamos y uno de los astrónomos más destacados de entre aquellos que se niegan a atribuir una gran distancia a los quásares, señala, sin embargo, que este factor no es decisivo. Según él, si la explosión tuvo lugar hace mucho tiempo, todos los quásares que al principio se precipitaron en dirección hacia el Sol nos habrían pasado ya y estarían ahora alejándose. Y en la actualidad se hallarían tan distantes (aunque no «superdistantes») que el movimiento propio que podríamos observar desde la Tierra sería absolutamente inexistente. En 1968 Terrell afirmó haber detectado para 3C273 un movimiento propio que indicaría una distancia de sólo 400.000 años-luz.
Pero a favor de la teoría del gran alejamiento de los quásares también existe, cuando menos, una prueba directa e independiente del corrimiento hacia el rojo. La emisión de microondas de 3C273 es, al parecer, bastante deficiente en la región de los 21 centímetros, región que se halla ocupada por una línea de absorción. Esta línea de absorción muestra un corrimiento hacia el rojo que indica que la nube de hidrógeno responsable (supuestamente) de la absorción tiene que hallarse a una distancia de cuarenta millones de años-luz. Y da la casualidad de que entre la Tierra y 3C273 existe un cúmulo de galaxias en la constelación de Virgo precisamente a cuarenta millones de años-luz. Parece razonable suponer que en dicho cúmulo existe una nube de hidrógeno que provoca la absorción en la zona de los 21 centímetros. En ese caso, el quásar 3C273, estando como está más allá del cúmulo de Virgo, no podría ser desde luego un miembro de nuestra Galaxia. Y si se halla más allá del cúmulo de Virgo, entonces parece imposible afirmar que dicho quásar no se halla tan lejos como indica su corrimiento hacia el rojo. Dando un paso más en el razonamiento podríamos decir que si un quásar se encuentra muy alejado y su desvío hacia el rojo representa esta enorme distancia, entonces resulta difícil sostener que esos desvíos hacia el rojo aún mayores que exhiben los demás quásares son atribuibles a factores distintos de la distancia.
Si interpretamos el fenómeno del desvío hacia el rojo en la forma tradicional, llegamos a la conclusión de que la mayor parte de los quásares descubiertos recientemente se hallan más alejados que los de la primera hornada. En 1967 Bol ton descubrió que el desvío hacia el rojo del quásar PKS 02-37-23 representaba una velocidad de recesión de un 82,4% de la velocidad de la luz (es decir, unos 25.740 kilómetros por segundo). De acuerdo con Sandage, tales objetos tienen que hallarse a casi nueve mil millones de años-luz de distancia, de modo que la luz que recibimos nosotros ahora fue emitida hace unos 9 evos.
Y sin embargo, el hecho de atribuir distancias gigantescas a los quásares no hace sino sumir a los astrónomos en problemas aún más complejos y desconcertantes. Y es que si estos objetos son tan increíblemente lejanos como parece deducirse de sus corrimientos hacia el rojo, entonces tienen que ser en extremo luminosos para poder brillar como lo hacen. Pero al parecer, no sólo emiten cantidades gigantescas de microondas, sino también luz visible a raudales. Los quásares son entre treinta y cien veces más luminosos que una galaxia común. Por otro lado, es muy posible que constituyan la fuente de una fracción apreciable de la producción de rayos cósmicos ultraenergéticos del Universo.
Pero si esto fuese cierto, es decir, si los quásares poseyeran la forma y el aspecto de una galaxia, deberían contener un número de estrellas cien veces superior al de una galaxia común y sus dimensiones deberían ser de cinco a seis veces superiores a las de esta última. Incluso a las descomunales distancias a que se encuentran, los quásares deberían aparecer en el telescopio de 200 pulgadas como manchas ovales de luz perfectamente distinguibles. El hecho de que se manifiesten como simples puntos luminosos parecía indicar que, a pesar de su extraordinario brillo, tenía que tratarse de objetos mucho más pequeños que una galaxia ordinaria.
Esta teoría de que el tamaño de los quásares era más bien reducido se vio respaldada por otro fenómeno: desde 1963 se había venido observando que la energía emitida por estos cuerpos, tanto en la región visible como en la de microondas, era variable, con aumentos y disminuciones de hasta 3 magnitudes en el intervalo de unos cuantos años.
Para que la radiación varíe tanto en tan poco tiempo es preciso que el cuerpo sea pequeño. La razón es la siguiente: una variación pequeña puede ser consecuencia de un abrillantamiento o debilitamiento en zonas limitadas de un cuerpo; pero una variación importante tiene que derivarse forzosamente de algún proceso que afecte al cuerpo entero. Y si el proceso afecta al cuerpo en su totalidad, entonces tiene que existir algún efecto que se manifieste a lo largo y a lo ancho del objeto dentro del tiempo que dure la variación. Pero, comoquiera que ningún efecto puede viajar a una velocidad superior a la de la luz, los quásares, al variar de un modo marcado en el lapso de unos pocos años, no pueden tener un diámetro superior a un año-luz más o menos. (Algunos cálculos demuestran que los quásares no tienen un diámetro mayor que una semana-luz.)
Esta combinación de un volumen diminuto con una gran luminosidad plantea a los astrónomos problemas de tan difícil resolución que, por lo general, se observa cierta tendencia a encontrar algún modo de aceptar los quásares como objetos cercanos, pues en ese caso (que es la tesis de Terrell) no necesitarían una luminosidad excesiva para brillar del modo que lo hacen: no serían más brillantes de lo que cabría esperar de un cuerpo de un año-luz de diámetro. Si, por el contrario, suponemos que la distancia de los quásares es realmente gigantesca, entonces nos encontramos enfrentados con el problema de un objeto que teniendo sólo un año-luz de diámetro, es cien veces más luminoso que una galaxia común, cuyo diámetro alcanza los cien mil años-luz. ¿Cómo se puede explicar esto?
Varias son las posibilidades que se han sugerido. Una de ellas es la de la «lente gravitatoria». La hipótesis de partida es que una galaxia se interponga justamente entre la Tierra y otra galaxia. La luz emitida por la galaxia más lejana se curvaría alrededor de la cercana en virtud de los efectos gravitatorios, concentrándose luego de nuevo en nuestra dirección. El efecto final sería análogo al de la lente de un telescopio: el brillo aparente de la galaxia más lejana se vería aumentado hasta el punto de que ambas galaxias se nos antojarían como un quásar super- luminoso.
Otra posibilidad, que acaso tenga más probabilidades de ser cierta que la anterior, es que se trate de algún tipo de implosión, alguna catástrofe que a escala galáctica represente lo que las supernovas a escala estelar. Pudiera ser que al nivel galáctico la explosión de una galaxia ordinaria sea una especie de «nova» que radia gran cantidad de energía, pero en la cual se conserva la sustancia y la forma de galaxia, mientras que aquellas catástrofes de características particularmente drásticas sean algo así como «supernovas», en el sentido de que gran parte de la materia galáctica sale despedida hacia el exterior, contrayéndose el resto en un quásar. (Y en efecto, la luz procedente de los quásares es análoga en algunos aspectos a la de las enanas blancas.)
En ese caso, los quásares serían el equivalente galáctico de las estrellas de neutrones (tal y como sugiere Morrison), aun cuando el corrimiento hacia el rojo seguiría siendo una consecuencia de la velocidad y no de su campo gravitatorio.
Lo que sí es seguro es que si la interpretación correcta de los quásares es alguna de las anteriores, tales objetos tienen que ser muy efímeros, pues es imposible que puedan radiar tales cantidades de energía durante mucho tiempo. Existen cálculos que indican que un quásar no puede subsistir como tal durante más de un millón de años, aproximadamente. Los quásares que observamos en la actualidad debieron de formarse hace relativamente poco tiempo (a escala cósmica), y necesariamente tienen que existir una serie de objetos que en su día fueron quásares pero que dejaron ya de serlo.
Sandage anunció en 1965 el descubrimiento de ciertos objetos que efectivamente pudieran ser antiguos quásares, pues a pesar de que su aspecto recordaba al de las estrellas azuladas ordinarias, poseían corrimientos hacia el rojo descomunales, como los quásares. Y aunque no emitían ninguna clase de microondas, su distancia, luminosidad y tamaño coincidían con los de aquéllos. Sandage los denominó blue stellar objects (objetos estelares azules), cuya abreviatura es BSO.
Al parecer, los BSO son más numerosos que los quásares. Ciertos cálculos efectuados en 1967 sitúan en 100.000 el número total de BSO que se hallan al alcance de nuestros telescopios. Si es cierto que tales objetos se derivan de los quásares, entonces su número tiene que ser unas cincuenta veces superior al de éstos, porque la duración de la fase BSO es también cincuenta veces superior (digamos 50.000.000 de años). Los quásares aún más viejos, es decir aquellos que ya han dejado tras sí la etapa BSO, se irán apagando hasta llegar un momento en que no puedan ser detectados ni por la emisión de microondas ni por la luz. En la actualidad se ignora todavía cuál es la forma que adoptan entonces y de qué modo podría reconocérselos.
La simple existencia de los quásares y de los BSO ha supuesto un duro golpe para la teoría del estado estacionario. Pues si todos ellos se encuentran a grandes distancias y, por consiguiente, se formaron muchos evos atrás, y si en nuestra proximidad inmediata no se ha podido detectar ningún objeto de este tipo, parece lógico pensar que los procesos (sean cuales fueren) que dieron lugar a aquéllos no se encuentran ya en vigor (aunque es cierto que en nuestras proximidades quizá existan restos de lo que en un pasado muy lejano fueron quásares y que hasta ahora no hayamos sido capaces de detectarlos). Esto, a su vez, significa que evos atrás el Universo difería del de ahora en aspectos importantes.
Si el «big bang» se produjo hace unos 15 evos, entonces lo anterior tiene perfecto sentido, pues en aquellos tiempos el Universo era más pequeño, más caliente, más joven y más repleto de objetos que hoy, con lo cual no es de extrañar que los sucesos catastróficos del tipo de la formación de quásares estuvieran a la orden del día, mientras que en el Universo actual, de mayor tamaño, más frío, más viejo y más vacío que el de antaño, esas hecatombes ya no ocurren.
En contra de esta teoría está el hecho de que, a pesar de todo, la década de los sesenta no ha logrado demostrar de un modo indiscutible que los quásares son cuerpos extremadamente distantes, ni ha conseguido acabar con la idea de que tal vez se trate de objetos situados a distancias moderadas. Por otra parte, los quásares no parecen ya antes tan únicos como se creía al principio.
En 1943 Cari Seyfert —por entonces un estudiante de astronomía recién licenciado— había detectado una galaxia de características peculiares que desde aquellos años se sabe forma parte de un grupo conocido hoy con el nombre de «galaxias de Seyfert». Aunque a finales de la década de 1960-69 sólo se tenía noticia de unos doce ejemplares de ellas, es posible que constituyan un 1% de todas las galaxias conocidas.
Las galaxias de Seyfert son normales en casi todos los aspectos y sus desvíos al rojo no pasan de ser moderados. Los núcleos, sin embargo, son muy compactos, muy brillantes y parecen en extremo calientes y activos, es decir, de características similares a los quásares. Las variaciones que se observan en su radiación parecen indicar que el tamaño de los centros radioemisores emplazados en los núcleos de dichas galaxias no es mayor que el que por lo general se atribuye a los quásares.
Dada su intensa actividad, estos núcleos galácticos resultarían visibles a distancias mucho mayores que las capas exteriores de las galaxias de Seyfert. Quiere decirse que a una distancia suficientemente grande lo único que veríamos de una galaxia de este tipo —ya fuese con el telescopio óptico o con el radiotelescopio— sería el núcleo, por lo cual los astrónomos lo catalogarían como un quásar. Así pues, es posible que los quásares muy distantes no sean otra cosa que galaxias de Seyfert de gran tamaño. En ese caso, es probable que los quásares se formen relativamente cerca de nosotros, o lo que es lo mismo, que constituyan un fenómeno no exclusivo de las grandes distancias y, por consiguiente, no tan indicativo de que miles de millones de años atrás el Universo era muy distinto del de ahora.
Ahora bien, si los quásares han perdido algo de su fuerza como apoyos de la teoría del «big bang», lo cierto es que este apoyo ha sido asumido por otro tipo de observación, y además de una forma espectacular. Veamos cómo.
Si es cierto que el Universo comenzó con un «big bang», esta explosión tuvo que emitir una oleada ingente de radiación sumamente energética: rayos X y rayos gamma. Escarbando entonces en los confines remotos del espacio, a miles de millones de años-luz de distancia, lo que haríamos no sería otra cosa que retroceder miles de millones de años en el tiempo, con lo cual estaríamos en condiciones de «ver» ese balón de fuego.
Fue Robert H. Dicke, de la Universidad de Princeton, quien concibió esta idea en 1964, afirmando además que a la distancia a que se detectaría el balón de fuego, el corrimiento hacia el rojo sería tan gigantesco que los rayos X y los rayos gamma se hallarían desplazados hasta la región de las microondas. Así pues, según Dicke, en cualquier dirección que se enfocara el radiotelescopio debería detectarse un fondo general de radiación de microondas, radiación cuyas características él calculó, trabajando siempre sobre la hipótesis del «big bang».
La búsqueda en pos de la radiación de fondo comenzó al punto, y en 1965 A. A. Penzias y R. W. Wilson, de los Bell Telephone Laboratories, afirmaron que tras eliminar convenientemente el efecto de todas las emisiones de microondas, quedaba todavía un fondo general muy débil de radiación. El hombre había escuchado el eco del «big bang» resonando todavía por el espacio.
Ahora bien, la naturaleza de la radiación detectada parece indicar que su temperatura actual es de 3o K., o tres grados sobre el cero absoluto, y no de 10° K, que es lo que predijo Dicke. Esta discrepancia demuestra, al parecer, que la temperatura original del «big bang» era inferior a lo que los teóricos habían estimado como más probable, lo cual, a su vez, podría significar que en el momento de su nacimiento el Universo no estaba compuesto exclusivamente de hidrógeno, sino que contenía una, mezcla considerable de helio.

* * * *

Y así, tal como prometimos al principio del libro, hemos seguido paso a paso la búsqueda del hombre en pos de ese horizonte cada vez más lejano. Comenzamos con la visión limitadísima de un trozo de Tierra plana y terminamos en un punto en que el hombre tiene ante sus ojos un Universo de 26.000.000.000 de años-luz de diámetro.
Pero tampoco hay razón para pensar que hemos topado con los últimos confines del Universo. Durante cuatro siglos la astronomía ha ido progresando a un ritmo cada vez más acelerado, y, hoy por hoy, no hay indicio alguno de que esta tendencia se vaya a quebrar. A lo largo de la última generación el hombre ha aprendido acerca del Universo mucho más que durante toda su historia anterior. ¿Qué no descubrirá, entonces, la siguiente generación?
Si convenimos en que escarbar en lo desconocido y arrojar luz sobre lo que antes era oscuro constituye un juego sumamente intrigante, entonces es seguro que el futuro nos deparará cada vez más intrigas.

Lectura recomendada


Notas al pie de página:
[1] El autor se refiere al antiguo entretenimiento de colocar en hilera las fichas de un dominó y empujar la primera para provocar la caída en cadena de todas las demás. ( N. del T.)

Notas a fin del libro:
[i] La expresión bíblica «firmamento» atestigua la antigua creencia de que el cielo era un objeto «firme», una sustancia sólida
[ii] Cierto que la Tierra no es exactamente esférica, pero la diferencia es demasiado pequeña para ser percibida a simple vista. Observada desde el espacio, la Tierra ofrece el aspecto de una esfera perfecta.
[iii] La posición del Sol en relación con las estrellas no puede observarse de un modo directo, pero lo que sí puede observarse es que las estrellas visibles a media noche difieren algo de una noche a otra. Esto significa que el Sol se desplaza lentamente entre las estrellas, ocultando cada día una parte ligeramente distinta del cielo y dejando visible de noche una porción también algo diferente. El Sol tarda 365 % días en describir de esta forma un circuito celeste completo.
[iv] La elipse es una especie de circunferencia aplastada, con dos focos. Si desde cualquier punto de la elipse se trazan dos segmentos de recta hasta sendos focos, la suma de las longitudes de ambos segmentos es siempre la misma.
[v] El paralaje del Sol no se puede medir directamente con ninguna precisión, pues ello exige trabajar con un punto fijo de la superficie o del borde solar. Ahora bien, en la superficie cegadora del Sol no hay ningún punto que pueda tomarse como fijo, con lo cual el diminuto desplazamiento que representa el paralaje de este astro (de unos 8,8 segundos ó 1/400 del de la Luna) no puede ser detectado. A pesar de su menor brillo y su reducido tamaño, los planetas permiten observaciones mucho más fáciles y precisas, siendo también más fácil detectar en ellos paralajes pequeños. La distancia del Sol se puede calcular a partir de estas observaciones con un grado de precisión mucho mayor que por cualquiera de los métodos directos.
[vi] Aunque lo que Bradley trataba de detectar era el paralaje y no la aberración, no es lícito considerar esto como un fracaso. La existencia de la aberración de la luz constituye una prueba tan válida como la que hubiera sido el paralaje estelar, en favor del movimiento de la Tierra alrededor del Sol. Si la Tierra fuese efectivamente un cuerpo inmóvil situado en el centro del Universo, no habría ni paralaje ni aberración. Cierto que por aquel entonces (siglo XVIII) la teoría geocéntrica apenas necesitaba ya más pruebas en contra, pero el descubrimiento de Bradley aportaba una más. Por otra parte, el descubrimiento de la aberración permitió a Bradley calcular la velocidad de la luz con una precisión mayor que la que se conocía hasta entonces.
[vii] Este sigue siendo el movimiento propio más grande entre las estrellas visibles a simple vista. Las seis (más o menos) estrellas en las que se ha detectado una velocidad mayor son todas tan débiles que sólo resultan visibles al telescopio; pero son débiles debido a su tamaño diminuto, no a su distancia.
[viii] Para que un tren se halle en reposo respecto a nosotros no es preciso que se encuentre absolutamente inmóvil, pues si aquél se está moviendo y nosotros nos hallamos dentro de él, participando de su movimiento, es evidente que se hallará en reposo con respecto a nosotros. Mientras el tren no acelere, decelere o tome una curva, es decir, mientras se mueva a una velocidad constante, por muy alta que ésta sea, podremos pasearnos dentro de él como si no se hallara en movimiento. Y de hecho no se encuentra en movimiento respecto a nosotros, aunque sí se mueve en relación con el paisaje circundante.
[ix] La razón de que el Sol poniente sea más rojo que el naciente, es que al final del día el aire se halla, por lo general, más cargado de polvo que al amanecer.
[x] Los gases no dispersan la luz con tanta eficacia como las partículas de polvo. El hecho de que las nebulosas dispersan la luz con facilidad, demuestra que además de gas, tienen que contener también polvo. Según los conocimientos actuales, el polvo constituye solo el 1 ó el 2% de la masa total de una nebulosa, pero ese porcentaje es suficiente para explicar los hechos.
[xi] Esto explica, incidentalmente, por qué la «meteorología» es el estudio de la atmósfera y el tiempo, y no de los meteoros. El estudio de estos últimos se denomina ahora «meteorítica».
[xii] La galaxia de Andrómeda es, en efecto, notable por ser el objeto más lejano que se puede distinguir a simple vista.
[xiii] Las galaxias se denominan a menudo por el número que ocupan en la lista del New General Catalogue of Nebulae and Clusters (Nuevo Catálogo General de Nebulosas y Cúmulos), publicado desde 1888 hasta 1908 y al cual se hace referencia utilizando la abreviatura NGC.
[xiv] Cada día es más corriente utilizar la palabra «evo» (que por lo común se usa para designar un período de tiempo de longitud indefinida) como equivalente de mil millones de años.
[xv] Este es el período de rotación en el ecuador solar. El Sol no es un cuerpo sólido ni rota en bloque como la Tierra. Los puntos al norte y al sur del ecuador giran con un período más largo. A 60° de latitud norte o sur, el período es de unos 31 días.
[xvi] El caso más fácil de determinación de la masa de una estrella se da cuando ésta forma parte de un sistema binario. Conocida la distancia que media entre el sistema y la Tierra, se puede calcular la distancia real que separa a las dos estrellas, y de ahí calcular su velocidad orbital. A partir de estos datos, y haciendo uso de la ley newtoniana de la gravitación universal, es posible determinar la masa de las estrellas. Afortunadamente, las estrellas binarias son tan numerosas que el gran volumen de datos sobre masas estelares de que disponen los astrónomos permite extraer perfectamente conclusiones de validez general.
[xvii] La relación masa-luminosidad vino a explicar la conexión que existe entre la luminosidad y el período de las variables Cefeidas. Cuanto más masiva es una Cefeida, tanto más luminosa será y más lentamente emitirá sus pulsaciones. (Una experiencia muy común es que en todos los fenómenos periódicos los objetos grandes poseen períodos más largos que los pequeños.) Por consiguiente, las Cefeidas más luminosas tendrán períodos más largos que las menos luminosas. La nueva escala del Universo, establecida por vez primera por Shapley, resulta ser una consecuencia lógica de las diferencias en las propiedades estelares, y no simplemente producto de un golpe de suerte más o menos misterioso.
[xviii] Si, por alguna razón, la estrella no consigue desprenderse de suficiente masa para que el resto quede por debajo del límite, existen todavía otras posibilidades que discutiremos más adelante..
[xix] Naturalmente, la Tierra no es exactamente esférica, por lo cual sus propiedades (la intensidad gravitatoria, por ejemplo) varían ligeramente de un punto a otro de la superficie.
[xx] El satírico Tom Lehrer ha escrito una canción muy divertida cuyo título es «Lobachevski». Quienes hayan oído y disfrutado de la canción quizá piensen que me confundo, pero lo cierto es que Lehrer utilizó el nombre del gran matemático.
[xxi] Hay casos especiales en que esto no ocurre, como, por ejemplo, cuando el primer objeto es una esfera hueca y el segundo se halla dentro de ella. Pero estos casos especiales no son importantes desde el punto de vista astronómico.
[xxii] La expresión «big bang» (Gran Estallido) se utiliza corrientemente en las obras en castellano sobre este tema. (N. del T.)
[xxiii] Se dice que Gamow eligió a estos dos colegas con cierto humor malicioso, pues los nombres de Alpher, Bethe y Gamow recuerdan a las tres primeras letras del alfabeto griego: alfa, beta y gamma. Por ello, esta teoría se denomina también a veces la «teoría a, p,7».
[xxiv] Esto en el caso de que se desplace en el vacío. Cuando la luz viaja a través de un medio transparente distinto del vacío —tal como el aire, agua o vidrio— su velocidad es menor, y en ocasiones mucho menor. Sin embargo, es imposible (cualesquiera que sean las circunstancias) conseguir reducir un fotón al estado de reposo absoluto sin que sea absorbido. Es más, en el momento en que el fotón pasa de un medio transparente al vacío, su velocidad se convierte de nuevo en 300.000 km. por segundo.
[xxv] Por otro lado, una partícula que posea masa, por muy pequeña que sea ésta, nunca podrá viajar a la velocidad de la luz. Podrá acercarse a ella mucho, pero nunca llegará a alcanzarla.
[xxvi] Se supone que la mayor parte de las estrellas poseen un campo magnético que desvía cualquier partícula de rayos cósmicos que pase cerca de ellas. Pero además se cree que la Galaxia posee también un débil campo magnético propio, que tal vez contribuya a mantener la existencia de los brazos de las galaxias espirales.
[xxvii] En 1964 se descubrió otra de las propiedades notables de la nebulosa del Cangrejo. Las mediciones que, desde globos, se hicieron aquel año en torno a la radiación de rayos cósmicos, arrojaron valores más altos cuando la nebulosa del Cangrejo se encontraba a la vista de los detectores que en el caso contrario. Suponiendo que no se trata de una coincidencia, podemos decir que, aparte del Sol, dicha nebulosa es la única fuente específica de rayos cósmicos que se conoce.
[xxviii] En ocasiones se ha observado el impacto de un meteorito sin que en el lugar de incidencia aparezca una cantidad apreciable de materia meteórica. Esto ha inducido a pensar que tal vez se trate de meteoritos compuestos de antimateria.