El Universo desbocado - Paul Davies

El Universo desbocado

Paul Davies

Prefacio

La ciencia moderna avanza con tanta rapidez que el abismo de comprensión que existe entre el especialista y el lego podría parecer insalvable. No obstante, los descubrimientos recientes realizados en las investigaciones fundamentales tienen implicaciones tan profundas para todos que es preciso hacer algún esfuerzo para explicarlos. Esta afirmación es especialmente certera con respecto a la cosmología, el estudio de la estructura y evolución del Universo en su conjunto. Todos somos productos del Universo, y nuestro futuro está inextricablemente vinculado a las fuerzas de la naturaleza que conforman nuestro entorno próximo y remoto. Los interrogantes sobre la creación del Cosmos, el desarrollo y la desintegración del orden en el Universo, y el fin del mundo han ocupado desde hace mucho tiempo un lugar destacado en el pensamiento de filósofos y teólogos. Ahora, con los inmensos avances tecnológicos del siglo XX, es mucho lo que los científicos podrán aportar a nuestra comprensión de estos temas fundamentales. Los descubrimientos realizados en los últimos años han arrojado una nueva luz, sobre la naturaleza del espacio, del tiempo y de la materia, permitiéndonos por primera vez exponer con cierta confianza un esquema bastante detallado del nacimiento, vida y muerte del Universo.

Fue mi propósito hacer de este libro sólo una sencilla descripción de los avances conseguidos en la física y la astronomía modernas, he tratado de mostrar cómo lodos los sistemas físicos, desde un ser humano hasta una galaxia, comparten la misma —y un tanto enigmática— cualidad de organización. Las leyes naturales que rigen la aparición y desaparición de la estructura y la actividad organizadas se entienden de una manera muy general, v son básicas en la física moderna. Empleando este marco general, se puede elaborar una descripción del Universo, en gran parte basada en la astrofísica convencional: los procesos que dan lugar a la formación de estrellas y planetas, el comportamiento del Sol, la explosión de supernovas, la implosión de estrellas apagadas para formar estrellas de neutrones y agujeros negros. He expuesto estos temas con bastante detalle porque muchos de ellos se entienden bien y no suscitan controversias. Sin embargo, nuestro futuro contiene más que la astrofísica, y un libro que pretende extenderse sobre la futurología cósmica no sería completo sin especular sobre el papel de la vida, la humanidad y otras posibles comunidades inteligentes. En especial, la llegada de la tecnología al Universo promete nuevas épocas de control inteligente de nuestro destino, que trasciende la astrofísica normal. En los apartados del libro referentes a estos temas, he ido más allá de las simples ciencias establecidas para exponer una visión personal del impacto que, a mi juicio, podría tener la tecnología sobre el mundo que nos rodea: exposición que tiene por objeto distraer, instruir y, sobre todo, incitar al lector a pensar.

Quisiera agradecer al Dr. D. C. Robinson y al profesor I. W. Roxburgh sus valiosos comentarios aportados sobre los temas objeto del libro así como multitud de conversaciones fructíferas; al Royal Observatory of' Edinburgh y a la Royal Astronomical Society, Burlington House, su colaboración al facilitar fotografías, y a la señora M. Woodcock el haber mecanografiado el manuscrito.

Paul Davies
King's College, Londres.

Nota sobre los términos técnicos

Al elaborar el texto, he deseado evitar que éste fuera demasiado abstracto tratando unos conceptos científicos sutiles y recónditos que son esenciales para la comprensión del tema. Siempre que me ha sido posible, he procurado emplear analogías con hechos cotidianos conocidos, si bien el lector no deberá llevar demasiado lejos tales analogías. También he tenido en cuenta las dificultades relacionadas con la terminología técnica. La utilización del término «masa» podría ser engañosa: como físico, la he empleado con el sentido aproximado de cantidad de materia; el estado de la materia (p. ej. su nivel de compresión o su densidad) carece aquí de importancia.

Por último, en lo concerniente a las temperaturas, se utiliza la escala Celsius (centígrado), salvo cuando se trata de temperaturas muy bajas, para las cuales son más adecuados los grados absolutos. En este caso se indicará de forma explícita: el cero absoluto equivale a unos ‒273°C.

Capítulo I
Descubriendo el universo

La ciencia moderna ha mostrado que la elaborada organización y actividad del mundo que nos rodea no puede haber existido siempre. Para la escala de tiempo del hombre, puede parecer que el Universo es inmutable, pero en realidad va degenerando lenta e inexorablemente. Las observaciones astronómicas permiten predecir su destino y es posible que pronto permitan determinar si, finalmente, toda la actividad cósmica irá disminuyendo hasta cesar o si, el Universo entero sufrirá un holocausto que provocará su desaparición.

Tal vez la característica más fascinante del mundo físico es que la materia y la energía no están dispuestas al azar, sino según una compleja organización jerárquica. A cualquier lugar que miremos, desde los recónditos rincones del núcleo atómico hasta las más lejanas galaxias, encontramos orden. En la misma Tierra, los sistemas biológicos, la sociedad y la tecnología humanas, la materia animada y la inanimada son ejemplos de la actividad altamente estructurada y organizada que hacen del mundo en que vivimos un lugar tan interesante y excitante. El Universo es realmente un sitio muy especial, pero, ¿de dónde procede toda esta organización? Es una cuestión que debe ser contestada antes de poder comprender su destino y la amenazante desintegración de su orden.

En los capítulos siguientes exploraremos con detalle cómo empezó y cómo evolucionó el Universo hasta su estado actual, y examinaremos los principios físicos que regulan el orden y el desorden en la naturaleza. De este análisis deduciremos que la desaparición inevitable del orden cósmico está escrita en las leyes de la física, y que para no prever este triste final habría que demostrar que dichas leves no son ciertas en su totalidad.

Durante siglos, las cuestiones de este tipo se han abordado dentro del marco de la religión y de la filosofía. En la actualidad, la ciencia juega un papel cada vez más importante en estas conjeturas y especulaciones, revolucionando el pensamiento sobre los aspectos fundamentales de la existencia.

La ciencia del Universo considerado como un todo es la cosmología. La astronomía estudia los sistemas que se encuentran más allá de la Tierra —planetas, estrellas, galaxias, etc. — pero la cosmología trata de las características generales y las propiedades sistemáticas del universo. Los cosmólogos utilizan los descubrimientos y técnicas astronómicas para obtener información sobre las regiones remotas del cosmos y construir de esta forma una imagen global de su estructura y evolución a gran escala. Las observaciones y las medidas reales son la piedra de toque de toda la ciencia y son especialmente importantes en cosmología, donde abundan los prejuicios y las opiniones se mantienen con apasionamiento. Al abordar conceptos desafiantes sobre el Universo, resulta difícil separar los hechos de las suposiciones o eliminar sesgos religiosos o filosóficos. A pesar de todo ello, en los últimos años ha habido un inmenso y espectacular progreso en la comprensión de la naturaleza del cosmos, lo que ha permitido llegar, con relativa facilidad, a un marco básico para comprender el ciclo de vida del cosmos.

El método científico ha hecho tres contribuciones importantes a la cosmología. En primer lugar, hit aportado información concreta sobre el mundo a partir de la observación y la experimentación cuidadosa. En segundo lugar, al exigir valores numéricos concretos para las cantidades medidas y que dichas medidas tengan sentido al ser interpretadas según la teoría matemática usada, ha obligado a la precisión en lo que, de otra forma, podría ser sólo una vaga colección de ideas. Y la tercera contribución —y tal vez la de máxima importancia— la teoría científica proporciona el fundamento conceptual para el estudio y la comprensión de las observaciones. Esto es especialmente importante, ya que muchos progresos científicos no se realizan al dar una respuesta a una pregunta, sino al determinar cuál es la pregunta que debe plantearse. Muchas teorías físicas modernas han mostrado que la vieja manera de mirar las cosas está mal enfocada o que incluso no tiene sentido. El marco completo de la cosmología científica está construido sobre la base conceptual de la física moderna, y la visión del cosmólogo moderno sobre la naturaleza del Universo es muy distinta de la perspectiva religiosa tradicional.

La palabra «Universo» (o «Cosmos») significa cosas distintas para gentes distintas. Para los científicos, el Universo significa la totalidad de las cosas físicas: no sólo toda la materia —en forma de planetas, estrellas, nebulosas, agujeros negros y toda la radiación como la luz, el calor, los rayos X o las ondas de gravedad, sino también todo el espacio y el tiempo, y en definitiva todo aquello físicamente relevante. Cuando hablamos del destino del Universo, nos referimos al destino de todas estas cosas, incluyendo el espacio y el tiempo. El Universo, sin embargo, posee una propiedad que no es intrínseca a su definición, aunque es un elemento clave en nuestra actitud emocional acerca de su naturaleza, y es la característica fundamental que nos importa realmente. A esta propiedad podemos darle el nombre de organización. El mundo que habitamos no es simplemente una mezcla desordenada de entidades, ni una colección de componentes físicos interaccionando al azar, sino una disposición altamente ordenada de materia y energía estructurada en distintos niveles de tamaño y complejidad. El Universo sin orden sería estéril, pero el interesante universo ordenado que observamos es activo y evoluciona. Esto es lo que queremos decir cuando hablamos del orden del mundo, y una de las grandes cuestiones que se plantea la ciencia es de dónde procede dicho orden, cómo se mantiene y si alguna vez desaparecerá.

El orden es el tema que subyace en todo este libro. Abarca sistemas tan diversos como las galaxias, los cristales y la civilización humana. El estudio científico del orden como concepto abstracto ha hecho grandes progresos durante el último siglo, y en la actualidad se comprenden satisfactoriamente los principios que controlan el crecimiento y la desintegración del orden. Cuando se combinan es tos principios con los conocimientos modernos de la astronomía y la cosmología, se puede explicar de forma comprensible la creación, la evolución y el final del Cosmos organizado que observamos hoy día. El colapso del orden del mundo está relacionado íntimamente con su creación y con los procesos que caracterizaron sus primeros momentos. Los fundamentos de las estructuras que observamos en el Universo a nuestro alrededor fueron establecidos en los primeros segundos después de su comienzo, y gran parte del libro está dedicada a los detalles de esta fase primitiva y en particular a la forma en que surgió la estructura ordenada del presente a partir del caos original.

Según nuestra experiencia, la culminación del orden del mundo se encuentra en la tecnología y la sociedad humanas. El hombre encaja dentro de la organización cósmica no sólo como un observador, sino como una parte integral de una jerarquía de complejidad en el ordenamiento de la materia y la energía. En los últimos capítulos veremos que los organismos inteligentes, la tecnología y la inteligencia artificial pueden convertirse en una fuerza que controle y reconstruya el Universo, de forma comparable a la gravedad o a la física nuclear. Pero, al estar sujetas a las mismas leyes de la física, las comunidades inteligentes —humanas o no— sucumbirán finalmente al destino que aguarda a todo el orden. La historia humana es una historia de lucha para preservar el orden en contra de la tendencia natural del mundo físico a caer en el desorden y, en cierto sentido, ésta es también la historia del Cosmos. Nuestro propio destino está inexplicablemente ligado al del universo, para el que valen las mismas leyes.

En la vida cotidiana, el ejemplo supremo de orden es la sociedad humana. Normalmente se distinguen los productos de la inteligencia humana de los productos de la naturaleza —incluso llamamos a los productos humanos «artificiales» para distinguirlos de las cosas «naturales»— pero, desde un punto de vista científico, la actividad y el comportamiento humano son sólo otro ejemplo de la actividad organizada que se encuentra en el mundo animado y en el inanimado. Una civilización super avanzada podría considerar nuestra inteligencia tan inferior que nuestros logros para modificar el planeta en que vivimos podrían ser vistos como poco diferentes de los cambios que ocurrieron en la atmósfera cuando las primeras plantas verdes aparecieron sobre la Tierra y empezaron a producir oxígeno como resultado de la fotosíntesis.

Para mucha gente, la organización cósmica se termina a unos pocos kilómetros por encima del suelo. El Universo situado más allá de este límite tiene muy poco impacto sobre la conciencia de la sociedad industrial moderna, y la gente, aunque es vagamente consciente de la existencia de las estrellas y de la insignificancia y pequeñez de la Tierra en la inmensidad del espacio, ignora la jerarquía del orden existente más allá de los estrechos confines de nuestro planeta.

La Tierra pertenece a una familia de nueve planetas que orbitan una estrella que llamamos Sol. El conjunto de estos astros recibe el nombre de Sistema Solar y, aunque es la unidad astronómica más pequeña a la que pertenecemos, su tamaño es ya demasiado grande para imaginarlo fácilmente. Con el fin de facilitar el manejo de las inmensas distancias que se utilizan en astronomía, suelen emplearse unidades de longitud muy grandes, como por ejemplo la distancia recorrida por la luz durante un segundo o un año. La luz viaja muy deprisa —a unos 300.000 kilómetros por segundo—, de forma que un segundo luz equivale a unos 300.000 kilómetros y un año luz son unos 9,4 billones de kilómetros. En estas unidades, el Sistema Solar mide unas horas luz de diámetro y la Tierra gira alrededor del Sol a unos 8 minutos luz (150 millones de kilómetros) de distancia.

Las estrellas que son visibles en el cielo nocturno son otros soles, y la aparente debilidad de su luz es debida a su extremada lejanía. La estrella más cercana, situada en la constelación de Centaurus, está a más de cuatro años luz, de distancia. A pesar de que las estrellas visibles parecen repartidas aleatoriamente por el cielo, en realidad están organizadas formando un sistema gigantesco en forma de disco. Los primitivos observadores del cielo estaban familiarizados con la ancha banda luminosa que en las noches claras puede verse extendiéndose de horizonte a horizonte. Los antiguos griegos usaban el nombre de «galaxias» para describir su apariencia lechosa, y suponían que era un camino hacia el paraíso. En el siglo XVII, el científico italiano Galileo Galilei exploró el cielo con un telescopio y examinó, entre muchos otros objetos astronómicos, esta banda lechosa de luz. A pesar de que su telescopio proporcionaba un aumento muy modesto, Galileo comprobó que la «galaxia» de los griegos estaba formada por miríadas de estrellas, demasiado numerosas y poco brillantes para ser distinguidas a simple vista. Posteriormente, los astrónomos llegaron a la conclusión de que el Sol y todas las estrellas visibles por la noche a simple vista son sólo un pequeño grupo local dentro de un enorme remolino de cien mil millones de estrellas. Este gran sistema, que ahora llamamos galaxia de la Vía Láctea, es un coloso cósmico de dimensiones inmensas, que mide unos cien mil años luz (cerca de un trillón de kilómetros) de diámetro.

Con el invento de los telescopios, los astrónomos pronto descubrieron que las estrellas no son los únicos objetos luminosos del espacio. Hay también algunas manchas luminosas de aspecto peculiar. Una de ellas se encuentra en la constelación de Andrómeda, v puede llegar a distinguirse a simple vista en una noche clara. En las cartas celestes árabes de hace varios siglos ya estaba señalado este objeto luminoso. En 1611, un astrónomo alemán llamado Simón Marius enfocó un pequeño telescopio hacia este objeto y observó el trazo delicado de una especie de nube luminosa, tenue «como una vela vista de noche a través de un cristal empañado». En los años siguientes se descubrieron con ayuda de telescopios más potentes muchos de estos objetos luminosos difuminados, aunque ninguno era tan brillante y grande como el de Andrómeda. Estos nuevos objetos eran un misterio para los astrónomos: claramente no eran estrellas, aunque algunos de ellos parecían contenerlas. Tampoco parecían estar distribuidos de ninguna forma particular respecto a la Vía Láctea.

Se inventó el nombre de «nebulosa» para designar estas manchas luminosas difuminadas, y a principios del siglo XIX el astrónomo francés Charles Messier decidió catalogarlas. La razón de su interés era más bien negativa. En aquellos días se prestaba una gran atención a la búsqueda y observación de cometas, tenues cuerpos constituidos por hielo, rocas, polvo y gas que orbitan alrededor del Sistema Solar siguiendo trayectorias erráticas y que a veces, cuando pasan cerca del Sol, desarrollan una espectacular cola luminosa que destaca en el cielo matutino o vespertino. La caza de cometas ha sido siempre una actividad favorita de los astrónomos, y en los siglos pasados se tomó muy en serio. Así pues, las nebulosas se catalogaban para que los observadores de cometas pudieran distinguir estos cuerpos estacionarios de los cometas propiamente dichos, de aspecto parecido pero móviles. A pesar de la catalogación metódica de las nebulosas, los astrónomos no se pusieron de acuerdo sobre su naturaleza hasta los años veinte; algunos opinaban que estas grandes nubes de gas estaban en los confines de la Vía Láctea, mientras que otros las situaban más allá de nuestra galaxia.

La primera información fiable que permitió empezar a descifrar el misterio de las nebulosas se obtuvo en 1924, a consecuencia de la puesta en funcionamiento del que entonces era el mayor instrumento científico del mundo: el telescopio de 254 cm. de diámetro instalado en el Monte Wilson en California. Gracias a este telescopio y al perfeccionamiento de las técnicas fotográficas, el astrónomo americano Edwin Hubble pudo observar la «nebulosa» de Andrómeda con un detalle nunca conseguido hasta entonces, y comprobó que los tenues filamentos de este objeto estaban formados por estrellas individuales. Dicho descubrimiento incrementó espectacularmente los conocimientos de la humanidad sobre el Cosmos, ya que el hecho de que la «nebulosa» de Andrómeda estuviera constituida por estrellas ordinarias probaba que estaba situada a gran distancia de nosotros. En efecto, se trata de una galaxia tan grande como la Vía Láctea, pero tan lejana que sólo con telescopios muy potentes se pueden discernir las estrellas que la componen.

Poco tiempo después se llegó a la conclusión de que muchas más «nebulosas» eran en realidad galaxias muy lejanas, siendo Andrómeda una de las más cercanas a nosotros. Cualquier duda sobre la ubicación de Andrómeda se disipó cuando Hubble consiguió medir la distancia que la separaba de nosotros, utilizando un método basado en el brillo conocido de ciertos tipos de estrellas que se podían reconocer dentro de la galaxia. Según estos cálculos, Andrómeda se encuentra a no menos de un millón y medio de años luz, unas cincuenta veces más alejada que el borde de nuestra propia galaxia. Pronto se pudieron calcular las distancias a otras galaxias: la llamada galaxia del Remolino, en la constelación de Canes Venatici, resultó estar a catorce millones de años luz de distancia, y el inmenso cúmulo de galaxias de Virgo, que contiene más de un millar de ellas, está como mínimo a cincuenta millones de años luz; pero estas son galaxias cercanas. No todas las manchas luminosas que antes de los descubrimientos de E. Hubble eran designadas con el nombre de nebulosas se ubicaron posteriormente fuera de la Vía Láctea, ya que algunas, constituidas por nubes de gas y polvo, se localizan en nuestra propia galaxia. Para este tipo de manchas se conserva el nombre de nebulosas. El interés de Andrómeda reside en que es prácticamente una galaxia gemela de la Vía Láctea. Ambas, junto con muchas otras galaxias parecidas, presentan una bella y fascinante estructura espiral, que algunos comparan a una rueda de fuegos de artificio.

En la actualidad se sabe que las galaxias, y no las estrellas, son los bloques básicos que constituyen el Universo. Las estrellas, por su parte, se agrupan en estas unidades estructurales más elevadas, que representan el nivel fundamental de la organización cosmológica. Los telescopios modernos pueden detectar varios miles de millones de galaxias, cada una de las cuales contiene cientos de miles de millones de estrellas. Se conocen algunas galaxias que están a miles de millones de años luz de distancia y sólo se ven débilmente, incluso con los telescopios más potentes. El Universo es evidentemente muy grande, mucho mayor de lo que habían pensado los antiguos astrónomos.

Algunos años después de sus primeros grandes descubrimientos, Hubble consiguió resultados más amplios que revelaron que hay una organización cósmica a una escala aún mayor que las galaxias. La primera indicación de que las galaxias están dispuestas de una forma sistemática procede del hecho de que en cualquier dirección del cielo hacia la que se apunte un telescopio, se observa la misma densidad de galaxias de un idéntico brillo. Para esta escala tan grande, la materia del universo está aparentemente distribuida uniformemente a nuestro alrededor. El origen de esta notable uniformidad tiene algo de misterioso para la cosmología y en el capítulo siguiente se describe una posible explicación. La segunda y más significativa indicación de un orden cósmico super galáctico surgió de un estudio de Hubble sobre las propiedades de la luz en las galaxias lejanas.

La luz que llega a la Tierra de los objetos astronómicos contiene una mezcla de muchas frecuencias distintas. Un instrumento llamado espectroscopio permite separar las distintas frecuencias de la luz y dirigirlas sobre una placa fotográfica. La frecuencia de la luz está relacionada con la percepción del color, de forma que la luz roja tiene la frecuencia más baja (o la longitud de onda más larga) que la luz azul. El conjunto de todos los colores, separados como en un arco iris, constituye lo que llamamos un espectro y contiene información que puede revelar una sorprendente cantidad de datos sobre los objetos astronómicos que estudiamos, como composición química, temperatura, campos magnéticos, velocidad y estado gravitatorio. Con el estudio de la luz que producen algunos objetos terrestres y el cálculo matemático que se utiliza en física atómica, los astrónomos son capaces de conocer el significado de los conjuntos de rayas que los espectroscopios separan al analizar la luz de los objetos astronómicos, porque los comparan con los conjuntos de rayas que han obtenido al analizar, con el mismo método, los átomos de los objetos terrestres. Un estudio más detallado de la posición, anchura y estructura fina de las rayas permite poseer información como la presencia de un campo magnético o la temperatura de la fuente que emite la luz. Sin embargo, desde el punto de vista de la cosmología, la propiedad más importante de los espectros resultó ser la posición de las rayas espectrales en relación a la longitud de onda. A finales de los años veinte Hubble notó que la luz de las galaxias débiles es sistemáticamente más roja que la de las galaxias brillantes, lo que constituyó un descubrimiento cuyas implicaciones cambiaron por completo varios siglos de errores conceptuales sobre la naturaleza del Universo.

Se comprende fácilmente el significado del corrimiento hacia el rojo galáctico, nombre con el que se conoce el fenómeno, por analogía con las ondas sonoras. Resulta un fenómeno familiar el que el tono de un silbato o un claxon de un tren o un coche en rápido movimiento es manifiestamente más alto cuando el vehículo se aproxima que cuando se aleja; la bajada súbita del tono cuando está pasando puede llegar a ser claramente perceptible. La explicación de este efecto es que el vehículo que se aproxima comprime las ondas sonoras delante de él, lo que provoca que la longitud de onda se acorte y que la frecuencia aumente; cuando el vehículo se aleja sucede lo contrario y las ondas se alargan. Con las ondas luminosas ocurre un efecto similar; cuando una fuente de luz como una estrella se acerca, hay corrimiento del color hacia el extremo azul del espectro, mientras que una fuente de luz que se aleja produce un corrimiento hacia el rojo.

001.jpg
Fig. 1. Alejamiento de las galaxias. Al expansionarse el Universo, las galaxias se separan unas de otras. Sin embargo, no se mueven hacia ni desde algún sitio especial. Esto se comprende imaginando una muestra de tres galaxias igualmente espaciadas, marcadas A, B y C, situadas en cualquier lugar del Universo; una podría ser la Vía Láctea. Podría simularse la expansión cosmológica estirando de forma continua la página. Desde B parecería que A y C se están alejando a igual velocidad en direcciones opuestas, apartándose de B, pero desde A la situación aparecería distinta. Un observador en A vería que él estaba en reposo, mientras que B se alejaba. Además, parecería que C está alejándose el doble de deprisa que B, hecho que ilustra la ley de Hubble de que la velocidad de alejamiento de una galaxia es proporcional a la distancia a que se halla: C está a una distancia de A doble de la de B, por lo que se aleja al doble de velocidad de B. Naturalmente, visto desde C, A se está alejando el doble de deprisa que B. Ninguna de esas galaxias se halla en el centro ni en el borde de la distribución del movimiento, y cabe imaginar otros puntos repartidos uniformemente alrededor de A, de B y de C por todo el Universo, y todos ellos afectados por el mismo movimiento de alejamiento mutuo. Por otra parte, el ritmo de expansión es el mismo en cualquier lugar, de manera que tres galaxias espaciadas con el mismo intervalo que A, B y C y situadas en un sitio cualquiera se alejarían unas de las otras a la misma velocidad. En el pasado remoto, el ritmo de expansión era mucho más rápido, para vencer la mayor gravedad existente entre las galaxias. Cuando la edad del Universo era la mitad de la actual, probablemente se estaba expansionando un 25% más deprisa que hoy. Esto significa que tres galaxias espaciadas a la misma distancia que A, B y C se estaban alejando un 25% más deprisa.

La existencia de un corrimiento hacia el rojo en la luz de las galaxias débiles sugirió inmediatamente que se estaban alejando de nosotros a gran velocidad. Este hecho, vital por sí sólo, cambió toda la perspectiva de la astronomía y la cosmología porque implicó que, a escala global, el Universo era dinámico en lugar de estático como se había supuesto previamente. Además, Hubble encontró que el alejamiento no era al azar, sino organizado en un movimiento sistemático, con una relación simple entre el brillo de las galaxias y su corrimiento hacia el rojo. Puesto que las galaxias débiles están más alejadas, esta relación establece una conexión entre la distancia de la Tierra a las galaxias y la velocidad con que se alejan. Los resultados de Hubble mostraron que estas cantidades estaban en proporción directa: las galaxias que están al doble de distancia se alejan, en promedio, al doble de velocidad. Gracias a esta relación conocida por los astrónomos como ley de Hubble, es posible deducir la disposición global del movimiento visto, no sólo desde la Tierra, sino desde cualquier punto del Universo. El ritmo de alejamiento típico entre galaxias vecinas, es el mismo en todo el Universo, de forma que, aunque nos parezca que la Tierra está en el centro del movimiento de alejamiento, no es en absoluto cierto, ya que se vería el mismo movimiento sistemático desde cualquier otra galaxia. En otras palabras, el Universo se está expansionando en todos sus puntos de una manera uniforme. El primitivo y estéril concepto de que todas las cosas son inertes e incapaces de cambiar, podía ser sustituido, gracias al descubrimiento de Hubble, por el concepto de un Universo concebido como una entidad global, dinámica y el evolución, igual que un ser vivo, con una historia de su vida y quizás un nacimiento y una muerte.

002.jpg
Fig. 2. Espectro electromagnético. Muchos tipos de radiación distintos físicamente son todos ellos ejemplos de ondas electromagnéticas que sólo difieren en tamaño (longitud de onda). La luz visible solamente ocupa, de hecho, una estrecha banda en este espectro electromagnético, en la región de longitudes de onda de alrededor de una cienmilésima de centímetro. Las ondas muy largas (mayores de un metro) corresponden a radioondas, mientras que las muy cortas (menos de una diez mil millonésima de centímetro) corresponden a los energéticos rayos γ. Entre ellas se encuentran otras radiaciones bien conocidas: rayos X, infrarrojos (calor) y ultravioleta y microondas.

Con estas premisas surgió el reto que supone la posibilidad de que la investigación científica pueda revelar la estructura anterior del Cosmos, su comportamiento general y su último destino y, además, el hecho de que sigue una evolución dinámica sujeta a las leyes de la física que conocemos gracias a los experimentos realizados en los laboratorios, permite predecir su futuro a partir de su estado en el pasado. Únicamente comprendiendo en detalle como el Universo ha cambiado en el pasado, puede determinarse su evolución futura. En los capítulos siguientes examinaremos estos cambios del pasado para ver cómo llegó el Universo a tener la estructura ordenada que observamos en la actualidad y descubrir, por lo tanto, cómo esta organización cósmica está destinada a desintegrarse y desaparecer.

Si consideramos al Universo como una unidad dinámica, es importante descubrir qué leyes físicas determinan su movimiento. Los físicos conocen cuatro fuerzas de la naturaleza que pueden actuar entre cuerpos materiales. Dos de esas fuerzas actúan sólo a distancias muy cortas, por ejemplo dentro de los núcleos atómicos, por lo que no podrán influir en el movimiento de las galaxias. Las otras dos fuerzas son de largo alcance y ambas son familiares en la vida cotidiana. La primera es el electromagnetismo, que es responsable de los fenómenos eléctricos y magnéticos, la segunda es la gravedad, la fuerza que empuja los objetos hacia el suelo y, en esencia, hacia el centro de la Tierra. La gravedad no actúa únicamente cerca de nuestro propio planeta, sino entre todos los cuerpos del universo. La gravedad de la Luna, actuando a través de la superficie de la Tierra, produce fuerzas de marea que hacen elevar y descender el nivel de los océanos a un ritmo diario, mientras que la gravedad entre la Tierra y el Sol es la causa de que la Tierra gire alrededor del Sol en vez de flotar a través del espacio interestelar.

Las fuerzas electromagnéticas pueden ser investigadas con facilidad en el laboratorio y se conoce actualmente su naturaleza. Son importantes en astronomía, ya que producen efectos importantes en el comportamiento de las estrellas y otros objetos. Por ejemplo, si vemos las estrellas es porque estas fuerzas producen radiación electromagnética, que incluye a la luz, ondas radio, calor infrarrojo, rayos ultravioleta y rayos X. Las fuerzas electromagnéticas pueden llegar a ser muy intensas y potentes, tal como demuestran los efectos de un rayo. En cambio la gravedad es por comparación extremadamente débil: la atracción eléctrica entre los constituyentes de un átomo es de unos mil sextillones de veces más intensa que la fuerza de gravedad correspondiente. Sin embargo, la gravedad es siempre una fuerza de atracción, mientras que las fuerzas electromagnéticas pueden tanto atraer como repeler, dependiendo del signo de las cargas eléctricas presentes. Por esta razón los cuerpos grandes, que en general son prácticamente neutros eléctricamente, no experimentan fuerzas electromagnéticas intensas en proporción al número de átomos que contienen. Por el contrario, la gravedad es acumulativa, de forma que, mientras es extremadamente débil entre átomos individuales, puede dominar todas las demás fuerzas en cuerpos de masa astronómica tales como la Tierra o el Sol. Para las galaxias, la gravedad es la única fuerza conocida que pueda controlar su movimiento.

La primera teoría completa sobre la gravedad fue desarrollada por Isaac Newton. Puede decirse que él, junto con Galileo Galilei, inventaron la ciencia tal como la conocemos. Nacido a mediados del siglo XVII (1642), Newton vivió en una época conflictiva, en la que el monopolio dogmático de la Iglesia sobre la ciencia se estaba desmoronando con los nuevos descubrimientos en las principales ramas del saber. Galileo ya había sido forzado bajo amenaza de tortura a retractarse de sus importantes descubrimientos astronómicos y Giordano Bruno había sido quemado en la hoguera por atreverse a cuestionar algunas ideas ortodoxas en astronomía. Toda Europa, que durante mucho tiempo había estado oprimida por el corsé intelectual del pensamiento religioso tradicional, se estaba agitando bajo el impacto desafiante de nuevas ideas. En 1543, el astrónomo polaco Nicolás Copérnico, tras un examen cuidadoso del movimiento de los planetas, publicó una tesis revolucionaria sobre la disposición astronómica del Sistema Solar. Sugirió que la Tierra no permanecía fija en el centro del universo, sino que giraba alrededor del Sol con los demás planetas, rechazando las antiguas teorías, que durante siglos habían prevalecido, sobre la posición de la humanidad en el Cosmos.

Newton, que había nacido el mismo año de la muerte de Galileo, cuando tenía poco más de veinte años había hecho ya descubrimientos trascendentales en matemáticas, física y astronomía. Eran especialmente importantes sus teorías sobre el espacio, el tiempo y el movimiento. Estas teorías las desarrolló en ecuaciones matemáticas precisas que sirvieran para relacionar conceptos como fuerza, cantidad de movimiento y aceleración de los cuerpos materiales. Las leyes de Newton sobre el movimiento son usadas aún hoy en día, tres siglos más tarde. Una fuerza que atrajo la atención de Newton fue la gravedad (estimulada, dice la leyenda, por la caída de una manzana). Con gran perspicacia postuló que la gravedad actuaba no sólo sobre la Tierra sino también entre los «cuerpos graves», como las estrellas, el Sol y los planetas. La hipótesis podía ser comprobada aplicando las leyes que descubrió al movimiento de los planetas alrededor del Sol bajo la acción de las fuerzas gravitatorias. Adivinó correctamente la fórmula matemática de esta fuerza al darse cuenta de que debía disminuir con la distancia entre los cuerpos graves y fue capaz de resolver las ecuaciones y encontrar la forma y el tamaño de las órbitas de los planetas y de la Luna. El éxito fue inmediato: las órbitas planetarias resultaron ser elípticas, con el Sol situado en uno de sus focos, exactamente tal como el astrónomo austríaco Johannes Kepler había deducido previamente a partir de las observaciones de los planetas realizadas por Tycho Brahe. Newton también consiguió calcular la relación correcta entre la velocidad del movimiento de los planetas y su distancia al Sol, así como el período correcto de la Luna. Fue un progreso brillante, que mostró por vez primera que las leyes de la ciencia descubiertas en laboratorios de la Tierra podían ser aplicadas con éxito a cuerpos graves, considerados hasta entonces como pertenecientes a un dominio puramente celestial.

Después de aplicar al Sistema Solar sus leyes del movimiento y de la gravedad, Newton se puso a investigar la estructura del Universo mediante las matemáticas. Muchos astrónomos de su tiempo creían que las estrellas no cambiaban, de naturaleza ni de posición. Esto suponía un grave problema para Newton ya que, si las estrellas estuvieran dispuestas según una distribución gigantesca rodeada por espacio vacío, la fuerza de gravedad entre las estrellas provoca ría la caída de todas ellas hacia el centro del conjunto, destruyendo de esta forma la organización cósmica observada.

En consecuencia, propuso que la distribución de las estrellas debía continuar en el espacio hasta el infinito sin disminuir su densidad, lo que implicaba, entre otras cosas, que el número de estrellas era ilimitado. El propósito de suponer un Universo infinito era que de esta forma no tenía centro ni borde, por lo que las estrellas no podían caer preferentemente hacia algún sitio en lugar de algún otro; en otras palabras, cualquier estrella era atraída igualmente en todas las direcciones por la gravedad de todas las demás, por lo que no podía experimentar fuerza neta alguna hacia ninguna dirección particular, excepto algunas perturbaciones locales. De esta forma el Universo permanecía estático.

En el siglo XVIII, como astrónomo suizo de Cheseaux y más tarde el astrónomo alemán Olbers, descubrieron una curiosa paradoja cósmica que llevó de cabeza a los científicos durante más de un siglo. La paradoja se refiere a algo tan simple y básico que a primera vista no parece merecer ninguna atención: ¿por qué el cielo es oscuro por la noche? Como tantas veces, una profunda verdad se es conde detrás de la respuesta a una observación realmente sencilla de la naturaleza. Sabemos que la luz del día es causada por el Sol, que no es visible de noche. El Sol, sin embargo, es sólo una estrella entre miles y de Cheseaux y Olbers calcularon el efecto acumulado de la luz, de todas las demás. A primera vista parece que las estrellas no pueden contribuir con mucha luz ya que están muy lejos, pero, al igual que Newton había hecho, estos astrónomos supusieron que hay un número infinito de estrellas, distribuidas por todo el espacio en todas direcciones y a todas las distancias con una densidad más o menos uniforme. Pensaron que el flujo de luz, de todas estas estrellas sería intenso, esencialmente porque cualquier visual, extendida lo suficiente en el espacio, acabaría por tocar la superficie de una estrella. Dedujeron de ello que no debería haber partes oscuras en el cielo nocturno: todas las partes del cielo deberían brillar con la intensidad del Sol, y por lo tanto la Tierra debería quedar vaporizada. Esta conclusión es también obvia si pensamos en el calor y la luz total emitidos por las estrellas durante mucho tiempo, ya que esta radiación se acumularía finalmente en los espacios entre las estrellas, calentando el universo entero hasta alcanzar la temperatura de las superficies estelares (varios miles de grados). Si, por el contrario, las estrellas estuvieran dispuestas en una parte finita rodeada por espacio vacío, el calor y la luz podría escaparse hacia el vacío y el cielo sería oscuro, pero entonces las estrellas se desmoronarían sobre ellas mismas por su propia gravedad. Por lo tanto, había de forma manifiesta algo fundamentalmente equivocado en estos modelos primitivos del Universo.

Con los inicios de la cosmología moderna y el descubrimiento de Hubble de la expansión del Universo, se resolvió la paradoja de Cheseaux-Olbers. Como las galaxias se están alejando de nosotros, su luz queda debilitada por el corrimiento hacia el rojo; las galaxias muy lejanas están alejándose tan deprisa que incluso dejan de ser visibles, ya que su luz queda fuera de la parte visible del espectro electromagnético. Por lo tanto, la luz acumulada de todas las estrellas de estas galaxias que se alejan es relativamente pequeña; demasiado pequeña, de hecho, para ser detectada como un brillo de fondo por nuestros instrumentos de mayor sensibilidad.

La expansión cosmológica produce un efecto curioso: cuanto más alejada de nosotros está una galaxia, más deprisa se aleja; las galaxias que están a varios miles de millones de años luz de nosotros parecen estar separándose de nosotros a casi la velocidad de la luz. Cuanto más lejos observamos en el espacio, más crece el corrimiento hacia el rojo, y las galaxias parecen apagarse y volverse oscuras. Cuando la velocidad de alejamiento alcanza la velocidad de la luz, no las podemos ver más, ya que no puede llegar a nosotros ninguna luz de la región más allá de donde la expansión es más rápida que la misma luz. Este límite se llama nuestro horizonte en el espacio y separa la región del Universo que podemos observar de la que está más allá, de la que no podemos tener ninguna información, por muy potentes que sean los instrumentos utilizados.

El hecho de que no podamos ver más allá de diez o veinte mil millones de años luz no significa en absoluto que el horizonte sea el «borde» del Universo, tal como explican muchos libros de divulgación. Al igual que Newton, los astrónomos modernos no creen que el Universo tenga un borde; por el contrario, siguiendo en la línea de Copérnico, consideran que la galaxia de la Vía Láctea está situada en una región como cualquier otra del Universo. Tanto si desde la Tierra, como desde el Sistema Solar, o como desde nuestra galaxia miramos el espacio a nuestro alrededor, vemos una imagen del Universo similar a la que veríamos desde cualquier otra galaxia. Las galaxias que a nosotros nos parece que se están alejando a casi la velocidad de la luz y que están cerca de nuestro horizonte están, en realidad, situadas en una región del Universo muy parecida a la nuestra. Si pudiéramos viajar hasta allá, nos encontraríamos que todas las demás galaxias también se estarían alejando de allí y que nuestra Vía Láctea estaría cerca de su «borde» u horizonte. El movimiento cósmico es, por lo tanto, completamente relativo, dependiente de la posición del observador.

La expansión cosmológica resuelve la paradoja de la luz de las estrellas sin hacer ninguna referencia a si el espacio tiene una extensión finita o infinita, o si el número de estrellas es ilimitado. El problema del desmoronamiento de las estrellas sobre ellas mismas se evita al dejar de ser el Universo estático. La expansión, sin embargo, supone un aspecto radicalmente nuevo de los fundamentos de la cosmología ya que, si las galaxias se están alejando unas de las otras, tienen que haber estado más juntas en el pasado. Al disminuir la gravedad con la distancia, es lógico pensar que en el pasado la gravedad era más intensa que ahora. Pero como la gravedad es siempre una fuerza de atracción, produce un efecto de frenado en el alejamiento de las galaxias, por lo que la velocidad de alejamiento debía ser en el pasado aún mayor de lo que es ahora. En consecuencia, el Universo no puede haber sido nunca estático en el pasado. Por otra parte, la expansión no puede haber durado desde siempre porque las galaxias estarían completamente dispersadas. Si, por lo tanto, tenemos en cuenta la inevitable atracción de la gravedad, sólo puede haber una conclusión a partir de estas observaciones, y es realmente muy profunda: el Universo no puede haber existido siempre; tiene que haber habido una creación.

La idea de una creación por acción divina está profundamente enraizada en la cultura occidental. En 1642 (el año del nacimiento de Newton) John Lightfoot, un erudito de la Universidad de Cambridge, proclamó que la fecha de la creación era el 17 de septiembre de 3928 a.C., a las 9 de la mañana (aunque no aclaraba si eran T.U. o no). Algunos años más tarde. James Ussher, arzobispo de Armagh, corrigió esta versión y fijó la fecha en el 3 de octubre de 4004 a.C., fecha que fue aceptada como el instante de la creación y enseñada por la Iglesia de Inglaterra durante más de un siglo.

La mayoría de pensadores occidentales no dudaban de que haya habido algún tipo de creación. La cuestión era ¿cuándo? El descubrimiento de fósiles en el siglo XIX y la aceptación de la teoría de la evolución de las especies de Charles Darwin indicaban que la Tierra debía tener como mínimo millones de años de edad, un punto de vista que chocaba de nuevo con el extendido pensamiento cristiano. Las más recientes técnicas de datación geológica, especialmente aquellas que miden la composición radiactiva de las rocas, son capaces de proporcionar una fecha bastante precisa para la formación de la Tierra, aproximadamente hace 4500 millones de años. La teoría de la estructura estelar proporciona también una cifra de varios miles de millones de años.

Cuando Hubble descubrió la expansión del Universo, fue posible descubrir científicamente lo que el arzobispo Ussher había intentado teológicamente: la fecha de creación del Universo. Esta puede deducirse simplemente a partir de la medida del ritmo de expansión actual del Universo y su extrapolación hacia el pasado, teniendo en cuenta la aceleración producida por la gravedad. La edad obtenida está entre los diez y los veinte mil millones de años y, puesto que es comparable con la edad de la Tierra, del Sol y de las estrellas, calculadas por técnicas totalmente independientes, tenemos una confirmación notable de que nuestro conocimiento de la cosmología va por buen camino.

Si realmente hubo una creación hace unos quince mil millones de años, lo que sucedió realmente en aquella época excita una curiosidad intensa. El descubrimiento de Hubble fue sobrepasado por una nueva teoría de la gravedad que permitió considerar la creación y la expansión bajo una nueva perspectiva. Albert Einstein, cuyo genio fue comparable al del mismo Newton, publicó en 1906 una nueva teoría del espacio, del tiempo y del movimiento, llamada teoría de la relatividad. Más tarde, en 1915, amplió la teoría para incluir la gravedad, conociéndose como teoría general de la relatividad. En estas teorías Einstein unificó el espacio y el tiempo en una sola entidad llamada espacio-tiempo, con propiedades que producen efectos curiosos e insólitos, algunos de los cuales se discutirán en los capítulos siguientes. La gravedad, en lugar de ser considerada como una fuerza, es atribuida, en la teoría de la relatividad, a la estructura geométrica del espacio-tiempo. La presencia de un cuerpo gravitante curva el espacio-tiempo de su entorno y es esta curvatura, en vez de alguna fuerza o acción debida al mismo cuerpo, lo que perturba las trayectorias de los demás cuerpos al moverse por el espacio que lo rodea.

De hecho, puede considerarse al espacio-tiempo como elástico. No sólo puede ser doblado o curvado por un cuerpo masivo, sino que también puede ser torcido o estirado como si fuera de goma. Algunos físicos creen incluso que si se tuerce o estira con demasiada violencia el espacio y el tiempo pueden separarse súbitamente. El tiempo elástico puede producir efectos extraños, como la posibilidad de viajar hacia el futuro lejano, o el aparente cese de toda actividad durante un colapso gravitatorio. El espacio elástico puede usarse para explicar la expansión del Universo como un alargamiento de la estructura misma del espacio. Para ayudar a visualizar esta idea extraña, es útil pensar en una analogía donde el espacio, en lugar de ser tridimensional, se representa mediante una hoja bidimensional o superficie, tal como la de un globo esférico. La superficie del globo representa el Universo, y está cubierto de puntos que representan las galaxias. Es importante recordar que ni el volumen interior al globo, ni la región fuera de él, son parte del Universo; únicamente la misma membrana de goma representa el espacio. Igual que el espacio real, la superficie de goma está curvada y, si hinchamos el globo, la membrana se estira o expansiona de la misma forma que lo hace el Universo.

003.jpg
Fig. 3. La expansión del espacio, (a) La idea de un Universo en expansión uniforme se puede representar mediante la analogía del globo. Cuando éste se hincha, la membrana del globo se estira, lo que provoca que cualquier punto se separe de todos los demás. Aunque la distribución de los puntos no tiene centro ni borde, el movimiento de conjunto visto desde un punto cualquiera, por ejemplo el marcado con A, es una expansión centrada en ese punto, mientras que los más apartados, como el C, se alejan más deprisa que los próximos, como el B. El comportamiento sistemático es similar al descubierto por Hubble para las galaxias. Hay que destaca que este modelo del Universo tiene una extensión finita, cosa que podría ser también cierta para el Universo real, (b) Esta imagen ilustra una visión muy común, pero errónea, del Universo en expansión, con las galaxias explotando, a partir de una aglomeración inicial, hacia el vacío preexistente de fuera. Este modelo tiene un centro y un borde, de forma de las galaxias (los puntos) no están distribuidos uniformemente en el espacio. Las observaciones astronómicas muestran que la configuración

En este modelo queda claro que el Universo no tiene centro ni borde: no es una bola de galaxias explotando hacia fuera desde un centro común, mientras que sus regiones exteriores están alejándose hacia el espacio vacío de más allá. Por el contrario, las galaxias están distribuidas por todo el espacio con una densidad uniforme. Además, el mismo espacio tiene obviamente un tamaño finito, ya que se podría viajar en línea recta alrededor del «globo» y volver a nuestro punto de partida. El Universo real puede tener un tamaño finito o no; si no es así, una analogía mejor que la del globo sería una hoja infinita de goma, cubierta con un número infinito de puntos. Cuando se estira la goma, cada punto se separa de cualquier otro punto, pero ninguno tiene el estatus especial de estar en el centro de la distribución.

Podemos usar esta analogía para comprender la naturaleza de la creación. Si retrocediéramos en el tiempo, la situación del Universo correspondería a un globo cada vez más deshinchado. Al revés de la goma, el espacio es más fácil de estirar cuando se expansiona; por consiguiente, cuando estaba muy reducido, se comprimía con mayor vigor, razón por la que las galaxias tenían que alejarse aún más deprisa en el pasado para escapar de la gravedad que trataba de frenar la expansión. Si nos imaginamos el globo cada vez más reducido, se llegaría a un punto en que simplemente desaparecería y dejaría de existir. Esta sería la creación vista por la ciencia moderna: no la súbita aparición de materia en un vacío preexistente, sino la creación también del espacio y el tiempo. De acuerdo con esta imagen, el espacio y el tiempo existieron sólo a partir de un cierto momento en el pasado, hace unos quince mil millones de años; es decir, hay un extremo temporal o límite del Universo en un pasado finito. No sólo se creó el contenido material del Universo, sino que se creó todo, incluyendo el espacio-tiempo. La existencia misma, por lo tanto, empezó hace quince mil millones de años.

Mucha gente siente desconcierto frente a ideas como la expansión del espacio o la aparición del espacio-tiempo de la nada y se vuelve escéptica. En el lenguaje ordinario, se identifica el espacio con el vacío o la nada, la ausencia de cosas. La idea del espacio cambiando de tamaño o forma, o contrayéndose hasta reducirse a la nada, no es fácilmente comprensible. Sin embargo, los científicos no contemplan el espacio de la misma forma, ya que son conscientes de las propiedades especiales que posee: por ejemplo, las reglas de la geometría escolar proporcionan relaciones entre distancias y ángulos en el espacio que pueden ser o no ser ciertas en el mundo real. Puede decirse que el espacio cambia, porque estas propiedades geométricas cambian con el tiempo. A pesar de lo que se enseña en la escuela, la geometría no es algo que sea correcto en un sentido absoluto; puede variar de un sitio a otro y de una época a otra. La única razón por la que la geometría escolar parece funcionar bien en la Tierra es porque la gravedad es lo suficientemente débil para no alterar demasiado las reglas habituales. Sin embargo, en los primeros momentos después de la creación, la gravedad de toda la materia del Universo fue tan intensa que las propiedades geométricas del espacio-tiempo fueron también muy peculiares.

La gente normalmente encuentra difícil entender la idea de la expansión del espacio porque parece no haber nada dentro de lo que se puede expansionar. La superficie del globo tiene todo el volumen que lo rodea para moverse en él, pero el espacio mismo ya es tridimensional. Este problema desaparece si se considera la expansión más bien como un cambio de escala, o una dilatación continua de todas las distancias. Cada año el volumen de cualquier región del espacio se incrementa en una pequeña fracción. El espacio, en realidad, no se está desparramando en ningún «superespacio» de más dimensiones, sino que está simplemente cambiando su patrón de longitud. La Tierra o la galaxia no participan en este alargamiento cosmológico, por lo que podemos apreciar las distancias en expansión a través del espacio por comparación con estos objetos. El alargamiento del espacio, sin embargo, alarga las ondas de luz que lo atraviesan, provocando el incremento de su longitud de onda y el enrojecimiento de su color. Es el desplazamiento hacia el rojo descubierto por Hubble, enrojecimiento que debería interpretarse más bien como un efecto de escala que como algo causado por el movimiento de la fuente de luz. En otras palabras, las galaxias no están huyendo precipitadamente desde un centro común; están es reposo en un espacio en expansión.

Si retrocediéramos en el tiempo hasta el instante de la creación, todo el Universo observable aparecería comprimido en un volumen cada vez más pequeño hasta que, en el primer momento, la densidad de materia fuera infinita, con el Universo entero que hoy observamos reducido tal vez al tamaño de un punto. ¿Cuál fue la causa de que el Universo estallara e iniciara una fase de rápida expansión, con una densidad enorme, en un momento dado? Las cuestiones de este tipo son casi imposibles de responder y probablemente no tienen sentido. Si el tiempo existe sólo después de la creación, las nociones como causa, efecto y «momento particular» pierden su significado cuando se aplican a la creación. El lenguaje utilizado para expresar estas ideas ha penetrado en muchos ambientes, fundamentalmente los conceptos de espacio y tiempo y tiende a tener connotaciones filosóficas o incluso religiosas. Tal vez es esperar demasiado de la ciencia que proporcione respuestas claras a estas preguntas.

La afirmación de que el Universo no existía hace una cantidad finita de tiempo es provocativa y no puede dejarse sólo en manos de la especulación científica. Sugiere la alarmante perspectiva de que el Universo puede desaparecer de nuevo en algún momento del futuro y, por lo tanto, es especialmente importante obtener una evidencia fundamentada de que hubo realmente una creación. Nunca podemos esperar verificar mediante la observación el primer momento en sí, pero podemos esperar que sean detectables hoy en día algunos vestigios de la fase primitiva que siguió a la creación.

En 1965 dos expertos electrónicos americanos. Arno Penzias y Robert Wilson, estaban trabajando para la compañía Bell Telephone sobre sistemas de comunicaciones para satélites artificiales cuando descubrieron accidentalmente lo que podría considerarse como el mayor de todos los descubrimientos científicos, el calor original de la creación. Estaban investigando metódicamente las diversas fuentes de interferencias de radio en longitudes de onda muy cortas, para poder eliminar estas perturbaciones. Identificaron varias fuentes, ruidos parásitos de la radio en la alta atmósfera, interferencias en el equipo amplificador, etc., pero había una fuente de interferencias perturbadora de origen desconocido, una radiación de fondo de microondas que ninguna fuente conocida podía explicar.

Curiosamente, mientras Penzias y Wilson estaban batallando con el problema, un grupo de científicos de la Universidad de Princeton estaban ocupados diseñando un receptor de radio para buscar precisamente una radiación de fondo, aunque el equipo de Princeton ya sabía lo que era: la radiación residual de la exploración original de hace quince mil millones de años, que llega hasta nosotros del espacio muy lejano a quince mil millones de años luz de distancia, más alejado que cualquier galaxia. El descubrimiento accidental y simultáneo de Penzias y Wilson transformó la idea de la creación, que pasó, de ser sólo especulación científica plausible, a ser una completa teoría cosmológica. Abrió la posibilidad de investigar cómo el Universo alcanzó su estructura y organización actuales y de calcular si ha empezado ya su primer paso hacia el desastre y la catástrofe cósmica.

Capítulo II
El fuego original

Sólo puede entenderse el colapso de la organización cósmica con un conocimiento básico de cómo surgió dicha organización y cómo se mantiene. En los últimos años la mayoría de científicos ha acabado por aceptar que el estado ordenado actual del Universo, con su disposición compleja de materia y energía, sus galaxias y cúmulos de estrellas, sus cuerpos planetarios y la vida, no pueden haber existido desde siempre. Hubo un tiempo en el pasado en que el Universo era muy distinto de ahora. Tal como se dijo en el capítulo anterior, muchos cosmólogos creen que el Universo no existió siempre. Tanto si es así como si no, hay evidencias fundamentadas de que hace diez o veinte mil millones de años el Universo se encontraba en una fase de caos original estallando en una gran explosión o «big bang»[1] a partir de un estado altamente condensado. El estudio de esta violenta explosión en una época tan remota es, sin lugar a dudas, una de las más excitantes aventuras intelectuales de la ciencia moderna.

Se puede tener información sobre las condiciones físicas del Universo primitivo por dos caminos: la construcción de modelos matemáticos y la búsqueda de vestigios cosmológicos. Como ocurre con todos los modelos matemáticos, la descripción científica del Universo primitivo sólo se hace a grandes rasgos, y debe ser interpretada con cautela. Algunos cosmólogos rechazan la idea del big bang apoyándose en premisas científicas o filosóficas, aunque haya sido aceptada mayoritariamente como una hipótesis de trabajo. Por lo menos proporciona un marco básico para ordenar los datos que hoy día podemos utilizar.

La ventaja de poseer un modelo matemático detallado del Universo primitivo nos permite introducir algunas pautas de precisión en lo que, de otra forma, sería un tema muy especulativo. Utilizando el modelo como una herramienta práctica, pueden realizarse cálculos en profundidad de los procesos detallados que ocurrieron en la materia primitiva, lo que proporciona respuestas precisas a algunas cuestiones fascinantes acerca de los primeros segundos del Universo. Naturalmente, hay que proporcionar algunos datos de entrada al modelo, tales como las leyes de la física que gobiernan la materia bajo las condiciones extremas que prevalecían durante esta época tan lejana. A pesar de que algunas de estas leyes no se comprenden aún por completo, el marco del big bang está firmemente establecido como hecho científico y no es sólo una especulación. Los fundamentos físicos del modelo pueden verificarse comparando los datos proporcionados por los cálculos matemáticos con las observaciones astronómicas.

El segundo método de investigación consiste en la búsqueda de vestigios del Universo original. Al igual que en historia o paleontología los restos fósiles son la fuente principal de conocimiento sobre el pasado. La tarea del investigador se simplifica con la comprensión de los procesos físicos que tuvieron lugar durante la gran explosión. El estudio de los modelos matemáticos sugiere que algunos vestigios del big bang pueden haber sobrevivido desde la creación hasta nuestros días. Estos restos «fósiles» son una importante fuente de información y se describirán en este capítulo. Las limitaciones tecnológicas impiden por ahora una verificación minuciosa de algunos de los más excitantes vestigios predichos por las teorías aceptadas mayoritariamente, como los procedentes de los primerísimos instantes. Sin embargo, se conocen restos procedentes de sólo unos pocos minutos después de la creación.

El método más directo de búsqueda en la prehistoria cósmica se basa en la peculiar naturaleza de la luz, que tiene una velocidad determinada. Aunque la luz, que viaja a 300.000 kilómetros por segundo, es el portador de información más rápido, las distancias astronómicas son tan grandes que la luz puede tardar muchos millones, o incluso miles de millones, de años en viajar entre las galaxias. Por esta razón no vemos estas galaxias tal como son ahora, sino tal como eran en el pasado remoto. Por ejemplo, la cercana galaxia de Andrómeda se manifiesta ante un observador situado sobre la Tierra, con el aspecto que tenía hace aproximadamente un millón y medio de años. Se conocen objetos celestes situados a tan grandes distancias que la luz detectada actualmente por nuestros telescopios fue emitida incluso antes de que la Tierra existiera. Puede dar una idea de la escala de distancias el hecho de que la luz sólo tarda unos ocho minutos en cruzar los ciento cincuenta millones de kilómetros que separan al Sol de la Tierra.

La utilización del telescopio como «tiemposcopio» permite a los astrónomos observar directamente el estado del Universo en el pasado remoto. Por desgracia, cuanto más hacia los primeros momentos del origen del Universo exploran los instrumentos, más débiles son los objetos a estudiar, debido a sus grandes distancias. Esto significa que sólo los equipos potentes y caros permiten obtener información detallada acerca de estas épocas primitivas. Además, el desplazamiento hacia el rojo de la luz, descubierto por Hubble, es muy importante en esas regiones remotas. En realidad es imposible ver absolutamente nada de los primeros momentos ya que su radiación luminosa está completamente fuera del espectro visible. Por ejemplo, la luz que fue emitida unos 100.000 años después de la creación se ha desplazado tanto hacia el rojo que en la actualidad se ha convertido en radiación infrarroja. Desgraciadamente es imposible detectar directamente radiación electromagnética de épocas anteriores a los 100.000 años. La razón estriba en las condiciones físicas de la materia antes de aquel momento. A causa de la expansión cosmológica la densidad de materia en el Universo está disminuyendo continuamente a un ritmo que actualmente es de uno por ciento cada cien millones de años. Hace unos diez o veinte mil millones de años la densidad era tan elevada que la materia cosmológica no estaba distribuida en galaxias separadas por espacio vacío como ahora, sino que estaba constituida por un fluido más o menos uniforme, diseminado por todo el espacio. Este fluido estaba muy caliente: como todos los gases, la materia cosmológica se enfría al expansionarse, por lo que estaba más caliente en el pasado que en el presente. Los cálculos indican que 100.000 años después del big bang la temperatura del fluido era de varios miles de grados.

A esta temperatura la materia no puede existir en las formas habituales de sólido, líquido o gas. Su estado es lo que los físicos llaman un plasma. En un plasma los átomos están disociados en partículas cargadas eléctricamente. Esto ocurre porque, a varios miles de grados, los átomos se mueven tan deprisa que las colisiones fortuitas son lo suficientemente fuertes para arrancarles partículas, en un proceso llamado ionización. Los plasmas pueden fabricarse sin problemas y estudiarse en el laboratorio, proporcionando importante información sobre las condiciones reinantes durante los primeros 100.000 años del Universo. Una propiedad importante de los plasmas es su alta opacidad. Mientras que la mayoría de los gases ordinarios son transparentes a la luz, un gas ionizado absorbe y dispersa intensamente la luz. El Universo, durante la era del plasma, estaba cubierto por una especie de niebla luminosa, impidiendo la observación visual directa.

La era del plasma es lo que debemos investigar para explicar la característica más fundamental de la organización cósmica: la distribución de la materia entre los distintos elementos químicos. Este es el factor esencial que determina la constitución de la organización cósmica en sus formas más importantes y que establece también la futura desintegración de dicha organización y con ella, el fin del Universo tal como lo conocemos.

Los científicos se han enfrentado durante largo tiempo con el enigma de la procedencia de los distintos elementos químicos (tipos de átomos) y de las diferentes cantidades de partículas que contienen. Durante mucho tiempo se supuso que todas las sustancias estaban compuestas por cuatro elementos básicos: tierra, aire, fuego y agua. Con el progreso de los estudios químicos se puso de manifiesto que la gran variedad y formas de la materia exigían la existencia de muchos más elementos que los cuatro tradicionales. La teoría atómica de la materia reveló las propiedades de las sustancias materiales al suponer que toda la materia estaba compuesta por combinaciones de los mismos átomos básicos. Estas combinaciones de átomos se llamaron moléculas. Se descubrieron también gradualmente las relaciones sistemáticas entre los distintos elementos químicos, hasta que, hace unos cien años, el químico ruso Dimitri Mendeleev publicó su famosa tabla periódica, situando todos los elementos conocidos en una disposición que ponía de manifiesto las semejanzas cualitativas entre varios tipos de átomos.

Durante la primera parte del siglo XX se llegó a comprender la estructura interna de los átomos. El descubrimiento más importante fue que las fuerzas que operaban entre y dentro de los átomos eran de naturaleza electromagnética. Las diferencias cualitativas entre los elementos, tales como su peso o sus propiedades químicas, se explicaron mediante las distintas cantidades de partículas eléctricas que poseían sus átomos. La disposición interna de esas partículas fue deducida por el físico neozelandés Lord Rutherford, basándose en experimentos de dispersión llevados a cabo con emisiones radiactivas. Rutherford probó que la mayoría de la masa del átomo residía en un cuerpo compacto situado en su centro, llamado núcleo, que contenía las partículas pesadas, cargadas positivamente, conocidas como protones. Más tarde se descubrió que el núcleo contenía también partículas neutras eléctricamente, llamadas neutrones, que tenían aproximadamente la misma masa que los protones, pero no poseían carga eléctrica. Puesto que los átomos en condiciones normales eran eléctricamente neutros, debían de existir también cargas negativas. De esta manera se descubrió una especie de nube de partículas ligeras, llamadas electrones, que rodeaban el núcleo, girando alrededor de él a gran velocidad.

Un átomo entero es muchas miles de veces mayor que su núcleo. Un átomo típico tiene alrededor de un nanómetro (10‒9 m) de tamaño, con un núcleo que mide sólo una cienmilésima de nanómetro (10‒14 m). El átomo más simple es el de hidrógeno, que contiene sólo un protón y un electrón. Un plasma de hidrógeno ionizado, por lo tanto, consiste en una simple mezcla de protones y electrones moviéndose caóticamente. El elemento siguiente es el helio, que contiene un núcleo con dos protones y dos neutrones, con dos electrones girando a su alrededor. Como el 99,9% de la masa reside en el núcleo, el átomo de helio es unas cuatro veces más pesado que el átomo de hidrógeno. Todos los tipos conocidos de elementos químicos pueden describirse siguiendo el mismo camino: el carbono, por ejemplo, posee seis protones, seis o siete neutrones y seis electrones.

Una propiedad importante de este esquema es que los átomos más pesados son los más complejos. La disposición pormenorizada de la nube de electrones en un átomo pesado, que puede contener docenas de ellos, es muy complicada. Sin embargo, existe una cierta organización sistemática: los electrones tienden a apilarse alrededor del núcleo en capas, impidiendo la entrada de electrones extraños del exterior. A causa de esta propiedad de exclusión, las interacciones entre átomos distintos sólo involucran a los electrones residuales que están situados fuera de las capas más internas y por lo tanto más llenas. Por esta razón ciertos grupos de átomos con una estructura de capas similar y el mismo número de electrones residuales tienen propiedades parecidas. Las reacciones químicas ocurren cuando los electrones residuales se redistribuyen alrededor de dos o más átomos. De esta forma los átomos pueden adherirse entre ellos, formando moléculas, a causa de las atracciones eléctricas producidas por la redistribución de partículas cargadas. Evidentemente, las propiedades químicas de un átomo vienen determinadas por el número de electrones que posee, que viene fijado a su vez por el número de protones del núcleo. El hecho que debe ser explicado es porque algunos tipos de átomos, como por ejemplo el oro, son poco frecuentes, mientras que otros, como el hierro son extraordinariamente abundantes.

Desde hace varios años se sabía que en la Tierra existen noventa y seis elementos naturales. Van desde el hidrógeno, la sustancia más ligera con los átomos más simples, hasta el uranio, cuyos átomos contienen noventa y dos protones y de 135 a 148 neutrones. Los átomos de uranio son por lo tanto muy pesados y muy complejos. Todos los elementos con más de ochenta y dos protones son inestables y tienden a desintegrarse en sustancias más simples. Es el fenómeno de la radiactividad. La poca abundancia de elementos transuránicos naturales es debido a su inestabilidad. En los laboratorios se han fabricado átomos superpesados, pero para todos ellos su vida media (frente a la desintegración radiactiva) es más corta que la edad de la Tierra, por lo que no debe esperarse que se encuentren en la Tierra con abundancia.

Era también un hecho conocido desde hacía tiempo que la abundancia relativa de algunos elementos naturales en la Tierra no era la misma que la del resto del Universo. Por otro lado, parecía que era una tarea muy difícil poder analizar la composición química de los objetos del Universo, especialmente las estrellas. Para poder solucionar este problema se utilizó un método muy sencillo. Todos los átomos tienen unas características propias que permiten distinguirlos. Los átomos pueden emitir o absorber luz mediante la reordenación de sus electrones, normalmente a través del salto de un solo electrón a un nivel orbital más o menos, energético. Debido a propiedades muy fundamentales conectadas con la teoría cuántica (discutidas brevemente cerca del final de este capítulo), los niveles de energía tienen siempre unos valores característicos, lo cual significa que cuando un electrón cambia de órbita energética, se emite o se absorbe la luz en pulsos con una energía y longitud de onda (color) particulares, análogamente a las huellas digitales. Por ello aunque esté muy lejos un objeto luminoso, si se detecta un conjunto de colores determinado, queda demostrada la presencia de un tipo concreto de átomo en la fuente. Exactamente igual como sucede con un gas caliente, que debido a las violentas colisiones que se producen en su interior, se excitan continuamente los electrones y, cuando ocurre la desexcitación, el gas radia energía en unas frecuencias precisas. La mayoría de la gente está familiarizada con este fenómeno en las lámparas fluorescentes: el gas sodio emite una luz azul verdosa y el neón una luz naranja.

Tal como se ha explicado anteriormente, puede usarse un espectroscopio para analizar el tipo de color de la luz con gran detalle, y esto ha permitido a los astrónomos saber de qué están compuestas las estrellas. El elemento helio, como indica su nombre, fue descubierto primero en el Sol antes de ser detectado en la Tierra. Análisis de este tipo han revelado que la mayor parte de la materia del Universo está compuesta por hidrógeno, la sustancia más simple, mientras que casi todo el resto (aproximadamente un 7%) es helio. La Tierra, con sus grandes cantidades de hierro, níquel, oxígeno, cobre, etc, es en realidad una pequeña mancha de contaminación, una concentración, en un lugar determinado, de sustancias poco comunes a las que predominan en el resto del Cosmos.

La explicación de estas notables diferencias y, en particular, la razón por la que la mayor parte del Universo está compuesto por los átomos más simples, hidrógeno y helio, ha sido un gran desafío para los científicos. En 1946 el físico George Gamow publicó una teoría muy sugestiva en un intento de explicar estos hechos. La idea central de la teoría era que los átomos grandes y complejos se habían formado por síntesis a partir de los más ligeros. Por ejemplo, un átomo de carbono, con seis protones, podría haberse formado a partir de la unión de tres núcleos de helio. Esta deducción insinuaba que el Universo empezó precisamente con las sustancias más simples, protones, neutrones y electrones en forma disociada y que los núcleos se fueron formando de alguna manera a partir de esta materia prima. Donde quiera que se haya realizado este proceso, no ha llegado muy lejos, porque la mayor parte de la materia continúa en forma de los átomos más simples.

Gamow se enfrentó con dos problemas, el de explicar por qué el Universo empezó sin ningún núcleo estructurado en el primer momento y cómo se inició la génesis de los núcleos complejos. Su trabajo, y los cálculos posteriores de C. Hyashi, R. V. Wagoner, W. A. Fowler y F. Hoyle, proporcionaron una respuesta convincente a esas preguntas. Su tesis se basó en que el Universo comenzó estando intensamente caliente, tan caliente que los núcleos no habrían podido resistir las enormes temperaturas. La imagen de un infierno caliente y altamente comprimido en expansión explosiva tras el big bang es actualmente un modelo familiar y popular del Universo primitivo. Las referencias a esta fase naciente usan normalmente las palabras «bola de fuego original», aunque producen la impresión errónea de que la materia cosmológica estaba concentrada en una bola rodeada por el vacío. Esto no es correcto. La cosmología moderna supone que el fluido llenaba siempre todo el espacio. Sólo cambiaba la densidad al irse expansionando el Universo.

Se han utilizado computadoras para calcular los detalles de los procesos nucleares que sufrió la materia primordial y también para contar las cantidades proporcionales de los diferentes elementos que se originaron durante estos procesos. Estos cálculos son extraordinariamente complicados porque hay que ajustar los detalles de muchas reacciones nucleares en un modelo matemático, variando varios parámetros físicos. Sin embargo, los resultados proporcionan una válida reconstrucción de las etapas primitivas del fuego original y explican a grandes rasgos cómo ocurrió la nucleogénesis.

La fase crucial empezó alrededor de un segundo después de empezar el big bang, momento en que la temperatura era de unos diez mil millones de grados y la densidad de materia unas diez mil veces la del agua. A temperaturas tan altas ocurren fenómenos extraños e importantes. De acuerdo con la teoría de la relatividad de Einstein, la energía y la materia son intercambiables, de forma que el calor, que es una forma de energía, puede crear materia si las condiciones son lo bastante extremas. Siempre que se crea materia de esta forma, aparece una cantidad igual de antimateria. La antimateria es, de forma sencilla, una imagen refleja de la materia: por ejemplo, el antiprotón es una partícula con la misma masa que un protón, pero con una carga eléctrica negativa en lugar de positiva. Cuando un protón y un antiprotón se encuentran, se aniquilan mutuamente en una explosión de energía. La antimateria se fabrica y estudia con frecuencia en el laboratorio, por lo que se conocen con gran precisión las propiedades de la antimateria primordial. Antes de aproximadamente un microsegundo (millonésima de segundo) el Universo contenía aproximadamente la misma cantidad de materia y de antimateria y entonces, cuando la temperatura bajó de un billón de grados a unos diez mil millones de grados, toda la antimateria se aniquiló con la mayor parte de la materia, dejando sólo una pequeña cantidad residual de materia que vemos hoy en día. Esta aniquilación produjo una cantidad muy grande de fotones («partículas» de luz), de forma que hoy día el Universo contiene mil millones de veces más fotones que todas las partículas de materia juntas. Esos fotones son los restos de toda la antimateria primordial.

La presencia de antimateria antes de los primeros segundos jugó un papel importante en determinar la cantidad de helio en el Universo. Los cálculos muestran que la proporción entre neutrones y protones quedó determinada por varios procesos en los que intervinieron antielectrones (o positrones, tal como se les llama) y que en los primeros segundos esta proporción giró alrededor de un 15%. En aquel instante los positrones desaparecieron súbitamente, quedando esta proporción más o menos constante durante varios minutos. Fue durante estos pocos minutos siguientes que tuvo lugar la nucleogénesis vital. Una vez la temperatura bajó por debajo de los mil millones de grados, la materia cosmológica estaba lo suficientemente fría para que los neutrones y los protones empezaran a combinarse sin ser separados inmediatamente por los impactos de alta energía. De acuerdo con el análisis matemático, casi todos los neutrones se combinaron con protones para formar helio, quedando libres los restantes protones, para formar hidrógeno. La razón por la que casi no se formaron núcleos atómicos más complejos es simple: la temperatura y la densidad disminuyeron tan rápidamente que no hubo tiempo para que tuvieran lugar reacciones de síntesis más complicadas en cantidad apreciable.

Después de algunos minutos la temperatura había bajado hasta unos pocos millones de grados, demasiada baja para que pudieran tener lugar los procesos nucleares. A esta temperatura el horno nuclear primordial se apagó. Los resultados de los cálculos por computadora muestran que alrededor de un 7% de los átomos que finalizaron por estabilizarse fueran de helio y casi todo el resto de hidrógeno, lo cual es notablemente consistente con las grandes cantidades de estos elementos que se pueden detectar en el Cosmos, proporcionando estas observaciones una indicación gratificación gratificadora de que los puntos esenciales de un big bang caliente son correctos. Los cosmólogos consideran al helio primordial como uno de los más importantes vestigios fósiles del fuego original. Lo que la nucleosíntesis original no explica, sin embargo, es la existencia de núcleos más complejos que el helio. Su origen está implicado con otra parte importante de la astrofísica, que se describirá más adelante.

Si el helio primordial fuera el único vestigio, el big bang no habría conseguido tanta aceptación popular entre los científicos. Afortunadamente, hay otro vestigio más decisivo de la era del plasma: el calor primordial. La enorme cantidad de radiación de calor presente en la bola de fuego se fue enfriando lentamente al expansionarse el Universo. Al acabarse la acción nuclear, la temperatura del plasma se fue enfriando durante miles de años y fue descendiendo hasta unos pocos miles de grados (alrededor de la temperatura de la superficie del Sol) y los electrones libres del plasma se combinaron con los núcleos de hidrógeno y helio formando átomos. Cuando sucedió esto, se aclaró la «niebla» cosmológica; el gas se volvió transparente permitiendo a la enorme cantidad de radiación luminosa pasar a través de la materia sin obstáculos. La expansión continuada enfrió la radiación hasta un brillo insignificante, llenando todo el espacio. Se supone que este brillo es la radiación descubierta por Penzias y Wilson en 1965 cuando estaban experimentando con comunicaciones por satélites. Es el último resto debilitado del horno primordial de hace diez mil millones de años. La temperatura ha caído actualmente a valores muy bajos, sólo tres grados por encima del cero absoluto, un testimonio inofensivo del fiero nacimiento del Universo.

Los restos fósiles de la era del plasma, aunque son impresionantes, no han bastado para satisfacer la curiosidad de los científicos y, en los últimos años, se ha prestado mucha atención a las otras eras que preceden a la era del plasma. Si las líneas generales del big bang caliente son correctas, justo en los primeros momentos después de la creación deben haber ocurrido muchos procesos extraños, algunos de los cuales pueden haber dejado trazas detectables hoy día. Es importante determinar qué trazas serían e intentar comprobarlo, o al menos verificar que no son incompatibles con los datos cósmicos conocidos. Sólo puede explicarse la estructura actual del Universo y predecirse su futuro a partir de una comprensión completa de aquellos primeros instantes. Además veremos que el Universo puede muy bien volver de nuevo a un estado de bola de fuego. El destino del Universo depende entonces de los procesos que realmente ocurrieron en los primeros momentos del big bang.

A veces resulta confusa la terminología usada para designar las épocas primitivas. Si aceptamos de momento que hubo un principio temporal en el pasado (una creación) hace unos diez mil millones de años, cuando vamos retrocediendo hacia este primer momento, el ritmo con que se sucedieron los hechos se va incrementando. La expansión cosmológica fue mucho más rápida en la época primitiva que ahora, la temperatura y la densidad de la materia también disminuyeron mucho más deprisa en aquellos tiempos que en la actualidad. Cerca del instante inicial los cambios se produjeron con una rapidez ilimitada. Por ejemplo, cada vez que reducimos a la mitad el intervalo de tiempo que nos separa del primer momento, la densidad de materia se cuadruplica. Como es natural, no hay límite al número de veces que podemos subdividir el intervalo de tiempo, de forma que muchas magnitudes pueden crecer sin límite al acercarnos al instante inicial. Consecuentemente se originaron más grandes cambios en el Cosmos en el intervalo de tiempo que va desde un microsegundo a un segundo, que durante toda la hora siguiente.

A causa de este crecimiento sin límite que se produjo cerca del instante de la creación, las distintas eras abarcan sucesivamente intervalos de tiempo más pequeños: la era del plasma duró desde un segundo hasta los 100.000 años; la era que la precedió (la era leptónica) duró desde más o menos un microsegundo hasta un segundo. En cuanto a duración, la era del plasma es inmensamente más larga que la era leptónica, pero son comparables en términos de actividad, ya que todo sucedía más deprisa en la era leptónica. Si usamos la actividad como medida, no hay límite en el número de eras que preceden la era del plasma, lo que parece paradójico ya que la creación ocurrió justo un segundo antes del comienzo de la era del plasma. No hay paradoja, sin embargo, si recordamos que el primer segundo es infinitamente divisible.

Nuestros conocimientos científicos van disminuyendo al aumentar la temperatura y la densidad. A temperaturas poco elevadas tenemos que usar la física especializada en plasmas; a temperaturas más altas de épocas anteriores, la física nuclear. Antes de esta etapa, a temperaturas mucho más superiores, debemos utilizar la rama más energética de la física; la física de partículas elementales. Cada era puede clasificarse según la rama de la física que domina los procesos que ocurrieron en aquel momento; cuanto más temprano, más energéticos son los procesos y más dudoso es nuestro conocimiento. En el momento de escribir esto, la mayoría de cosmólogos aceptan el modelo de big bang a partir del tiempo de un segundo, cerca del linai de la era leptónica. Sin embargo, algunos han profundizado a través de la era leptónica hasta la llamada era hadrónica (antes de un microsegundo) y aún más allá. Daremos a continuación una breve descripción de lo que han encontrado.

Para poder describir los detalles de estas primeras eras, debe explicarse algo acerca de la física de la materia altamente energética. Hace unos setenta años, cuando los tísicos adivinaron la estructura del átomo, sólo se conocían dos tipos de componentes subatómicos: el protón y el electrón. Se sabía que las corrientes eléctricas eran causadas por los electrones y se habían detectado también partículas eléctricas mucho más pesadas, llamadas rayos alpha, producidas por ciertos átomos radiactivos. Finalmente, gracias en parte a experimentos con rayos alpha, se llegó a la conclusión de que se necesitaba otra partícula, eléctricamente neutra, el neutrón, para explicar cómo podían permanecer juntos los protones en el núcleo atómico a pesar de su fuerza eléctrica de repulsión. El neutrón fue finalmente observado en 1932.

Por un tiempo pareció que estas tres partículas de materia eran los únicos bloques elementales constituyentes de todos los átomos, pero el estudio de otro tipo de radiactividad, los rayos beta, llevó al físico Wolfgang Pauli a sugerir la existencia de la tal vez la más extraña de todas las partículas microscópicas: el neutrino. Los neutrinos se diferencian de las demás partículas en que no pueden estar en reposo y, de hecho, se mueven siempre a la velocidad de la luz; no hay forma de frenarlos. Además giran sobre sí mismos de una forma extraordinaria, completamente distinta de la forma en que gira una pelota, por ejemplo. Un objeto como una pelota debe girar 360 grados para volver a estar en la misma posición, pero un neutrino necesita dos rotaciones de 360 grados para conseguirlo. Es como si tuviera una visión doble del Universo, una para cada rotación completa. Pero lo más peculiar es que toda la materia, incluso el plomo o el hormigón, es casi completamente transparente para los neutrinos: pueden incluso atravesar fácilmente toda la Tierra sin notarlo. No resulta sorprendente que haya sido difícil descubrir si la partícula de Pauli existía realmente o era un producto de su imaginación. A pesar de la extrema dificultad de visualizar un neutrino, por ejemplo, absorbiéndolo, mediante reactores nucleares se han producido flujos de neutrinos lo suficientemente grandes para que ocurra muy ocasionalmente la absorción de uno de ellos. Estos resultados se han obtenido en los últimos años y hoy día nadie duda sobre la existencia real de los neutrinos.

Otro trabajo de deducción fue realizado por el físico japonés Hideki Yukawa, antes de la II Guerra Mundial. Yukawa razonó que debía existir alguna forma de «pegamento» para pegar entre sí a los protones y a los neutrones del núcleo atómico. El pegamento está mejor explicado, si lo describimos como otra partícula, que puede ser emitida y absorbida por los protones y los neutrones, y el efecto pegajoso operaría por el mutuo intercambio continuo de esas partículas dentro del núcleo. Si un protón o un neutrón reciben un impacto suficientemente energético, una de estas partículas puede quedar aislada. Yukawa llamó a su partícula mesón, porque calculó que debía tener una masa intermedia entre la del electrón y la del protón.

Poco tiempo después se descubrió un mesón en una lluvia de rayos cósmicos, que son partículas de alta velocidad que llegan a la atmósfera de la Tierra desde el espacio produciendo explosiones de nivel subatómico. Resultó que no era el mesón de Yukawa, sino una partícula como un electrón pesado, que se llamó mesón mu, o abreviadamente, muón. Los muones, como los protones y los electrones, están cargados eléctricamente e interaccionan con la luz y los neutrinos. La característica principal del muón es que sólo vive durante unas dos millonésimas de segundo, después de lo cual expulsa dos neutrinos y se transforma en su pariente cercano, el electrón. De hecho, el mesón de Yukawa no se descubrió hasta unos diez años más tarde, en 1947, y es llamado mesón pi, o pión, que sólo vive un instante efímero y después expulsa un neutrino y se transforma en un muón.

Para estudiar las nuevas partículas subatómicas, se han construido máquinas inmensamente grandes y costosas, llamadas aceleradores. Los modernos aceleradores, como el del CERN en Ginebra son demasiado grandes para caber dentro de un laboratorio; los laboratorios, al contrario, están agrupados alrededor de la máquina, que puede medir varios kilómetros. La mayoría son construidos en forma de anillo, o tubo circular, rodeado de imanes potentes y dentro del cual giran en el vacío haces de partículas subatómicas a velocidades cercanas a la de la luz, que son desviadas según órbitas circulares por los campos magnéticos. Los aceleradores de partículas son dinosaurios tecnológicos, usados para romper en trozos la materia. A los haces de partículas de alta energía se les puede hacer chocar violentamente contra blancos seleccionados y los fragmentos de materia producidos en la explosión son examinados con una variedad de instrumentos detectores que rodean el blanco. El método es burdo pero efectivo, ya que el choque violento a velocidades casi lumínicas descubre un nuevo mundo de exóticas y extrañas partículas subatómicas.

En los últimos años se han ido construyendo aceleradores cada vez mayores y más potentes y, con cada incremento de tamaño, se han descubierto nuevos tipos de partículas. El suceso ha sido tan espectacular que su número llega en la actualidad a varios cientos, un increíble conjunto de distintas especies de materia, muchas de las cuales sólo existen durante una diminuta fracción de segundo antes de desintegrarse. En los primeros tiempos de este tipo de investigaciones parecía que el mundo de la materia microscópica no tenía límites en cuanto a complejidad y distribución al azar. Se descubrieron entonces algunas relaciones sistemáticas entre diferentes grupos de partículas, similares a la tabla periódica de Mendeleev para los elementos y se tuvieron que introducir nuevas cuantificaciones y etiquetas para sistematizar los datos. Se han dado nombres quijotescos como «extrañeza», «color», «espín isotópico» o «encanto» a los misteriosos atributos de los grupos de partículas para categorizarlas y describir sus interrelaciones. Algunos físicos piensan que existen un pequeño número de partículas verdaderamente elementales, enterradas en lo más profundo de la materia, y que quizás podrían ser liberadas con una energía suficiente, mientras otros han argumentado que esta variedad de nuevas partículas no podrán ser separadas y se mantendrán siempre unidas unas con otras. Con una confianza característica, en los hombres de ciencia ya se ha dado nombre a estos componentes fundamentales: los quarks. La gente busca los quarks en gigantescos aceleradores o en los rayos cósmicos. Aún no se ha encontrado ninguno. Si existen, se supone que son indestructibles.

Las máquinas como los aceleradores pueden utilizarse para examinar el estado del horno primordial en el primer segundo del Universo, mediante la simulación durante un breve instante de las energías colosales que pueden provocar temperaturas por encima de los diez mil millones de grados. Al variar el horno primordial cada era, a medida que nos acercamos al origen, es más caliente y más energética. En estas fases tan próximas al instante inicial las colisiones violentas entre partículas debieron crear en la materia cosmológica todas las variedades de partículas que afloran en la línea de producción del CERN y de otras máquinas similares. Para comprender por completo el big bang y sus consecuencias, es necesaria la comprensión de estas partículas y de sus interacciones. Cuanto más nos acercamos al primer momento, más altas son las energías involucradas y más incierto es nuestro conocimiento sobre la física de las partículas. Por esta razón, los físicos tienen confianza en las especulaciones acerca de los procesos antes del final del primer microsegundo. Sin embargo, se han hecho especulaciones. Al estudiar la física del Universo en el mismo umbral de la creación, es difícil contener la curiosidad y aventurar algunas conjeturas sobre los instantes anteriores al Big Bang. Algunas de estas conjeturas han conducido a la predicción de más vestigios sobre estas épocas antiguas o primitivas.

Un ejemplo de vestigio de la era leptónica se refiere a los evasivos neutrinos. Los cálculos muestran que antes de una diezmilésima de segundo, la energía calorífica de la bola de fuego era suficiente para crear electrones, positrones y muones que, junto con los electrones, protones y neutrones se mantenían en equilibrio a través de una compleja red de interacciones en las que intervenían principalmente las emisiones y absorciones continuas de neutrinos. Tan pronto como la temperatura cayó por debajo de algunos miles de millones de grados, los muones, y más tarde los positrones desaparecieron de repente dejando a los neutrinos sin «ningún sitio donde ir». La mayoría de estas partículas se quedó desde entonces viajando en línea recta, atravesando la materia restante, convertida en transparente. Estos neutrinos deben estar ahora aquí, llegándonos directamente de la primera diezmilésima de segundo después de la creación. Es una idea extraña que, en cada instante, haya millones y millones de esas partículas primordiales atravesando nuestros cuerpos. Como es natural, no las notamos, pero es concebible que algunos átomos sí lo hagan y por lo tanto es posible que algún día podamos detectar su presencia.

Pero esto no es todo. Una diezmilésima de segundo es un tiempo largo para una partícula elemental, y puede haber incontables especies de partículas, algunas de las cuales pueden ser totalmente desconocidas en la Tierra, que podrían haber desaparecido mucho antes que los muones. ¿Qué se sabe de ellas? Con toda seguridad estaban sufriendo una serie de procesos e interacciones complejas antes de que la bola de fuego se enfriara demasiado para su supervivencia. Resulta curioso imaginar si ha sobrevivido algún vestigio de su existencia hasta nuestros días. Sin lugar a dudas el estado preciso del horno cósmico dependió en gran manera de las leyes específicas de la física de partículas de las que sólo tenemos una vaga idea. Si los quarks existen, deben haber llenado todo el espacio durante los breves instantes iniciales del big bang, antes de una mil millonésima de segundo después del principio. Este instante corresponde a un tiempo tan corto que incluso la luz sólo pudo haber viajado unos treinta centímetros desde el primer momento del Universo. Durante la era de los quarks la densidad era tan colosal, que una masa equivalente a la de la Tierra ocupaba un volumen del tamaño de un cubo y la energía de la bola de fuego era suficiente para estimular los fenómenos más extraños. Los quarks, moviéndose caóticamente a una velocidad cercana a la de la luz v chocando entre ellos, se transmitían tal enorme cantidad de energía que hacían literalmente retumbar el espacio. La explicación es que el espacio, en cierto sentido, es elástico y, como los demás cuerpos elásticos, puede empezar a vibrar si se le agita violentamente. La violencia del horno cósmico durante esta primera fracción de segundo fue suficiente para generar «arrugas del espacio». Estas arrugas se llaman gravitones. Nadie ha detectado hasta ahora ningún gravitón pero, si existen, serán los análogos gravitatorios de los fotones de luz: pulsos de energía gravitatoria. Pero estos pulsos difieren de todos los demás en que constituyen un movimiento del mismo espacio, la estructura real de la vibración del Universo. Si existen los gravitones, estas vibraciones del espacio tienen que haber estado retumbando desde la bola de fuego original. No todo es pura especulación; los cálculos permiten predecir realmente la energía de las vibraciones del espacio. Igual que con todos los vestigios del big bang, el eco de la explosión inicial está aún aquí, pero se ha ido apagando hasta los límites de la inaudibilidad. No podemos, por ejemplo, sentir ninguna vibración cuando nos atraviesan los gravitones ya que incluso los instrumentos científicos son, de momento, totalmente incapaces de detectarlos, debido a su extrema debilidad. Sin embargo, la energía que transportan podría ser casi tan grande como la energía calorífica detectada por Penzias y Wilson. Tal vez algún día, en nuestro futuro tecnológico, dispondremos de un equipo para escuchar el lejano rumor del big bang, igual que sentimos su calor.

Además de los gravitones, algunos de los mismos quarks podrían haberse escapado de las interacciones mutuas y sobrevivido independiente hasta nuestros días. Esto es razonable porque la densidad de materia disminuyó muy rápidamente en la era de los quarks. Unos pocos, por alguna maniobra fortuita, pudieron haber evitado la fusión mutua y haberse encontrado inmediatamente en un medio prácticamente libre de quarks. Se ha estimado según esta teoría que los quarks podrían ser tan abundantes como los átomos de oro en el Universo. Si fuera así, es difícil comprender por qué aún no han sido detectados.

Si nos acercamos aún más a los primeros momentos, sólo tenemos una ligera sospecha de lo que sucedió. Recordemos que al dividir el primer segundo en fracciones cada vez más pequeñas, la densidad y, probablemente, la temperatura continuaron creciendo más allá de toda comprensión, sin ningún límite conocido. Pero se pueden aplicar principios físicos para dar una primera estimación del estado del Universo dentro de la primera mil millonésima de segundo. Aunque sólo es pura especulación, algunos cosmólogos creen que se puede incluso llegar a la primera cuatrillonésima de segundo, tiempo durante el cual la luz recorrió sólo una diez billonésima de centímetro; el tamaño de un núcleo atómico. Una duración tan infinitesimal está más allá de toda imaginación, pero los procesos que ocurrieron en intervalos tan breves pueden (y, de hecho, son) estudiados en el laboratorio.

Tan cerca del instante de la creación, la densidad de la materia se caracterizó por su nivel extraordinariamente alto: la masa equivalente de todo el contenido material del Universo observable en la actualidad, ocupaba en estos momentos, un volumen aproximado a un cubo de tamaño normal. Igualmente toda la materia de nuestra galaxia, con sus cien mil millones de soles, estaba comprimida en poco más de una décima de milímetro. La intuición falla ante un mundo tan poco familiar. Todo lo que se puede hacer es tener en cuenta los principios básicos de la física y suponer que se pueden aplicar bajo esas condiciones extraordinarias. En los últimos años se ha estudiado esta etapa tan primitiva del Universo y, como consecuencia de los trabajos realizados, se han obtenido nuevos conocimientos sobre el espacio que se estiraba tan rápidamente que el mismo movimiento estimulaba la creación de materia.

Algunos cosmólogos han sugerido que antes de ese momento, la estructura del espacio tenía las características de una tormenta en el océano, con movimientos turbulentos que producían grandes irregularidades y distorsiones geométricas. Esta turbulencia es una versión científica del caos original, sólo que aquí es el mismo espacio el que está agitando. En los últimos años se han hecho cálculos muy detallados para explorar lo que le hubiese sucedido a un Universo que se hubiese originado en una situación de caos primordial. Los cálculos indican que los movimientos del espacio habrían creado materia directamente del espacio «vacío». El efecto de esta génesis es el de suavizar el movimiento caótico, dejando sólo el movimiento regular de expansión que se observa hoy en día. Ciertamente no hay ahora ningún signo de Lina tormenta del espacio. La expansión del espacio, tan lejos como pueden detectar los telescopios modernos, es siempre una característica fundamental, pero inesperadamente, suave y uniforme. O bien el Universo se originó de esta forma, o algún proceso de los primeros instantes, como la génesis de materia, amortiguó el caos original.

Con estas premisas hemos llegado al punto en que podemos plantearnos la primera pista importante para resolver el problema de cómo el Universo pudo llegar a tener su actual estructura, en la cual la materia está distribuida según un orden. Durante mucho tiempo ha sido un rompecabezas para los cosmólogos averiguar las causas que determinan que la expansión del Universo sea tan suave y uniforme en todas las direcciones. Esto es un enigma porque la presencia del horizonte mencionado en las páginas 23-24 aísla físicamente de una manera efectiva una región del Universo de la otra. El tamaño de la región dentro del horizonte crece con el tiempo: actualmente es de diez mil millones de años luz, pero al principio de la era leptónica era de sólo un kilómetro. Durante la era de la «tormenta del espacio» era tan pequeña que sólo tenía una extensión similar al tamaño de un núcleo atómico. El problema estriba en comprender cómo todos estos dominios microscópicos desconectados entre sí se las arreglaron para expansionarse a la misma velocidad. Una respuesta es que no lo hicieron. Al contrario, cada pequeña región del Universo pudo haber explotado al azar, llegando al caos original descrito anteriormente. Resulta dudoso que las galaxias, las estrellas y los planetas se hubieran formado con regularidad si hubieran continuado estas circunstancias. Sin embargo, si el proceso de creación de materia consiguió suavizar estas irregularidades aleatorias, se explicaría la disposición ordenada de las galaxias que vemos hoy día, alejándose unas de las otras con un movimiento sistemático y uniforme.

Podría reflexionarse sobre si existe algún límite al fraccionamiento del primer breve período del big bang o si las leyes de la física no pueden ya aplicarse a partir de algún punto, prohibiendo a los físicos investigar arbitrariamente cerca del instante de la creación. Los últimos límites de la física conocida en la actualidad sugieren la existencia de una barrera de pequeñez, dentro de la cual no se puede investigar la estructura del Universo usando el lenguaje y los conceptos clásicos. La barrera no implica que la física no tenga sentido dentro de este intervalo infinitesimal de tiempo, sino que el mismo tiempo (y el espacio) dejan de tener el significado asociado normalmente con él. Esta región misteriosa más allá de nuestra comprensión actual es llamada la era cuántica. Los fenómenos cuánticos pueden ser la característica crucial que determine el destino del Universo. Muchos tísicos creen incluso que los efectos cuánticos hacen innecesaria la existencia de la creación, convirtiendo al Universo en infinitamente viejo. En el capítulo 11 se discutirá más profundamente este tema. Generalmente se considera, basándose en razonamientos cualitativos, que la era cuántica ocurre dentro de regiones que son veinte potencias de diez menores que el núcleo atómico, y durante intervalos de tiempo cuarenta y tres potencias de diez menores que un segundo. Estos números son realmente muy pequeños. Para tener una idea de los tamaños, al final de la era cuántica, todo el Universo observable estaba comprimido en un volumen menor que el ocupado actualmente por un núcleo atómico. Cada centímetro cúbico de espacio contenía una masa en kilogramos de uno seguido por unos noventa ceros.

Manejar correctamente la teoría cuántica queda fuera del propósito de este libro. El tema es particularmente abstracto y difícil de entender y sólo puede ser explicado con propiedad a base de unas matemáticas muy sofisticadas. Aquí sólo es posible presentar un breve resumen de algunos de los conceptos básicos más simples y sólo mediante algunas analogías.

La teoría cuántica no es sólo una pieza esotérica de especulación abstracta sobre el Universo primitivo, sino que es una revolución de la ciencia física, que ha tenido más impacto que cualquier otra teoría. Lo que empezó con una explicación ad hoc de las propiedades térmicas del calor y la radiación luminosa, hecha por el físico alemán Max Planck, se ha desarrollado posteriormente como una importante renovación de la imagen científica del mundo. A nivel práctico, la teoría explica los detalles de la estructura atómica, los enlaces moleculares y la química, los procesos nucleares, las interacciones entre partículas subatómicas, el comportamiento del helio líquido, el láser, el transistor, la conducción de la electricidad y muchos más fenómenos de la vida cotidiana y de laboratorio. A un nivel intelectual, la teoría conduce a un modelo de la materia que tiene algunas propiedades extraordinarias, casi increíbles.

Una de las posibilidades más extrañas y significativas de la materia cuántica es que la energía puede aparecer y desaparecer durante momentos infinitesimales de tiempo. La forma en que sucede está ligada al famoso principio de la incertidumbre de Werner Heisenberg. Entre otras cosas, este principio dice que el mundo es intrínsecamente impredecible. Sea cual sea la cantidad de información disponible sobre un sistema, sólo puede deducirse su comportamiento futuro como una probabilidad. El mundo está por lo tanto sujeto a fluctuaciones estadísticas, como si tiráramos los dados, y ocasionalmente puede ocurrir que salgan dos o tres seises seguidos. Estas fluctuaciones cuánticas no se notan normalmente en el mundo ordinario, porque operan a escala microscópica, pero el comportamiento detallado de los átomos y las moléculas depende mucho de su existencia, y están bien comprobadas experimentalmente.

El principio de Heisenberg afirma que, para un tiempo suficientemente corto, la energía de un sistema es impredecible, según el valor de una constante numérica precisa, conocida como constante de Planck (en honor a Max Planck). Para que el efecto sea importante, el intervalo de tiempo debe ser realmente muy pequeño. Una consecuencia es que, durante intervalos de tiempo muy cortos, toda una partícula subatómica puede literalmente desaparecer del Universo, para reaparecer un momento después. A la inversa, partículas de cualquier tipo pueden aparecer brevemente en el espacio vacío y volver a desaparecer de nuevo. Estas partículas fantasmas pueden en realidad convertirse en partículas reales si se les da alguna forma de energía suficiente. De hecho esto es lo que sucede, mediante el mecanismo de génesis de partículas mencionado anteriormente, donde los efectos de marea de las ondas de espacio suministran la energía para crear materia a partir del espacio vacío.

Debido a este curioso efecto ocurre un fenómeno muy conocido en los relojes fosforescentes. Los relojes emiten luz porque son ligeramente radiactivos. Producen pequeñas cantidades de rayos alpha que, como ya hemos mencionado, son partículas eléctricas, expulsadas de los núcleos de átomos muy pesados como los de radio y uranio. Aquí está el rompecabezas. ¿Cómo se escapan las partículas alpha de los núcleos de radio y uranio? La paradoja es evidente si aplicamos el principio de que «todo lo que sale puede volver a entrar»; si bombardeamos, por ejemplo, uranio con un haz intenso de rayos alpha, deberíamos esperar una desaparición continúa de las partículas al ir siendo absorbidas por los núcleos, idénticos a aquellos de los que habían emergido recientemente rayos alpha. Pero no sucede así. Los cálculos detallados muestran por qué. La partícula alpha no tiene suficientemente energía para atravesar la barrera de tuerza eléctrica y nuclear que rodea todos los núcleos de uranio. Esta barrera funciona en los dos sentidos; mantiene las partículas alpha dentro, e impide a las partículas alpha extrañas entrar en el núcleo desde el exterior. Volvemos por lo tanto al rompecabezas: ¿cómo se escapan las partículas?

La teoría cuántica nos da la respuesta. La partícula alpha, de acuerdo con el principio de Heisenberg, puede desaparecer durante un tiempo muy corto: de hecho, sólo durante una cuatrillonésima de segundo. Pero es suficiente para que su «imagen fantasma» se desplace una corta distancia, de forma que cuando reaparece la partícula alpha una fracción de segundo después, se encuentra fuera de la barrera. La naturaleza estadística del proceso se pone de manifiesto en el hecho que las sustancias radiactivas tienen una «vida media» fija, lo que significa que cada átomo individual tiene la misma probabilidad de que ocurra una fluctuación de «desaparición» del tipo descrito.

Esta descripción es por supuesto sólo una imagen superficial, pero es suficiente para comprender lo que podría haber sucedido al Universo en el primer momento en que se puede hacer alguna conjetura: la era cuántica. El intervalo de tiempo fue tan pequeño que la energía cuántica que aparecía y desaparecía era en realidad comparable en intensidad a la energía de la materia aplastada. Cuando sucedió esto, el espacio y el tiempo debieron separarse. El espacio y el tiempo tal como los conocemos no son conceptos con significado concreto antes de este momento.

Hay pocos resultados en la ciencia más sorprendentes que la idea de un Universo apareciendo un instante dado, bajo el impacto impulsivo de la energía cuántica. Más allá de este punto está el mundo de la gravedad cuántica, una materia demasiado abstracta que se escapa del propósito del libro. Muchos científicos se han enfrentado al problema de qué efectos podrían tener los procesos cuánticos en el Universo primitivo antes de esta fase, pero hasta el momento los resultados son confusos e incompletos. Estos científicos están motivados por el insaciable deseo de comprender siempre lo que está más allá de los límites de la teoría actual; tal vez dentro de unos años tendremos la respuesta. Sea lo que sea que esté más allá del umbral de la era cuántica, probablemente no podrá ser definido con los conceptos de espacio y tiempo, sino con los de alguna estructura más elemental a partir de la cual se construyó el espacio y el tiempo, al igual que la materia está constituida por átomos. Cualesquiera que sean las ideas que surjan, nos darán una nueva perspectiva sobre nuestra visión de la creación.

Capítulo III
El orden a partir
del caos

La ciencia en el Apocalipsis es común a muchas tradiciones culturales. En los últimos años la ciencia ha llegado también a predecir una especie de Apocalipsis cósmico, en el que el mundo actual será destruido por los inexorables procesos de la naturaleza, controlados por las fuerzas de gravedad, el electromagnetismo y las interacciones nucleares. De acuerdo con estos vaticinios, en un futuro lejano, cesará la compleja actividad y organización del Universo, de una forma más o menos violenta según las circunstancias e inevitablemente ocurrirá una desintegración o colapso hacia el caos. Para entender por qué y cómo el orden dará paso al caos, es necesario examinar previamente cómo se estableció este orden en el Cosmos.

Ya vimos en el primer capítulo que el orden cósmico se extiende por muchos niveles de muy diferente naturaleza y complejidad, es decir, desde los diminutos organismos biológicos hasta las galaxias. La notable cantidad de estructuras y el grado de organización que existe a nuestro alrededor ha hecho creer a mucha gente que el mundo se creó en un sitio muy especial, idea que está claramente de acuerdo con las explicaciones tradicionales religiosas de la naturaleza. Por otra parte, tal como se describió en el capítulo anterior, el relato científico de la creación ofrece una visión contraria, la de un Universo creado en un caos ardiente, que ha generado a partir del fuego original la estructura ordenada de la materia y la energía que observamos hoy en día. La forma en que el orden actual del mundo surgió del caos original se comprende a grandes rasgos, a partir de algunos descubrimientos en cosmología, astrofísica, geología y biología. Un estudio cuidadoso de estas disciplinas, y la interacción entre ellas, ha permitido la construcción de una imagen coherente de un Universo en el que la organización y la actividad ordenada fueron creciendo durante los miles de millones de años que siguieron a la era del plasma.

Las mayores unidades existentes de materia organizada son las galaxias. La existencia de estas entidades, todas de tamaño y forma comparables, es tan notable como evidente. El origen de su movimiento y distribución regular en el espacio se descubrió brevemente en el capítulo anterior, pero esto es sólo una parte de la historia, ya que antes tenemos que explicar cómo se formaron. Es un problema complicado para los astrónomos y, de momento, sólo hay una respuesta parcial. Se comprende bien un principio básico: bajo la acción de la gravedad, cualquier irregularidad lo suficientemente grande que exista en el Cosmos, tiende a crecer de tamaño y a volverse más pronunciada. La razón es que la gravedad es siempre atractiva y se vuelve más intensa al crecer la masa. Por consiguiente, cuando una región del Universo acumula materia, su fuerza gravitacional crece, por lo que atrae aún más materia; el proceso, por lo tanto, tiende a ir cada vez más deprisa de una forma natural.

Antes se pensaba que la existencia de galaxias se podía explicar mediante este sólo mecanismo. Si suponemos que en la época primitiva la materia estaba repartida más o menos uniformemente por todo el espacio, al bajar la temperatura, habría empezado a acumularse la materia al azar, en aglomerados, por influencia de la grave dad. Esta explicación hoy día no es aceptada y ahora se piensa que un proceso al azar como éste hubiese tardado más que la edad del Universo en ser efectivo. Una manera de resolver los problemas planteados es suponer que el Universo empezó con irregularidades de varios tamaños y que complicados procesos selectivos favorecieron el crecimiento de aquellas que tenían dimensiones galácticas típicas. Esta idea sugiere una imagen del caos original no completamente suavizado en el mismo big bang.

Una vez empezó el crecimiento de las irregularidades, las aglomeraciones de gas se condensaron rápidamente al caer sobre ellas mismas bajo la acción de la gravedad. Hubo, como es natural, una fuente opuesta a la contracción, debido a la tendencia por parte de la materia a tomar parte en la expansión cosmológica. La contracción, sin embargo, no continuó indefinidamente: los movimientos de rotación al azar producidos por la turbulencia y las irregularidades del movimiento se acentuaron al disminuir el tamaño de las nubes de gas, igual que un patinador sobre hielo aumenta su velocidad de rotación al contraer sus brazos. Finalmente se llegó a un equilibrio entre la fuerza centrífuga y la atracción gravitatoria, con una configuración final en forma de un disco aplanado en rotación, que es precisamente la estructura observada para muchas galaxias.

Un misterio que no ha sido explicado totalmente es el de los brazos espirales que aparecen en muchas galaxias, incluida nuestra Vía Láctea. El problema está en que la materia cerca del centro galáctico gira más deprisa que en los bordes, por lo que los brazos deberían enrollarse después de unas pocas revoluciones. Recientemente se ha sugerido que los brazos espirales no deben ser tratados como entidades materiales que se mueven al unísono, sino como una región local donde las estrellas se han acumulado un poco en su lenta migración alrededor del centro. Las regiones en que se produce la acumulación se mueven alrededor de la galaxia como una onda, de manera que el conjunto es comparable a una calle llena de gente, por donde se pasea un personaje famoso, a un paso más lento que la mayoría de la muchedumbre, provocando una ligera aglomeración local al pararse la gente curiosa durante un momento y proseguir después su marcha.

En nuestra propia galaxia, la Tierra está situada actualmente en una región del borde de uno de los brazos espirales, a unas dos terceras partes de distancia del centro, que está situado a 30.000 años luz en la dirección de la constelación de Sagitario. El Sol efectúa una rotación alrededor del centro de la Vía Láctea cada 250 millones de años y, por lo tanto, ha dado hasta ahora unas veinte vueltas. El centro de la galaxia gira bastante más deprisa, tal vez una rotación cada veinte millones de años, mientras que otras galaxias con una estructura espiral menos pronunciada parecen girar más del doble de deprisa.

Las galaxias tienen una morfología bastante variada. Algunas, que tienen forma elíptica, pueden ser 100 veces más grandes que la Vía Láctea, mientras que en el otro extremo, las pequeñas galaxias irregulares pueden tener menos de una milésima parte de materia que de la nuestra. El navegante Fernando Magallanes descubrió dos mini galaxias de este tipo durante su viaje alrededor del mundo. Estas manchas de luz, conocidas como las Nubes de Magallanes, sólo son visibles en el hemisferio Sur y son, en realidad, satélites de la Vía Láctea. Las galaxias parece que raramente se han formado aisladamente. La mayoría pertenecen a algún tipo de cúmulo, que pueden contener de tres o cuatro a varias docenas de galaxias. La nuestra, pertenece a un grupo de diecinueve, repartidas por una región del espacio de unos tres millones de años luz de tamaño. Unos cincuenta cúmulos similares parecen estar agrupados en un supercúmulo local de forma elíptica, que mide más de cien millones de años luz de largo y 30 millones de años luz de ancho.

Las galaxias probablemente llegaron a su configuración actual dentro de los primeros cientos de millones de años después del big bang. El mismo principio que produjo el crecimiento de las irregularidades de tamaño galáctico operó también sobre dimensiones mucho menores, fragmentando la materia cósmica en nubes de gas aproximadamente esféricas durante las primeras etapas cuando aún no estaban completamente formadas las galaxias. De forma que antes de que aparecieran los discos galácticos característicos, aplanados y en rotación, docenas de nubes esféricas más pequeñas se separaron del interior de la región galáctica. Sucesivas fragmentaciones produjeron núcleos aún más pequeños y finalmente surgieron unas esferas brillantes de gas que ahora llamamos estrellas.

Las estrellas son el signo más evidente de organización cósmica y su estudio ha dominado durante siglos la astronomía. Durante los últimos años la astronomía ha llegado a una comprensión bastante detallada de su estructura y su evolución. Para los antiguos, las estrellas parecían inmutables y los astrónomos han venido utilizando hasta hace poco la anacrónica expresión «estrellas fijas». En la actualidad se sabe que las estrellas cambian con el tiempo, aunque en general lo hacen muy lentamente. Veremos más adelante que sufren ocasionalmente cambios catastróficos pero, la gran mayoría, brillan con una luz constante durante millones de años.

A pesar de las apariencias, las estrellas no están fijas en el espacio ya que, tal como hicimos notar, toda la galaxia está en un estado de perpetua rotación. Las que están más próximas a nosotros, las únicas que podemos ver individualmente a simple vista, se están moviendo más o menos en conjunto alrededor del centro de la Vía Láctea. Más cerca del centro galáctico, las estrellas se mueven un poco más deprisa que el Sol, mientras que las que están más alejadas del centro giran con más lentitud, de forma que, llevando a cabo observaciones cuidadosas de las estrellas cercanas durante muchas décadas, se han puesto de manifiesto pequeños cambios en sus posiciones, en relación a las estrellas más distantes. Este movimiento «propio», que es el nombre que recibe, era del todo desconocido por los astrónomos antiguos, que no disponían de instrumentos de precisión para detectarlo. Las estrellas están tan alejadas, que incluso los movimientos propios de las cercanas, que pueden ser de varios miles de kilómetros por hora respecto a la Tierra, pueden ser inobservables durante la duración de la vida de un hombre.

Con el desarrollo de la astrofísica moderna, los científicos llegaron a convencerse de que las estrellas no se formaron simplemente de una vez por todas, sino que continuamente se están formando, evolucionando y cambiando en escalas de tiempo enormes. La formación de estrellas parece ser un proceso continuo, lo que significa que los astrónomos pueden observar directamente el nacimiento de nuevas estrellas. Mediante la observación directa, podemos obtener información sobre cómo fueron las primeras etapas después de formarse la galaxia, cuándo empezaron a aparecer las primeras estrellas.

En una noche clara es posible ver a simple vista un lugar de la galaxia donde en el momento actual está en marcha la génesis estelar. El lugar es la constelación de Orión, el cazador legendario, que domina en invierno la parte meridional del cielo del hemisferio Norte. Orión posee una línea de tres estrellas un poco inclinadas respecto a la horizontal, que forman el «cinturón» del cazador. Un poco por debajo del cinturón está la «espada» de Orión, una columna casi vertical formada por tres objetos de apariencia estelar. Una mirada más detallada revela que el objeto del medio no es ninguna estrella, sino una mancha borrosa que, con unos prismáticos, puede verse como una nebulosa brillante conocida como la Gran Nebulosa de Orión. Esta nebulosa, sin embargo, no es otra galaxia, ya que, aunque los antiguos astrónomos no podían distinguirla, sabemos hoy en día que la nebulosa de Orión es un gigantesco semillero estelar dentro de nuestra propia galaxia, una inmensa nube de gas luminoso, de más de 160 billones de kilómetros de tamaño (17 años luz), a una distancia de 1.500 años luz. La nebulosa está mucho más lejos que las estrellas de Orión, situadas todas ellas en las inmediaciones de la zona que nosotros ocupamos en la galaxia.

Casi todas las estrellas jóvenes y brillantes que se están formando en el momento actual en la Vía Láctea y las demás galaxias están situadas en los brazos espirales. Las fotografías muestran brillantes bolitas de gas luminoso, extendidas en hileras a lo largo de los brazos espirales, causadas probablemente por la turbulencia y la compresión producidas por la relativa mayor densidad de estrellas presente en los brazos. Cuando se forman las estrellas a partir de esas nubes de gas, a veces en cantidades próximas a los varios millones, tienden a hacerlo en cúmulos. Los cúmulos normalmente están muy poco ligados, y se rompen al cabo de unos millones de años, aunque permanecen muchos sistemas dobles o triples. Las Pléyades son un cúmulo muy conocido de varios cientos de estrellas jóvenes, y una indicación interesante de su actividad juvenil es el hecho de que Shakespeare las describe en Enrique IV, parte I, como «las siete estrellas», mientras que ahora sólo se ven seis a simple vista. Incluso al principio del siglo XIX Lord Byron en su poema Beppo se refiere a «la Pléyade pérdida y nunca más vista», por lo que evidentemente había dejado de brillar durante el siglo anterior, un comportamiento típico de las estrellas jóvenes e inestables.

A diferencia de los cúmulos poco ligados de estrellas formadas recientemente, existen los llamados cúmulos globulares, bolas muy compactas e impresionantes formadas por varios cientos de miles de estrellas muy viejas. Son las primeras estrellas que aparecieron en el Universo, formadas a partir de los gases primordiales, cuando las galaxias eran casi esféricas. Estos cúmulos se separaron de la materia cosmológica hace más de diez mil millones de años y se encuentran por lo tanto formando un halo esférico que rodea los discos aplanados que contienen la parte principal de la masa de las galaxias. En el halo que rodea la Vía Láctea se conocen un centenar, con diámetros que varían de 50 a 300 años luz.

Resulta fascinante imaginar cómo debe ser el cielo por la noche en el centro de un cúmulo globular. En lugar del parpadeo de las estrellas que son visibles desde la Tierra, el cielo debe estar repleto de miles de multicolores luces brillantes repartidas por todas las direcciones del espacio. La densidad de estrellas en el centro de un cúmulo globular es alta, tal vez unas treinta estrellas por cada año luz cúbico, que es varias miles de veces la densidad cerca del Sol. Sin embargo, las estrellas individuales siguen estando separadas por distancias inmensas de forma que dos cúmulos globulares podrían atravesarse uno al otro sin que colisionara ninguna estrella. Uno de estos cúmulos situado en la constelación de Hércules, puede llegar a verse a simple vista en una noche clara, con la apariencia de una débil estrella difuminada. Es impresionante pensar, al mirar este cúmulo, que podemos contemplar algunas de las estrellas más viejas del Universo, formadas de la materia primordial salida del big bang, miles de millones de años antes de que existiera el Sol.

En la actualidad los astrónomos tienen claro que nuestra galaxia, y otras espirales similares, son en realidad dos estructuras superpuestas. Una componente representa las primeras estrellas viejas, que se formaron cuando la gran nube de gas galáctico tenía una forma aproximadamente esférica y estaba implosionando, es decir, disminuyendo de tamaño con bastante rapidez. Estas estrellas, que incluyen las de los cúmulos globulares, están distribuidas en una forma más o menos esférica, con una concentración alta cerca del centro galáctico, y un halo disperso a su alrededor, extendiéndose hasta el espacio intergaláctico. Las estrellas del halo tienden a moverse muy deprisa al caer rápidamente hacia el centro de la galaxia, donde son desviadas por la gravedad de la gran masa concentrada y enviadas otra vez hacia el espacio intergaláctico. Esta alta velocidad cíclica refleja el rápido movimiento de implosión original de la protogalaxia hace diez mil millones de años.

La segunda componente de la galaxia consiste en la región en forma de disco que contiene los brazos espirales y nubes de gas. Contiene principalmente estrellas de la segunda generación, junto con materia prima para generaciones futuras. Se formó un poco más tarde, cuando la implosión había producido un incremento de la rotación y una tendencia al aplanamiento. Algunos astrónomos creen que pueden haberse formado «superestrellas» antes de que la galaxia se separara como una entidad definida. Según esta idea, las superestrellas habrían quemado su combustible nuclear a un ritmo prodigioso y habrían desaparecido de escena incluso antes de la aparición de los cúmulos.

Algunas galaxias presentan una banda oscura a través de su centro. No es un «agujero» en la galaxia donde no hay estrellas, sino que son inmensas regiones de gas y polvo que absorben fuertemente la luz de las estrellas situadas detrás. Una de estas regiones en nuestra galaxia, que da la impresión de ser un «agujero en el cielo», se conoce como el Saco de Carbón y está situado en la constelación llamada la Cruz. Otra ubicada en la constelación del Cisne, es muy visible en el hemisferio Norte, especialmente al principio de la noche durante el otoño, y aparece como un agujero oscuro en la banda brillante de la Vía Láctea.

Durante muchos años los astrónomos estuvieron muy intrigados sobre la naturaleza de la fuente que podía producir las enormes cantidades de energía que las estrellas estaban lanzando continuamente hacia el espacio en forma de radiación de calor y luz. Si tomamos el Sol como ejemplo de una estrella típica, la potencia total radiada por su superficie es inimaginable: aproximadamente un cuatrillón de kilovatios. Sólo una ínfima porción (unas dos mil millonésimas) de toda esta energía cae sobre la Tierra, pero incluso esta cantidad es muy grande. Cada segundo llega más energía de la luz del Sol que la producida durante un año en toda la Tierra.

No fue fácil descubrir la auténtica naturaleza de la fuente solar. Los primeros modelos teóricos del Sol fueron extremadamente ingenuos y al principio, los astrónomos creían que la estrella solar estaba constituida por una masa de carbón, o tal vez de hidrógeno, en combustión. Pero este modelo era claramente inadecuado: al ritmo de producción de energía actual, la masa entera se hubiera quemado en unos pocos miles de años. Hace unos cien años Lord Kelvin y H. L. Helmholtz propusieron la idea de que la energía del Sol podía proceder de su propia contracción. Cuando se comprime un gas, éste se calienta, de forma que si el Sol empezó siendo, como todas las estrellas, una inmensa bola de gas, varios miles de veces mayor que ahora, se habría ido comprimiendo bajo su propio peso. El efecto de esta contracción habría producido un incremento de la temperatura y de la presión cerca del centro al convertirse la energía gravitatoria en calor. Las regiones centrales de la bola habrían empezado entonces a emitir radiación de calor y luz, que se habría filtrado lentamente a través de las capas superiores calentándolas, hasta alcanzar la superficie y salir al espacio vacío del exterior. La energía habría sido suministrada por la misma gravedad del Sol. Se calculó que la contracción de unos pocos cientos de kilómetros por año era suficiente para mantener la producción de energía del Sol a un ritmo constante. Como el Sol tiene más de un millón de kilómetros de tamaño, esta contracción casi no se podía notar. Así, se pensó que el Sol podía haber estado brillando durante varios millones de años.

Los problemas con la teoría de la contracción surgieron cuando los geólogos encontraron restos fósiles, demostrando que la Tierra tenía que haber existido, no durante unos millones de años, sino durante varios miles de millones de años. Alguna nueva fuente de energía, insospechada hasta entonces, tenía que actuar en el Sol para mantener su brillo al ritmo actual durante un período tan largo. No se conoció en la Tierra ninguna fuente de energía de esta capacidad hasta la mitad de este siglo, cuando Einstein sugirió que, en base a su teoría de la relatividad, la materia y la energía podían convertirse una en la otra, un fenómeno al que ya hemos aludido en el capítulo anterior. De acuerdo con lo que dijimos, el calor energético de la bola de fuego original produjo muchos tipos de partículas subatómicas y en los momentos más próximos al primer instante, las supuestas «mareas de espacio» desparramaron su energía creando materia. Igualmente explicamos cómo pudo ocurrir el proceso contrario cuando la materia y la antimateria se aniquilaron mutuamente produciendo una explosión de energía.

El punto más importante de estos cambios es que cantidades ínfimas de materia producen cantidades enormes de energía. Un kilogramo, por ejemplo, se convierte en veinticinco mil millones de kilovatios-hora de energía, lo que satisfacerla las necesidades de todas las ciudades británicas durante varios meses. El principio de que la energía tiene masa está en la actualidad bien establecido, aunque bajo circunstancias normales es demasiado pequeña para que se note. Una persona andando a una velocidad media gana un peso equivalente a un millón de átomos a causa de su energía de movimiento. En los aceleradores de partículas, donde las partículas subatómicas se hacen girar a velocidades cercanas a las de la luz, el peso de su energía puede llegar a ser muchas veces el peso de las partículas en reposo, fenómeno que debe ser tenido en cuenta por los ingenieros en el diseño de estas máquinas.

Siempre que se libera energía, su fuente se vuelve más ligera. Por ejemplo, si se quemara un kilo de carbón dentro de un contenedor sellado transparente, el sistema entero acabaría pesando unas tres millonésimas de gramo menos. Esta masa es la correspondiente a la energía que se ha escapado a través de las paredes del contenedor en forma de calor y luz. Utilizando este nuevo principio, es fácil calcular que el Sol está perdiendo unos cuatro millones de toneladas cada segundo, aunque esto casi es inapreciable para un objeto tan gigantesco, que contiene una masa total de unos mil cuatrillones de toneladas.

Para explicar esta prodigiosa desaparición de masa, se necesita un proceso mucho más potente que la combustión química ordinaria. Las reacciones químicas dependen de las fuerzas eléctricas entre los átomos, pero a principios de siglo los físicos descubrieron una fuerza mucho más intensa bloqueada en el interior de los núcleos atómicos, el llamado «pegamento» nuclear. Si esta fuerza actúa en el proceso de combustión, la producción de energía por átomo es muchos millones de veces mayor que la energía química. Una prueba para demostrar la existencia de la energía nuclear puede realizarse con una observación muy simple. Se sabe que el núcleo de un átomo de helio contiene sólo cuatro partículas: dos protones y dos neutrones. Los pesos de estas partículas se conocen con bastante precisión, y también el del átomo de helio. Resulta que cuando se juntan las cuatro partículas formando un núcleo de helio, su peso combinado es un uno por ciento menor que la suma de sus pesos por separado. Esta pérdida del uno por ciento de la masa se manifiesta con la producción de una cantidad considerable de energía, emitida por el sistema en el momento en que se combinan las cuatro partículas.

Desde hace tiempo se sabe que el Sol está compuesto principalmente por hidrógeno y helio, siendo este último descubierto primero en el Sol que en la Tierra. Si existe un mecanismo que pueda convertir los protones libres de los átomos de hidrógeno en núcleos de helio, la pérdida de masa del Sol de cuatro millones de toneladas por segundo podría explicarse mediante la conversión de unos 600 millones de toneladas de hidrógeno en helio cada segundo. Este ritmo de pérdida de hidrógeno podría ser soportado durante varios miles de millones de años sin agotar las reservas del Sol.

No se comprendieron los detalles precisos del mecanismo de la energía nuclear hasta después de la II Guerra Mundial. No es posible combinar directamente los protones (núcleos de hidrógeno) a causa de su intensa y mutua repulsión eléctrica. Los núcleos de helio contienen dos neutrones junto con los dos protones, y los neutrones no existen libres con abundancia en el Sol. Una propuesta para solucionar el problema, fue realizada por el premio Nobel Hans Bethe a finales de los años 30. Su tesis se basaba en la presencia de pequeñas cantidades de carbono, que actuaban como una especie de catalizador. Los detalles del llamado ciclo del carbono son complicados pero, al final del ciclo, el carbono se mantiene inalterado y el hidrógeno se ha convertido en helio. Actualmente se sabe que este proceso no actúa en el Sol, pero sí lo hace en las estrellas un poco más calientes. La cadena de reacciones nucleares que ocurren dentro del Sol sólo depende de la existencia de hidrógeno y es una conversión directa en helio, llamada cadena protón-protón. Durante este proceso algunos de los protones se convierten en neutrones, una transmutación sorprendente, que sólo es posible con la presencia de otras partículas. El mecanismo implica la emisión de una pequeña partícula llamada positrón, que es la compañera de antimateria del electrón. El positrón es la partícula responsable de llevarse la carga eléctrica del protón para dejarlo convertido en neutrón. Durante algunas de estas transmutaciones se emiten también neutrinos, esas partículas subatómicas tan evasivas, de las que hablaremos más adelante.

Esta «combustión de hidrógeno», por lo tanto, es muy distinta de la combustión química, en que átomos enteros se juntan y desprenden energía. En los poderosos procesos nucleares, lo que ocurre es la fusión directa de los núcleos atómicos formando nuevas especies de átomos. En ambos casos es necesario añadir cierta cantidad de calor para iniciar las reacciones de combustión. La fusión nuclear es mucho más poderosa que la fusión química y, en correspondencia, la temperatura necesaria es más alta. Los cálculos muestran que se necesitan temperaturas de varios millones de grados para la cadena protón-protón y aún más altas (como mínimo quince millones de grados) para el ciclo del carbono. Por esta razón se sabe que el centro del Sol tiene que estar extremadamente caliente. La temperatura de la superficie del Sol y de las demás estrellas puede medirse directamente a partir de las propiedades de la radiación luminosa que emiten. En el caso del Sol, la temperatura superficial es de unos 6.000 grados. Obviamente hay un fuerte gradiente de temperatura con el interior del astro, lo que provoca un flujo de energía desde el centro, donde es liberada en el proceso de fusión, hasta sus bordes y hacia el espacio. La combustión del hidrógeno, en realidad, sólo se produce en un pequeño núcleo central.

Los estudios de física nuclear han revelado, por lo tanto, lo que hace brillar a las estrellas. El Sol es un gigantesco homo nuclear alimentado por la potencia de la fusión del hidrógeno, el mismo proceso que suministra energía a la bomba de hidrógeno. En este sentido, el Sol equivale a la explosión controlada de diez mil millones de grandes bombas de hidrógeno cada segundo, de forma continua desde hace miles de millones de años, lo que, en cualquier caso, representa una potencia colosal.

En la actualidad es posible explicar cómo se forman las estrellas. Inicialmente, la lenta contracción de una gran bola de gas hidrógeno va calentando lentamente su interior hasta que alcanza varios millones de grados, proceso que dura normalmente unos 100 millones de años, hasta que finalmente las reacciones nucleares. Entonces se detiene la contracción y la estrella se estabiliza con un tamaño y una producción de energía más o menos constantes. Los astrónomos creen que algunas estrellas de comportamiento atípico, llamadas estrellas T Tauri, aún están en el proceso de contracción gravitatoria, en la etapa pre nuclear, mientras que todas las estrellas normales producen energía mediante la fusión nuclear.

De momento sólo se conoce de una forma rudimentaria las etapas finales de la formación de las estrellas. Parece probable que el Sol empezó como una bola de gas en lenta rotación, del tamaño aproximado del Sistema Solar, varios miles de veces su tamaño actual. Al contraerse, empezó progresivamente a girar más deprisa, una vez más por analogía con el patinador sobre hielo. Durante el proceso, la rotación se volvió tan rápida que las regiones ecuatoriales de la superficie del protosol se desgajaron y se expulsó un disco de materia, igual que las chispas se desprenden de una rueda de fuegos de artificio. Los elementos ligeros, como el hidrógeno, se situaron en los bordes del disco, mientras que las pequeñas cantidades de elementos más pesados, como el hierro, carbono, silicio, níquel, o incluso oro y uranio, se quedaron cerca del centro. Los efectos de acoplamiento magnético provocaron una reducción gradual de la rotación del Sol, mientras que el disco lo compensó girando más deprisa y moviéndose hacia fuera.

Los planetas se formaron a partir del disco giratorio. Los planetas grandes y ligeros, como Júpiter y Saturno surgieron del bloque de elementos ligeros situados cerca del borde del disco, mientras que las pequeñas cantidades de elementos pesados ubicados más cerca del Sol originaron los planetas pequeños como la Tierra y Marte. Tenemos una idea correcta de cuánto tiempo hace que sucedió esto, midiendo el grado de desintegración de varias sustancias radiactivas, tales como el uranio, que se ha ido desintegrando desde la formación de la Tierra. La edad resultante es de 4.500 millones de años. Los meteoritos y las rocas lunares tienen aproximadamente la misma edad y al mismo Sol se le calcula una edad similar a partir de varios métodos de cálculo basados en la teoría de la evolución estelar. Esto muestra que el Sistema Solar y, en particular, la Tierra, sólo tienen un tercio de la edad del Universo y aproximadamente la mitad de la edad de la galaxia. Las estrellas del cúmulo globular de Hércules eran ya viejas incluso antes de que la Tierra empezara su existencia.

El disco alrededor del Sol contenía todo tipo de materiales, condensándose lentamente en planetoides. El gas, el polvo, las rocas y otros fragmentos fueron atrapados por torbellinos turbulentos y formaron aglomerados debido a los impactos y a la atracción gravitatoria. Gradualmente, estos cuerpos pequeños se fusionaron en otros mayores que, a su vez, se unieron para formar planetas. Durante millones de años, la Tierra recién formada, tuvo que sufrir terribles cataclismos al recibir sobre su superficie virgen el impacto de inmensos bloques rocosos tal vez de varios kilómetros de tamaño, que provocaron el nacimiento de grandes montañas de roca fundida. La energía de estos impactos mantuvo la Tierra en estado de fusión, permitiendo a las sustancias densas, como el hierro y el níquel, hundirse hacia el centro y a los silicatos, más ligeros, progresar hacia la superficie para formar una corteza sólida. Gases nocivos emanados por las rocas rodearon el planeta con una densa atmósfera asfixiante, que era arrancada periódicamente por las erupciones y fulguraciones del Sol, que aún se estaba formando. Finalmente, cesaron las convulsiones solares y el Sol alcanzó su fase estable, de combustión del hidrógeno.

Afortunadamente para nosotros, el bombardeo cósmico ha cesado desde hace tiempo, ya que los efectos del impacto de un pequeño planetoide serían devastadores. Incluso la caída de unos pocos kilogramos de roca pueden producir una bola de fuego visible desde muchos kilómetros. En 1971, el asteroide Ícaro, un objeto modesto de un centenar de kilómetros de tamaño, pasó a una distancia aproximada de un millón de kilómetros de la Tierra, lo que es muy poco para los módulos astronómicos, ya que sólo una pequeña desviación de su órbita real lo hubiera llevado a colisionar con la Tierra. Seguramente hubiera caído en el océano, lo que es una perspectiva preocupante, porque el impacto hubiera levantado unas olas gigantescas, de varios kilómetros de altura.

Se puede conseguir alguna indicación de la potencia del impacto producido por la caída de rocas durante la formación del Sistema Solar a partir de la inspección de la superficie de otros planetas. Incluso una mirada ocasional a la Luna da la impresión de un terreno rugoso y desfigurado. Con unos prismáticos poco potentes se puede ver una jungla enmarañada de hoyos, escarpaduras y cráteres, algunos de ellos de cientos de kilómetros de diámetro. Este registro en la faz de la Luna es un testigo mudo de los violentos cataclismos producidos por los bombardeos desde el espacio, ocurridos en el alba del Sistema Solar. Cuando miramos la faz de la Luna vemos una imagen congelada de los sucesos que acontecieron hace más de cuatro mil millones de años, cuando la Tierra se estaba aún condensando a partir del disco solar. La razón para la notable conservación de este registro prehistórico reside en la ausencia total de atmósfera en la Luna.

004.jpg
Fig. 4. Diagrama temporal. El esquema muestra cuánto tiempo hace que ocurrieron algunos acontecimientos importantes. La flecha muestra la época aproximada en que las más distantes galaxias observables mediante telescopios ópticos emitieron la luz que vemos en la actualidad, suponiendo que su corrimiento hacia el rojo indica correctamente la distancia según la ley de Hubble. Si se aplica el mismo principio a los misteriosos quasares, se obtienen tiempos anteriores a diez mil millones de años.

La Tierra también tuvo alguna vez una apariencia similar, pero siglos y siglos de erosión dinámica han hecho desaparecer las últimas cicatrices de nacimiento y sólo la caída ocasional de algún meteorito deja un débil recuerdo de la violencia de los anteriores bombardeos cósmicos. Los vuelos espaciales recientes a Marte y Mercurio han revelado una situación similar. Ambos planetas tienen atmósferas muy tenues y en ambos han sobrevivido las huellas de los cataclismos.

Al formarse el Sistema Solar, nuestro pequeño rincón del Universo alcanzó su nivel más avanzado de organización astronómica: nueve planetas girando ordenadamente en órbitas casi circulares alrededor de una esfera estable y brillante de gas. Es lo más lejos que han llegado los procesos gravitatorios en cuanto a estructurar y organizar la materia. Después de esto, cualquier desarrollo posterior sólo puede tener lugar con ayuda de la fuerza nuclear débil, la fuerte y la fuerza electromagnética y, en particular, las que intervienen en los procesos químicos. Los procesos nucleares proporcionan la energía del Sol. El ingrediente esencial para el desarrollo posterior de la organización de la materia es un desequilibrio termodinámico que, en el caso del Sistema Solar (y en cualquier otro sistema estelar con planetas), es alimentado por el calor producido en el interior del Sol. Este flujo constante de calor controla casi todos los procesos y cambios que ocurren en la Tierra, con la excepción de las mareas y los sucesos volcánicos. La proximidad de un Sol caliente en un Universo frío mantiene un desequilibrio térmico en la Tierra, desequilibrio que es la clave para la formación y mantenimiento de toda la vida terrestre.

No se conoce con precisión cómo y cuándo apareció la vida en la Tierra. En algún momento durante los primeros 1.500 millones de años después de la formación del planeta, uno o diferentes procesos químicos pudieran haber provocado el comienzo de una larga y complicada serie de reestructuraciones moleculares que culminaron con la formación del primer organismo vivo, es decir con capacidad para autoreproducirse. En el año 1953 se realizó un notable experimento en un recipiente de vidrio sellado, en el G. H. Jones Chemical Laboratory, en la Universidad de Chicago. El contenido del recipiente era un líquido caldoso, de color rojo oscuro, que había empezado el experimento siendo agua pura. Se produjo la transformación al haber estado hirviendo constantemente durante una semana, junto con una mezcla de gases venenosos: metano, amoníaco e hidrógeno. Durante aquella semana el contenido del recipiente inició el primer paso en el largo camino hacia la creación de la vida. Dos químicos, Stanley Miller y Joseph Urey, habían intentado un experimento ambicioso y excitante: la simulación de las condiciones reinantes en la Tierra primitiva de hace cuatro mil millones de años.

Se han descubierto restos de organismos vivos en rocas con una edad de 3.500 millones de años, por lo que en algún momento anterior, dentro de una fase de aproximadamente un millar de millones de años, algo sucedió en el ambiente mortífero de la Tierra recién enfriada, similar a lo que había ocurrido en el recipiente de la Universidad de Chicago. La atmósfera de la Tierra estaba constituida probablemente por metano, amoníaco, hidrógeno, vapor de agua y tal vez también otros gases, pero casi seguro que no por oxígeno. Ninguna forma de vida tal como la conocemos hoy en día habría podido sobrevivir en aquellas condiciones tan hostiles.

Miller y Urey no esperaban que en un experimento tan simple se creara vida, un proceso que probablemente tardó millones de años. Lo que encontraron es que, incluso en una sola semana, aparecieron en su caldo primordial muchos de los bloques moleculares básicos que componen las moléculas orgánicas complejas. La técnica que utilizaron fue hervir el líquido del recipiente, permitiendo que el vapor de agua se mezclara con los demás gases y pasarlo por una pequeña cámara donde se le sometía a una descarga eléctrica, simulando los efectos de las tormentas eléctricas en la atmósfera de la Tierra primitiva. Esas descargas suministraban energía necesaria para convertir esos materiales atmosféricos en unidades moleculares pre biológicas.

Desde 1953, muchos biólogos han llegado a la conclusión de que, en un tiempo suficientemente largo, la formación de vida fue inevitable, debido a las condiciones que existían en la Tierra primitiva. Había varias fuentes de energía disponibles para iniciar los reordenamientos químicos necesarios: rayos, calor volcánico, luz ultravioleta del Sol y rayos cósmicos, por ejemplo. La formación de verdaderos seres vivientes está rodeada de muchos misterios, ya que aún queda mucho camino entre las moléculas simples formadas en el aparato de Chicago y la primera molécula con capacidad para auto reproducirse. Una curiosa propiedad que parecen poseer todos los organismos vivientes plantea un verdadero rompecabezas. Cuando se hace pasar luz polarizada a través de sustancias orgánicas obtenidas a partir de seres vivos, la luz gira de una manera característica, que podemos expresar diciendo que esas moléculas hacen siempre girar la luz hacia la izquierda, mientras que las copias artificiales de las mismas moléculas pueden hacer girar la luz tanto hacia la izquierda como hacia la derecha.

En los últimos años los astrónomos se han entusiasmado con el descubrimiento de moléculas orgánicas en el espacio interestelar. Los radiotelescopios han detectado emisiones de más de dos docenas de moléculas bastante complejas del mismo tipo de las que se hallan en los sistemas vivos, incluso se ha encontrado alcohol. Por el momento, y después de muchos estudios y comparaciones, no se comprende aún del todo como se han formado estas moléculas, o cual podría ser su significado general, pero parece que las bases de la naturaleza química de la materia viviente pueden haber existido antes de la formación de la Tierra.

Cuando la primera forma de vida apareció finalmente a partir de sucesivas síntesis de bloques moleculares más simples, probablemente se reprodujo y se extendió rápidamente por el planeta, alimentándose de los constituyentes menos avanzados del caldo primordial. La Tierra era aún un sitio bajo condiciones extremadas, especialmente debido a la mortífera radiación ultravioleta abundantemente producida por el Sol, pero cuando surgieron nuevas formas de materia viviente, empezó una curiosa polución del planeta. La composición química de la atmósfera quedó drásticamente alterada por las actividades de ciertos organismos, precursores de las plantas verdes, que producen oxígeno usando la energía de la luz solar para realizar una reacción química llamada fotosíntesis. Un efecto importante de la llegada de oxígeno a la atmósfera fue la aparición de una capa de ozono, la forma molecular triatómica del oxígeno, a gran altura sobre el aire, que bloquea eficazmente los rayos ultravioletas del Sol. A partir de aquí, quedaba el camino abierto a los organismos para desarrollarse hacia la organización general que observamos hoy día, con plantas que usan la energía de la luz solar para generar tejidos orgánicos y producir oxígeno, y animales que se alimentan de materia orgánica, usando el oxígeno para quemarla y liberar la energía capturada originalmente de la luz solar.

El camino desde la primera molécula orgánica compleja con poder de reproducirse hasta el hombre ha sido largo, con una duración de unos cuatro mil millones de años, un ochenta o noventa por ciento de edad del planeta, y una fracción notable de la edad del Universo. Durante la mayor parte de este tiempo la vida en la Tierra no fue más allá de simples organismos marinos. Sólo en los últimos cuatrocientos o quinientos millones de años algunas criaturas vivas abandonaron el mar y las plantas crecieron sobre tierra firme, aunque una gran parte de este tiempo fue dominado por la vida reptil, como los dinosaurios, que sobrevivieron durante más de cien millones de años. Los mamíferos sólo aparecieron hace ciento cincuenta millones de años y el hombre hace cinco millones de años. La civilización tiene una edad de sólo unos miles de años.

Durante este período inmenso, la Tierra no permaneció inerte: una actividad incesante fue modelando el paisaje formando las cadenas montañosas, los océanos, los ríos y los valles. La corteza terrestre es sólo una fina capa superficial sobre un interior en estado de fusión, con una temperatura central superior a la del Sol en su superficie, lo que provoca una serie de actividades en la superficie de la Tierra, que van desde súbitos cataclismos violentos tales como los terremotos y el vulcanismo hasta los lentos y poderosos movimientos que llegan a aplastar continentes enteros. La idea de que la superficie de la Tierra se mueve, impulsada por fuerzas que surgen de la profundidad del subsuelo es aterradora y alarmante, pero las escalas de tiempo son tan grandes que, en la práctica, estos movimientos no llegan a sobrepasar unos pocos centímetros por año. Los continentes como tales no se mueven a su aire, sino que están ligados a placas continentales que pueden incluir también porciones de suelo oceánico. Se piensa que estas placas están flotando sobre el soporte fluido del manto, por debajo de la corteza. Las regiones de contacto entre ellas son áreas de actividad geológica continua y el movimiento gradual hace que las placas se aplasten una contra otra o se monten una encima de la otra. Esto es precisamente lo que está sucediendo en la falla de San Andrés, en California.

En el pasado remoto, las características de la Tierra eran muy distintas a las de ahora. Hace unos doscientos veinticinco millones de años este movimiento provocó que todos los continentes estuvieran temporalmente juntos, en una sola masa inmensa que los geólogos llaman Pangea. Una especie de supercontinente rodeado por un solo océano, llamado Pantalasa. La formación de Pangea duró millones de años, a partir de masas de tamaño continental que se estrellaron unas contra las otras, impulsadas lentamente pero con fuerza a través de la superficie de la Tierra. Hace cuatrocientos ochenta millones de años, lo que actualmente es Norteamérica embistió a Europa, ondulando la corteza a lo largo de la región de impacto, y formando grandes cadenas montañosas que aún sobreviven en los viejos cerros y montañas graníticos de Escocia y Noruega. Doscientos millones de años después, la placa africana golpeó la masa de tierras Américo-europeas y levantó otras cordilleras, entre las cuales están los Montes Apalaches de Norteamérica. Hace unos ciento ochenta millones de años Pangea empezó a romperse: al principio se partió en dos grandes piezas, Laurasia y Gondwana, formándose posteriormente grandes grietas en Gondwana. Al moverse este último grupo hacia el Norte se estrelló violentamente contra Laurasia y se formó el Himalaya, la cordillera montañosa más grande y espectacular del mundo. La redistribución posterior de los continentes los condujo a su configuración actual.

Recogiendo información de varias disciplinas, la ciencia moderna es capaz de proporcionar a grandes rasgos una descripción del camino que ha seguido el Universo en su evolución, en lentas etapas durante miles de millones de años, desde el fuego amorfo del big bang original a la complejidad del orden actual del mundo. Un análisis de cómo estos procesos de orden continuarán en el futuro proporciona una visión bastante detallada del destino del Universo. Una buena parte de esta visión es necesariamente localista, ya que vemos el Cosmos desde nuestra perspectiva en la Tierra, pero los astrónomos creen en la actualidad que las experiencias del Sistema Solar son típicas de la mayoría de los sistemas estelares en nuestra galaxia y en las demás. Se sabe desde hace mucho que el Sol es la fuente de casi toda la organización y actividad importantes en la superficie de la Tierra, de manera que el destino de una buena parte del Universo queda tipificado por el comportamiento del Sol. Cuando las estrellas como el Sol cesen su función, habrá finalizado para siempre el Universo tal como lo conocemos.

Capítulo IV
Una estrella llamada Helios

Si pudiéramos viajar a la galaxia de Andrómeda y mirar desde allí hacia nuestra galaxia, su apariencia sería parecida a la misma Andrómeda (ver la lámina 12 del libro). El Sol no sería ningún objeto especialmente visible en ese gran conjunto y sólo un telescopio enorme conseguiría revelar su débil brillo entre los millones de estrellas similares. A pesar de lo insignificantes y poco destacables que son las estrellas de tipo solar, el Sol tiene un significado especial para nosotros. Aunque la galaxia es la mayor estructura material, es al nivel de las estrellas que hay la organización más importante. La vida en la Tierra está conectada directa e íntimamente al Sol. Es el desequilibrio termodinámico que resulta de la intensa producción de calor en las estrellas lo que origina los sistemas biológicos en la superficie de nuestro planeta.

Por lo que se refiere a la Tierra, la catástrofe cósmica llegará con la muerte del Sol. Independientemente de lo que le suceda al Universo a largo plazo, nada puede evitar que el Sol se consuma hasta la extinción en el transcurrir del tiempo. Para predecir la naturaleza y la época de esta calamidad local, es necesario comprender por completo la estructura y la evolución del Sol y de las estrellas similares a él. Es una tarea muy difícil, ya que en el interior del Sol ocurren muchos procesos complejos, mientras que sólo podemos ver lo que está sucediendo en su superficie. Afortunadamente, algunas nuevas teóricas y técnicas experimentales han permitido recientemente a los astrónomos construir un modelo muy detallado del Sol, de forma que puede conocerse con bastante fiabilidad el futuro del Sistema Solar y, tal vez, de la especie humana.

Durante siglos y probablemente milenios, la gente ha adorado el Sol como un dios, reconociendo que la existencia de la vida dependía del calor y la luz que proporciona el Sol. La humanidad adquirió una mayor seguridad en sí misma al reconocer esta dependencia y contempló con reverencia su esplendor y brillo al levantarse cada día, viendo como ahuyentaba del cielo a los dioses menores de la Luna y las estrellas. Siglos de adoración al Sol están enterrados en las raíces de nuestra cultura. Muchas fiestas religiosas importantes, algunas de ellas cristianas, son fiestas de adoración al Sol ligeramente disfrazadas e incluso el desarrollo de la ciencia tardó en desterrar la noción de una condición privilegiada del Sol. Copérnico relegó la Tierra a la condición de satélite del Sol, pero entronizó al Sol como centro del Universo. Incluso en el año 1900 es astrónomo holandés J. C. Kapteyn, a partir de un estudio sistemático de estrellas de la Vía Láctea, llegó a la conclusión de que el Sol estaba en el centro del sistema galáctico.

Los astrónomos modernos consideran al Sol como miembro de una clase de estrellas y se ha avanzado en el conocimiento del comportamiento del Sol a partir de un estudio sistemático de la estructura estelar. Tenemos obviamente un interés propio en las propiedades del Sol ya que incluso cambios pequeños podrían ser catastróficos para la raza humana. Recientemente los científicos han llegado a sospechar que las alteraciones en tiempos pasados del calor solar pueden ser las responsables de los períodos de glaciación y de empobrecimiento biológico. Las edades de hielo pueden sucederse con intervalos menores de diez mil años y la civilización apareció en la Tierra hacia el final de la última glaciación. Podemos esperar otra pronto y esperamos que este hecho no marque el final de la civilización. Tanto si las expectativas sobre una futura edad de hielo son inexactas, tal como creen algunos científicos, como si no, nos interesa muchísimo una comprensión correcta del Sol y de su comportamiento. El Sol es un elemento clave para nuestra supervivencia.

Una de las características más destacables del Sol es su estabilidad. Ha existido durante cinco mil millones de años y durante la mayor parte de este tiempo ha existido alguna forma de vida en la Tierra. No ha habido presumiblemente cambios drásticos en el estado del Sol en todo este tiempo, sino la vida habría sido borrada. El Sol no es, por supuesto, inmutable: emite continuamente radiación al espacio, pero parece hacerlo de forma constante. Una situación estacionaria siempre está producida por alguna forma de equilibrio: por ejemplo, un río puede fluir y mantenerse estacionario si es alimentado con agua de sus tributarios al mismo ritmo que la descarga al mar. Sin embargo, igual que un río ocasionalmente se desborda o se seca a causa del desequilibrio entre alimentación y descarga producido por variaciones de la lluvia, en el caso del Sol un desequilibrio en la producción de energía tendría consecuencias drásticas para la Tierra.

Afortunadamente hay un mecanismo estabilizador muy simple para evitar cualquier cambio súbito en el Sol. Puesto que la fuente de energía del Sol es el horno nuclear situado en su núcleo, el ritmo de producción de energía del horno depende de la temperatura del núcleo. Si se produjera más energía, la superficie del Sol no tendría un área suficiente para radiar el exceso de energía hacia el espacio. Como consecuencia, crecería la presión interna, igual que una olla al calentarse. Pero, a diferencia de una olla, el Sol puede expansionarse bajo esta presión y por lo tanto se empezaría a hinchar como un globo. Esto, a su vez, reduciría la temperatura interna, ya que todos los gases se enfrían cuando se expansionan. La producción de energía en el interior se reduciría para acomodarse a la nueva temperatura más baja, volviendo el flujo de energía al punto de equilibrio.

La confianza en el Sol es vital para nosotros y la gente la da por segura. Superficialmente parece que no cambie nunca, pero un examen más detallado revela que en realidad está en un estado de agitación continua. Galileo fue la primera persona conocida en utilizar un telescopio para examinar el Sol (el lector no debe intentar nunca mirar el Sol con unos prismáticos o un telescopio ya que existe el riesgo de quedar ciego). Notó en la superficie una estructura inesperada, aunque ahora sabemos que esta curiosa textura es un signo de que la superficie no es lisa, tal como parece a simple vista, sino que se encuentra en constante ebullición. Cada pocos minutos bolas de gases calientes y blancos suben a la superficie y se enfrían, volviendo a bajar. Esta región de turbulencias se extiende varios miles de kilómetros por debajo de la superficie.

De vez en cuando aparecen estructuras más permanentes en medio de esta ciénaga en ebullición. Son las manchas solares, que pueden llegar a verse a simple vista en condiciones favorables. Los primeros observadores creían ver cuerpos opacos cruzando por delante del Sol, visto desde la Tierra. Algunos astrónomos creían, y todavía hay algunos que opinan del mismo modo, que las manchas solares eran debidas a un planeta, no descubierto aún, situado dentro de la órbita de Mercurio. Este objeto sería extremadamente difícil de ver, incluso con un telescopio, a causa de su proximidad al brillo solar, pero si pasara entre la Tierra y el Sol se destacaría como una pequeña mancha oscura moviéndose gradualmente sobre el fondo del disco solar, fenómeno que ocurre de vez en cuando en el caso de Mercurio y Venus. Fue para observar un tránsito solar de Venus que James Cook navegó hacia el Pacífico en 1796, para llevar a cabo observaciones cuidadosas (el tránsito no era visible desde Europa). El astrónomo del siglo XIX Heinrich Schwabe estaba tan convencido de la existencia de un planeta intramercuriano, que dedicó veinte años a registrar cuidadosamente todas las manchas que aparecieron sobre el disco del Sol. Incluso se ha bautizado este planeta, tanto tiempo buscado, con el nombre Vulcano, en espera de su descubrimiento inminente, pero la existencia de Vulcano no se ha podido comprobar nunca. Se vio que las manchas solares estaban situadas sobre la misma superficie solar, y se sabe en la actualidad que son grandes porciones de gas relativamente frío, con tamaños del orden de miles de kilómetros, burbujeando espasmódicamente hacia la superficie. Las manchas están estrechamente asociadas a vértices magnéticos, tal como se puede deducir de las propiedades de su luz, que revelan la presencia de campos magnéticos intensos a su alrededor. A pesar de que las manchas parecen negras, es sólo por contraste con el blanco color de la superficie solar que las rodean; están a una temperatura de varios miles de grados y emiten luz intensamente.

El origen de las manchas solares es un misterio. Vistas con un telescopio aparecen como si representaran una zona de calma en medio de la turbulencia de la superficie. Un misterio aún mayor es su tendencia a la recurrencia en un extraño ciclo de once años, descubierto por Schwabe y confirmado posteriormente mediante cuidadosas observaciones a lo largo de los años. Alrededor de 1970 hubo un máximo de manchas solares y un mínimo en 1975. Los ciclos están asociados tanto con el número de manchas como con su estructura magnética. Las manchas suelen aparecer en pequeños grupos y duran desde unas pocas horas hasta varias semanas. Galileo fue la primera persona en notar que las manchas se movían a través de la cara del disco solar, de lo que dedujo correctamente que el Sol está en rotación, de una forma poco habitual: la región ecuatorial (media) completa una revolución cada veinticinco días mientras que las regiones polares giran más despacio. Por lo tanto no gira como un cuerpo sólido.

Por encima de la superficie en ebullición, el Sol posee una atmósfera. Sólo puede verse con facilidad durante un eclipse total, cuando el brillo de la superficie principal es ocultado por la Luna. Las observaciones muestran entonces una capa de gas brillante, de color rojizo, de unos miles de kilómetros de espesor, rodeada por un halo intensamente caliente, tenue y filamentoso, que se extiende millones de kilómetros hacia el espacio; en realidad no tiene límites. Es la famosa corona solar, el magnífico espectáculo buscado por los observadores de eclipses y con el que disfrutan los fotógrafos, debido a que un eclipse de Sol es uno de los espectáculos más insospechados y bellos del Universo. Durante un eclipse se pone de manifiesto la verdadera violencia que agita al Sol, cuando se ven erupciones titánicas de gas, levantándose furiosamente desde la superficie del Sol y volviendo a caer de nuevo. Estas «protuberancias» o chorros de gas pueden extenderse millones de kilómetros en el espacio e indican la presencia de virulentas tormentas en su atmósfera por encima de la hirviente superficie solar.

En alguna ocasión brota una erupción de la superficie solar y se produce una fulguración que aparece como una mancha blanca y brillante y dura una media hora, extendiéndose sobre una superficie de millones de kilómetros cuadrados. Su aspecto indica que se ha lanzado al espacio una explosión de radiación energética y los rayos resultantes, constituidos principalmente por protones, barren el Sistema Solar. Cuando llegan a la alta atmósfera de la Tierra, causan intensas tormentas magnéticas y auroras boreales así como perturbaciones en las comunicaciones de radio. Las perturbaciones de la atmósfera solar tienden a estar asociadas con la actividad de las manchas solares; cuando hay muchas manchas el Sol se vuelve muy turbulento. Se conocen otras estrellas que presentan una actividad similar, en muchos casos más violenta que en el Sol. Cuando una estrella pequeña y débil sufre una fulguración, la perturbación es proporcionalmente mayor y aparece a veces como un aumento súbito y dramático de su brillo, que se puede llegar a detectar desde la Tierra, en contraste con las fulguraciones solares, que son relativamente insignificantes.

A pesar de la violencia de toda esta actividad en la inmediata vecindad del Sol, la lejanía relativa de la Tierra, con su envoltura de aire, mantiene la superficie terrestre razonablemente segura de las vicisitudes solares. Sin embargo, puede haber excepciones: por ejemplo, el campo magnético terrestre da algo de protección contra los chorros de protones emitidos por las fulguraciones, desviando esos rayos energéticos hacia los polos. La evidencia paleontológica, sin embargo, muestra que esporádicamente hay inversiones del campo magnético terrestre y que durante períodos de varios siglos la protección magnética puede estar muy debilitada, dejando a la corriente de protones penetrar en la alta atmósfera. Se ha sugerido que la producción de óxido de nitrógeno resultante de este bombardeo puede ser suficiente para eliminar la vital capa de ozono a través de reacciones químicas, provocando que la superficie de la Tierra quede sumergida temporalmente en la radiación ultravioleta siempre presente en el Sol. Esto podría tener consecuencias muy serias para los seres vivientes. Existe alguna evidencia de que especies enteras de animales se han extinguido durante alguna inversión magnética. Recientemente se ha producido la controversia acerca de los posibles efectos perjudiciales de los envases en spray sobre la capa de ozono. Resulta irónico que los desodorantes domésticos puedan resultar tan mortíferos como las fulguraciones solares para la vida en la Tierra.

Durante más de un siglo han abundado las especulaciones sobre las relaciones entre la actividad solar y las perturbaciones terrestres, o incluso catástrofes, tales como terremotos o glaciaciones. Existe alguna evidencia de que el clima es afectado por las fulguraciones solares, a través de algún mecanismo desconocido en el que interviene el campo geomagnético. Se ha discutido recientemente sobre una posible conexión física entre el Sol y la Tierra. Aunque la superficie del Sol tiene una temperatura de sólo unos 6.000 grados, la atmósfera por encima de la superficie solar está tan caliente —cerca de un millón de grados— que una corriente constante de partículas subatómicas, principalmente protones, fluye de esta región energética. Este viento solar incesante barre la Tierra y acopla el campo magnético solar con el terrestre de una forma compleja. De forma que el Sol nos está mandando una brisa constante, puntuada ocasionalmente por ráfagas de las fulguraciones solares.

Es probable que el viento solar sople tanto para bien como para mal de la raza humana, pero la forma precisa en que afecta nuestro clima sigue siendo un misterio. Una idea que se ha sugerido, se refiere a la intrusión de nubes de gas interestelar dentro del Sistema Solar. Ya se ha hablado de estas nubes en relación a la formación de estrellas. Están situadas alrededor de los brazos espirales de la galaxia y tienen masas equivalentes a mil soles, pero desperdigadas en una gran extensión como una tenue mancha con un número de átomos que oscila entre diez a mil por centímetro cúbico. Esta baja densidad sería considerada como un vacío excelente en la Tierra, pero es suficientemente denso para causar tal vez efectos dramáticos. En su órbita alrededor de la galaxia, el Sol se encuentra con un brazo espiral cada pocos cientos de millones de años y durante su estancia en esta región, puede quedar sumergido varias veces en nubes de gas. Durante esta inmersión temporal, el efecto sobre el Sistema Solar sería el de atrapar el viento solar dentro de una «burbuja» e impedirle llegar a la Tierra. El mismo mecanismo operaría para atrapar los vendavales más energéticos de las fulguraciones solares. El resultado de esta «rotura» del viento solar sería la modificación del equilibrio de ionización y, posiblemente, de la capa de ozono, produciendo posiblemente como consecuencia una edad de hielo. Por el momento no lo sabemos, pero a la lista de las posibles consecuencias de una nueva glaciación a gran escala para nuestra civilización, parece que vale la pena intentar comprender estos procesos con más detalle.

Cuando el Sol «ruge con furia», la Tierra parece diminuta y desamparada si la comparamos con las fuerzas enormes de la superficie solar, pero estas fuerzas son pequeñas en comparación con lo que sucede en el interior del Sol, dentro del horno nuclear. Este motor central controla el estado y el comportamiento del Sol, es decir que lo que sucede allí determina tanto el destino del Sol como el de la civilización humana. Una comprensión completa del Sol requiere un conocimiento de su interior y de los procesos que ocurren en el mismo. Esto representa un gran desafío a los astrónomos por que las capas superficiales en ebullición impiden cualquier observación visual directa del interior. Hasta hace poco sólo se podía deducir algo acerca de la naturaleza del núcleo gracias a las matemáticas. Los cálculos usando complicados modelos han ido proporcionando gradualmente una imagen comprensible del interior de muchas estrellas, incluso el Sol. Esto supone examinar las leyes de la física nuclear para determinar los intrincados detalles de todas las reacciones nucleares que pueden tener lugar a varios millones de grados y estimar la forma en que la energía producida por las reacciones se escapa del núcleo hacia la superficie. Se hacen algunas hipótesis sobre la composición química del Sol, la proporción de hidrógeno, helio y pequeñas cantidades de elementos más pesados, que resultan tener un efecto profundo, y se calcula la emanación de toda esta energía en forma de radiación desde la superficie, basándose en el conocimiento de la atmósfera solar. Se incluyen en las ecuaciones otras cantidades conocidas, como la masa total del Sol, y el resultado de toda esta información es un modelo matemático del Sol, de hecho, toda una familia de ellos. Si, por ejemplo, alguien decide que se ha dejado de considerar alguna reacción nuclear importante, puede añadirse al modelo (introduciéndola en el ordenador) y calcularse las consecuencias de la reacción olvidada. Todos estos resultados pueden usarse para calcular las propiedades esperadas del Sol, en particular aquellas a las que tenemos acceso directo en la superficie solar, que pueden compararse con las observaciones.

Con estas bases los astrónomos teóricos han llegado a la conclusión de que la capa del Sol en ebullición se extiende hasta una tercera parte del camino hacia el centro. Por debajo de esta capa la energía fluye más suavemente, en forma de radiación electromagnética. Esta radiación es muy energética (principalmente rayos X) debido a las altas temperaturas del interior, de varios millones de grados. La presión también es alta, de mil millones de kilogramos por centímetro cuadrado.

Los procesos nucleares tienen lugar en un núcleo esférico de varios miles de kilómetros de tamaño. Este núcleo contiene la mayor parte del helio, ya que es el depósito del hidrógeno combustible ya gastado, pero hay opiniones diversas sobre el grado de mezcla del núcleo de helio con los demás componentes. Es aquí, muchos miles de kilómetros debajo de la superficie en ebullición, donde se genera toda la energía. ¿Cómo podemos estudiar este lugar tan inaccesible?

La luz solar no es de ninguna ayuda, ya que el Sol es un plasma con una gran opacidad, igual que la materia cosmológica durante la bola de fuego original. Las partículas eléctricas libres de los gases ionizados interaccionan fuertemente con la luz y la atrapan durante millones de años en la materia densamente empaquetada del interior del Sol, por lo que la luz no puede salir directamente del núcleo. Sin embargo hay algo que puede hacerlo directamente, algo que atraviesa los miles de kilómetros de materia que están por encima como si no hubiera ningún obstáculo: los neutrinos. La energía del Sol procede de la radiación protón-protón, que convierte el hidrógeno en helio y este proceso supone dos transmutaciones de protones en neutrones por cada núcleo de helio sintetizado. Cada transmutación emite en neutrino junto con energía en forma de rayos gamma, positrones, etc. Mientras que la mayor parte de la energía permanece bloqueada dentro de la materia a alta presión durante millones de años, los neutrinos prácticamente no son afectados por esta inmensa cantidad de materia, aunque es mucho más densa que cualquier cosa que podamos producir en la Tierra. Por lo tanto, del centro del Sol sale una lluvia continua de neutrinos directamente hacia el espacio, transportando información directa sobre el estado del núcleo solar.

Si fuera posible detener a los neutrinos y examinarlos, podríamos, en un cierto sentido, mirar directamente el centro del Sol. Tampoco hay escasez alguna: cada segundo el Sol expulsa diez sextillones de neutrinos. Cada centímetro cuadrado de nuestro cuerpo es penetrado cada segundo por setenta mil millones de neutrinos, cada uno de los cuales, ocho minutos antes, emergió de un protón en el Sol. Cada vez que miramos al Sol, pasan más neutrinos por nuestro ojo que personas hay en el mundo. Afortunadamente, son extremadamente insubstanciales: de los setenta mil millones que atraviesan cada centímetro cuadrado de la Tierra cada segundo, sólo unos siete son destruidos por la Tierra y el resto simplemente la atraviesa. Aquí es donde reside el problema. La misma propiedad que hace interesante a los neutrinos —su capacidad de viajar sin obstáculos desde el centro del Sol— supone un obstáculo formidable para su detección. Si la Tierra entera sólo detiene unos pocos, ¿cómo podemos absorber en el laboratorio los suficientes para observarlos?

En un intento de resolver el problema, Raymond Davis, Jr., del Brookhaven National Laboratory, ha estado experimentando con un tanque de 400.000 litros de líquido limpiador en una mina de Dakota del Sur, a mil quinientos metros bajo tierra. Utilizando este equipo y lugar un tanto extraños, Davis pudo estudiar el interior del Sol contando individualmente los pocos neutrinos que fueron detenidos por el líquido limpiador. El líquido es percloroetileno, pero el ingrediente crucial es el «cloro». Un neutrino solitario entre incontables millones puede quedar atrapado en este gran tanque de líquido al colisionar con unos de los neutrones de los núcleos de cloro de los átomos del líquido limpiador. El neutrón se convierte entonces en un protón en una transmutación que es esencialmente la inversa de la que está sucediendo en el Sol. La etapa vital ocurre cuando el protón acabado de crear equilibra su carga eléctrica positiva expulsando un electrón.

La conversión de un neutrón en un protón en el núcleo de cloro convierte el cloro en un elemento químico completamente distinto: argón. Hay por lo tanto un átomo de argón flotando en alguna parte dentro de los 400.000 litros de líquido limpiador. La etapa siguiente es tratar de identificar este único átomo de argón entre el quintillón de moléculas de percloroetileno. Para realizar esta tarea terrorífica, se aprovecha que el argón y el cloro sean muy distintos químicamente; de hecho, el átomo de argón no se combina con el cloro ni con otras sustancias. Esto significa que cuando se vacía el tanque, puede separarse el átomo de argón del líquido limpiador pasándolo por el filtro frío de carbón vegetal.

El problema siguiente es saber cuándo hay un átomo de argón en el filtro, otra tarea terrorífica, pero no insuperable, ya que el argón es radiactivo, con una vida media del orden de un mes. Se desintegra capturando un electrón de cualquier material que lo rodee y se convierte de nuevo en cloro, pero con una diferencia. El núcleo de cloro reconstituido está en un estado excitado, «vibrando» con un exceso de energía suministrado por el neutrino en su impacto y, en última instancia, por el interior del Sol. Al cabo de poco tiempo el núcleo se libera del exceso de energía expulsando uno de los electrones atómicos que orbitan cerca del núcleo. El propósito es detectar este electrón rápido, lo que es una tarea relativamente fácil, porque es capaz de producir un «clic» en un contador Geiger.

Aunque el método de detectar neutrinos puede parecer globalmente complicado en extremo, es satisfactorio sin ninguna duda, siempre que el tanque se mantenga alejado de otras fuentes de reacciones nucleares, tales como los rayos cósmicos. Por esta razón, el experimento se llevó a cabo a un kilómetro y medio bajo el suelo, debajo de un espesor de roca suficiente para absorber todas las radiaciones ionizantes extrañas. Cuando Davis puso en marcha su experimento, esperaba detectar como mínimo unos seis electrones rápidos al día en su contador Geiger. En realidad sólo pudo detectar como promedio una cifra que oscilaba alrededor de uno por día. Esta discrepancia ha sido la fuente de una profunda preocupación para los astrónomos durante un buen tiempo y las explicaciones se han buscado en muchas ramas de la física. Se ha sugerido que posiblemente no comprendemos los neutrinos, o que hay procesos nucleares que han sido olvidados, o, la postura más radical, que nuestra comprensión de la estructura interna del Sol es totalmente errónea y que la temperatura central está muy por debajo de lo que se ha predicho. Aún es demasiado pronto para pronunciarse sobre este misterio perturbador.

Muy recientemente ha surgido la posibilidad de una forma totalmente independiente de estudiar el interior del Sol. Varios grupos de astrónomos han descubierto que el Sol realiza un lento movimiento de vibración. El efecto es muy pequeño, pero detectable con instrumentos especiales, que muestran que la vibración parece realizarse en varias oscilaciones a la vez, una con una duración de 48 minutos y la otra de 2 horas y 40 minutos, que son frecuencias de vibración realmente bajas. Por el momento no hay explicación para estas vibraciones, aunque pueden estar causadas por los movimientos de ebullición de las capas superiores. La importancia de los movimientos vibratorios reside en que los astrónomos podrían hacer con el Sol lo mismo que los geólogos han venido haciendo desde hace tiempo con la Tierra: hacer análisis sismológicos. De la misma forma que la sismología terrestre (el estudio de la propagación de ondas a través del interior de la Tierra) ha permitido establecer una imagen detallada de su núcleo, la sismología solar podría ser una comprobación de las condiciones del horno en el núcleo solar. Con un poco de suerte, esta nueva técnica podría ayudar a resolver el problema de los neutrinos que faltan.

Para la mayoría de la gente el Sol es único, pero para los astrónomos, es sólo una estrella más. Las estrellas pueden ser de distintos colores y tamaños y llevan nombres pintorescos como gigante roja, gigante azul, sub enana, enana blanca. Nuestro Sol está clasificado como estrella enana, aunque no es excepcionalmente pequeña, ya que está entre las mayores enanas que se encuentran en los alrededores del Sistema Solar. Las estrellas enanas pequeñas son, en general, más comunes que las estrellas gigantes, pero las estrellas grandes tienden a ser las más brillantes y por lo tanto son más aparentes. De las 100 estrellas más brillantes que vemos en el cielo, el Sol es la tercera menos brillante intrínsecamente. Estudiando las estrellas como un todo, podemos obtener mucha información sobre la naturaleza, el comportamiento y la historia de nuestro propio Sol. Muchas otras estrellas son bastante distintas del Sol y la vida en un planeta alrededor de algunas estrellas sería muy extraña.

Una estrella interesante es Aldebarán, una estrella brillante y roja situada en la constelación de Taurus, no muy lejos de las Pléyades. Es una gigante roja 200 veces mayor que el Sol. Aldebarán no es en absoluto la mayor estrella que se conoce: Betelgeuse, en la constelación de Orión, es otra estrella roja conocida, que empequeñece a Aldebarán por comparación, ya que es una super gigante, casi tan grande como el Sistema Solar entero y más de 500 veces mayor que el Sol. Está a 650 años luz, diez veces más lejos que Aldebarán, pero aparentemente es algo más brillante porque es mucho más luminosa. Aunque Betelgeuse tiene una masa que es cincuenta veces mayor que la del Sol, está tan distendida que sus capas exteriores son poca cosa más que un vacío caliente y rojo, de forma que no hay una superficie bien definida. Además, Betelgeuse cambia de tamaño de vez en cuando y, a diferencia del Sol, que tiene un núcleo de helio, tiene un núcleo de hierro.

005.jpg
Fig. 5. Diagrama esquemático de la clasificación de las estrellas (escala arbitraria). Los tipos de estrellas pueden caracterizarse por la temperatura (aproximadamente su color) y la cantidad de luz que radian; por ejemplo, las estrellas brillantes y frías, como las gigantes rojas, están situadas en el extremo superior derecho, mientras que las estrellas calientes y poco brillantes, como las enanas blancas, están abajo a la izquierda. La mayoría de las estrellas consumen el principio y la mitad de su vida en un estado que las sitúa a lo largo de la línea oblicua (en la actualidad, el Sol se halla en esta situación): es la fase estable, de combustión del hidrógeno. La posición a lo largo de la línea viene determinada por su masa: las estrellas de gran masa están en la región de las gigantes azules, y las de masa pequeña, entre las enanas. Las demás regiones del diagrama sólo están pobladas cuando las estrellas «ordinarias» han quemado buena parte de su hidrógeno y empiezan a evolucionar, separándose de la línea oblicuo (véase fig. 7).

La estrella más brillante del cielo es Sirio, la estrella del Can Mayor. No es una estrella particularmente grande, pero está muy cerca, a sólo 8,7 años luz. En 1834 el astrónomo Friedich Bessel notó una cosa muy curiosa acerca de Sirio: al estar tan cerca, puede verse como se mueve debido a la rotación general de todas las estrellas de nuestra vecindad alrededor de la galaxia. El movimiento en sí no era inesperado, pero lo sorprendente fue una ondulación poco habitual del movimiento. Bessel adivinó el significado de este movimiento extraño: Sirio debía estar acompañada en su larga órbita galáctica por otra estrella demasiado débil para que él la viera, pero su presencia quedaba sugerida por la perturbación en el movimiento de Sirio. En 1862 las predicciones matemáticas fueron comprobadas y la débil estrella acompañante fue observada por vez primera por Alran G. Clark cuando probaba una nueva lente de telescopio. Por lo tanto Sirio es en realidad una estrella doble: la brillante se llama ahora Sirio A y la débil Sirio B.

Lo que hace tan fascinante a Sirio B es su extrema debilidad. Tiene la misma temperatura que Sirio A, por lo que la única explicación la que la compañera poco brillante es extraordinariamente pequeña, unas cincuenta veces más pequeña que el Sol, o unas dos veces mayor que la Tierra. Sin embargo la masa de Sirio B es aproximadamente igual a la del Sol, lo que sugiere la perspectiva extraordinaria de una estrella con una cantidad de materia equivalente a la del Sol, pero comprimida con una densidad enorme. En la actualidad los astrónomos conocen muchas estrellas altamente compactadas, llamadas enanas blancas. Sirio B, no es en absoluto, la estrella de este tipo más pequeña: se conocen otras que tienen la mitad del tamaño de la Tierra en las que la materia que cabe en un dedal pesaría más de un millón de toneladas.

El rango de tamaños desde Sirio B a Betelgeuse es enorme; las estrellas son realmente objetos extremadamente variados. El Sol es una estrella de tipo medio. Si viajáramos a la siguiente estrella más cercana (a cuatro años luz de distancia, en la constelación del Centauro), el Sol aparecería en la constelación de Casiopea, brillando tanto como la mayoría de estrellas brillantes (estaría mucho más cerca que éstas). Las temperaturas superficiales de las estrellas también varían mucho: algunas son tan bajas como las de un horno industrial, digamos unos 3.000 grados, mientras que otras son mucho más calientes, tal vez unos 40.000 grados. Las frías tienen un color rojo, las calientes son azules. Vega, la estrella brillantísima en la constelación de la Lira, que en Gran Bretaña está justo encima de nuestras cabezas en las noches al final del verano, es un ejemplo de estrella gigante azul caliente, en marcado contraste con las estrellas rojas Betelgeuse y Aldebarán. Las luminosidades también varían mucho, desde las débiles enanas negras hasta la increíble Deneb una super gigante 30.000 veces más brillante que el Sol, que aparece como una estrella brillante en el Cisne a pesar de que está alejada a más de 1.500 años luz.

La consideración del Sol como miembro de una familia de estrellas sitúa la Tierra y el mundo de los asuntos humanos en una perspectiva cósmica apropiada. Existen relaciones bien definidas y sistemáticas que permiten a los astrónomos deducir, mediante observaciones cuidadosas de gran número de estrellas distintas, cómo el Sol llegó a formarse y a alcanzar su estado actual, qué lo hace brillar y mantenerse estable y cómo cambiará en el futuro. En la actualidad se comprenden razonablemente bien los ciclos vitales de las estrellas; lo suficiente, como mínimo, para conocer a grandes rasgos el futuro del Sistema Solar. La astrofísica estelar ha revelado que las estrellas no sólo se forman y evolucionan, sino que también mueren. Esto es una catástrofe inevitable que producirá en el futuro la muerte de la Tierra, una calamidad local menor, que pasará desapercibida para el resto del Universo, pero que marcará el final de la historia terrestre humana. Si todo va bien, el Sol no acabará con nosotros antes de varios miles de millones de años. Si no acabamos con nosotros mismos mucho antes, está claro que la raza humana, con su corto pedigree de dos o tres millones de años, está sólo en el amanecer de su existencia. La situación de la humanidad en el Universo ha sido siempre una preocupación para el pensamiento de la gente. La ciencia moderna ha puesto de manifiesto muchos nuevos puntos de vista para el más antiguo de los misterios, y será el tema del siguiente capítulo.

Capítulo V
Vida en el universo

La materia está organizada a muchos niveles. A gran escala, el primer orden a partir del caos original fue establecido por la aparición de estrellas y galaxias. En la Tierra, la química dio paso a la biología hace unos cuatro mil millones de años, cuando se desató el siguiente nivel de la organización: la materia viva. Entonces, en el pasado muy reciente, se llegó a un tercer gran nivel de organización, mucho más complejo y sofisticado que los dos primeros: el Ser Humano. La actividad intelectual y social del hombre es el nivel de organización más elaborado que se ha observado hasta ahora. Durante siglos la humanidad ha hecho conjeturas sobre la naturaleza de su papel en el gran esquema de las cosas. ¿Tiene el Ser Humano un papel a jugar en el Cosmos en evolución, o estamos aquí de simples espectadores?

Desde Copérnico la humanidad ha aprendido y vuelto a aprender la amarga verdad: la Tierra es sólo un lugar como tantos otros. En la actualidad los astrónomos han llegado a la conclusión de que hay miles de millones de planetas como la Tierra, tan sólo en nuestra galaxia. ¿Podemos aún seguir manteniendo la idea de que aunque la Tierra, el Sol y la galaxia no son especiales, nosotros somos tan especiales? La opinión contraria, de que la vida y la inteligencia es un fenómeno común y extendido por todo el Universo, ha sido sostenida por cantidad de gente desde hace muchos siglos. El poeta romano Lucrecio escribió hace 2.000 años: «Debemos tener fe de que en otras regiones del espacio existen otras Tierras habitadas por otras gentes y animales». En el siglo IV a.C. el filósofo Metrodoro dijo: «Considerar que la Tierra es el único mundo poblado en el espacio infinito es tan absurdo como asegurar que en todo un campo sembrado de mijo, sólo crecerá un grano». La idea de una pluralidad de mundos habitados fue sugerida por Giordano Bruno, lo que contribuyó a su muerte precoz a manos de la Iglesia en 1600.

Los astrónomos han especulado frecuentemente sobre las civilizaciones extraterrestres. El gran astrónomo inglés William Herschel propuso que los demás planetas del Sistema Solar, e incluso el Sol, eran mundos habitados. Más tarde, el 1877, el astrónomo italiano Giovani Schiaparelli utilizó un pequeño telescopio para cartografiar la superficie del planeta Marte y, entre las estructuras abigarradas de la superficie del planeta, creyó ver numerosas rayas rectas «dibujadas con una precisión geométrica absoluta, como si fueran hechas con regla y compás». Llamó a estas marcas «canali» o canales, cuya traducción al inglés sería «channels». El rico astrónomo americano Percival Lowell, que se había graduado recientemente, se apasionó por ese descubrimiento y tradujo la palabra como «canals» (es decir, vías de agua artificiales), proclamando que los «canali» de Schiaparelli eran construcciones de una civilización marciana para la distribución del agua del derretimiento de los casquetes polares hacia las áridas regiones ecuatoriales del planeta. Lowell estableció posteriormente un observatorio en Flagstaff, Arizona, para observar Marte con más atención. Muchos otros astrónomos vieron también los canales de Marte y hasta hace pocos años se dibujaron mapas con complejas redes lineales.

La creencia de la vida en Marte se extendió entre mucha gente. Algunos años después del descubrimiento de Schiaparelli, el brillante escritor y novelista, H. G. Wells, escribió la que es tal vez la mejor conocida y perdurable narración de ciencia ficción. La guerra de los mundos, que describe como un grupo de marcianos, mirando con ojos envidiosos su planeta vecino, viajan millones de kilómetros hasta la Tierra en una nave espacial cilíndrica, y aterrizan en Horsell Common, cerca de Woking, a unos cincuenta kilómetros al sudoeste de Londres. Estas criaturas al salir de la nave atacan a la población local, usando rayos mortales del estilo láser para derrotar a los regimientos de húsares y la artillería que las desafortunadas autoridades han decidido utilizar, con poca eficacia, en su contra. Los extraterrestres finalmente sucumben a los caprichos de los microorganismos terrestres en lugar de a los proyectiles de artillería, pero no antes de producir una destrucción y un terror considerables.

La noción de una invasión terrestre por formas de vida extrañas y belicosas, ha aterrado a la gente desde siempre, y los escritores de ciencia ficción vuelven a este tema una v otra vez. Es un fenómeno bien establecido que cada vez que Marte pasa cerca de la Tierra crece el número de informes de gente que ha visto platillos volantes. La histeria pública sobre una invasión extraterrestre alcanzó el nivel de pánico en 1939, cuando se retransmitió una producción radiofónica de La guerra de los mundos a una audiencia extremadamente crédula de Nueva York. Muchos oyentes interpretaron erróneamente que los siniestros avisos eran anuncios del gobierno sobre una invasión real y se produjo una alarma considerable en toda la ciudad.

Ninguna de las especulaciones primitivas sobre la vida en el Universo estaba basadas en hechos científicos. Incluso las teorías de antes de la guerra acerca del origen del Sistema Solar indujeron a la mayoría de científicos a pensar en la formación de un planeta como un accidente más o menos milagroso. Se pensaba que el Sol había sufrido un encuentro fortuito a corla distancia con otra estrella hace algunos miles de millones de años, a resultas de lo cual las fuerzas de marea habían arrancado glóbulos de materia solar, dejándolos en las cercanías del Sol y convirtiéndose más tarde en los planetas. Como estos encuentros a corta distancia entre estrellas son extremadamente poco frecuente en el Universo, se estimaba que la probabilidad de existencia de otro planeta similar a la Tierra era prácticamente despreciable.

Las teorías modernas del Sistema Solar proporcionan una imagen totalmente diferente. Actualmente se acepta en general que los cuerpos planetarios surgen de forma natural durante las primeras etapas de la formación de una estrella, proceso que se ha descrito en el capítulo 3. Por desgracia no es posible ver planetas alrededor de otras estrellas, incluso con la asistencia de los telescópicos más potentes. La única razón por la que Venus, Marte, Júpiter y Saturno aparecen tan brillantes en el cielo nocturno es su relativa proximidad. Sin embargo, si observáramos el Sistema Solar desde otra estrella, la pequeña cantidad de luz solar reflejada por los planetas quedaría completamente oculta por el brillo del mismo Sol. De la misma forma, no podemos ni ver la débil luz de los planetas alrededor de la estrella más cercana. Sin embargo, es posible detectar indirectamente la presencia de grandes cuerpos planetarios indirectamente, usando el mismo método que Bessel empleó para deducir la existencia de Sirio B. De esta forma, las pequeñas perturbaciones de las órbitas de algunas estrellas cercanas ha revelado la existencia de acompañantes planetarios invisibles.

Los años de la posguerra han sido testigos de grandes avances en la comprensión de las bases bioquímicas de la vida en la Tierra y experimentos como los llevados a cabo por Miller y Urey han animado la creencia entre los científicos de que, dadas las condiciones correctas y una cantidad de tiempo suficiente, la vida se forma inevitablemente a partir de las estructuras químicas básicas que sabemos están presentes en todo el Universo. Los tres ingredientes: planetas adecuados, abundancia de elementos químicos pesados y enormes cantidades de tiempo, están seguramente disponibles en grandes cantidades en nuestra galaxia y más allá. La hipótesis de un Universo, tal vez escasamente, pero sin embargo universalmente poblado con criaturas vivientes inteligentes parece por lo tanto muy natural.

Es en contra de esta fundamentación científica cambiante que se ha enraizado una de las más extraordinarias mitologías de la historia. La gente de la posguerra ha sido fascinada y mistificada por un nuevo concepto provocativo y descarado: la máquina voladora no identificada. A través de la historia se ha dado un significado místico o religioso a los acontecimientos aéreos. La creencia de que seres superiores dominan el cielo ha sostenido una tradición de siglos de que los seres superiores extraterrestres se manifiestan ocasionalmente bajo la forma de un fenómeno aéreo inexplicable. Esta creencia está tan enraizada en nuestra cultura que incluso el impacto de la ciencia moderna sólo ha hecho cambiar la terminología empleada para describir los sucesos inexplicables del cielo.

Para los antiguos, estos seres superiores eran dioses y controlaban los asuntos del cielo con sus poderes. El mismo cielo se identificó con el dominio de los dioses y de las almas escogidas de los muertos. Incluso hoy en día se sigue dignificando a los planetas, el Sol y la Luna con el nombre de «cuerpos celestes». La misma palabra «celeste» o «celestial» tiene el doble significado de «cielo físico» y «divino». Y aunque ya no hay ninguna relación entre la ciencia de la mecánica celeste y las historias bíblicas de coros celestiales, la terminología común refleja una larga tradición de identificación del mundo más allá del cielo con el dominio de los dioses.

Las religiones cristiano-judaicas enseñan que en algunas ocasiones los ángeles son mandados como mensajeros a la Tierra desde los cielos. En la Biblia se pueden encontrar descripciones vividas de individuos casi humanos que descienden del cielo en vehículos poco usuales. El más famoso de estos hechos es el encuentro de Ezequiel con cuatro ruedas volantes llenas de ojos, de las que emergía una criatura parecida a un hombre. Durante toda la Edad Media se hicieron descripciones místicas y pintorescas de acontecimientos aéreos poco usuales. Los cometas, meteoritos, auroras, rayos en bola, todos los fenómenos espectaculares y a veces alarmantes, fueron dotados con un significado que oscilaba desde una inquietud supersticiosa hasta el sincero terror religioso.

Con la llegada de la edad científica, muchos de estos fenómenos aéreos son actualmente explicados satisfactoriamente, aunque hay algunas excepciones notables, como los rayos en bola. Sin embargo la gente en general no está acostumbrada a los acontecimientos muy raros y poco habituales que ocurren de vez en cuando en el cielo, y aún hay disponible mucha materia prima para perpetuar las creencias y supersticiones muy enraizadas sobre los seres superiores del cielo. El cambio más notable que ha caracterizado los años de la posguerra es el uso de la terminología maquinista para describir los fenómenos aéreos poco usuales. De esta forma, los objetos opacos pasan a ser «metálicos», los cuerpos pasan a tener simetrías como las máquinas, y se describen como «redondos», «esféricos», «en forma de disco» o «en forma de cigarro». Los testimonios sobre los objetos no dicen que atraviesan el cielo o que caen al suelo; por el contrario, «vuelan» o «aterrizan». Un comportamiento cinemático complicado es calificado de «maniobras», que incluyen «sobrevolar», «acelerar», etc. Un término conocido universalmente que fue inventado en 1948 por un piloto americano es el famoso «platillo volante», que se aplica hoy en día indiscriminadamente a casi todos los fenómenos aéreos no identificados. Ambas palabras implican un elemento de artificialidad y de control inteligente.

A pesar de lo desagradable que resulta la idea a algunos científicos, la creencia de que máquinas voladoras desconocidas de origen misterioso están operando en la atmósfera terrestre es una idea extendida, duradera y tenaz. No ha desaparecido a pesar de la falta de atención por parte de los científicos. La creencia en los platillos volantes está incluso rodeada por una elaborada mitología, tan compleja y sofisticada como la asociada a los dioses griegos o romanos, o a la manía de las brujas en la Europa medieval. Las librerías tienen gran cantidad de libros semi religiosos, que tratan de explicar los orígenes, las motivaciones y las consecuencias de estos aviadores intrusos. Estos tratados son notables por su inconsistencia y el lector puede escoger cualquier sitio, entre el centro de la Tierra y otra galaxia, como el lugar de procedencia de estas máquinas voladoras.

Es notable que se haya llevado a cabo tan poca investigación científica sobre esta importante mitología tecnológica. Es indudablemente uno de los fenómenos sociológicos más intrigantes de la moderna sociedad industrial. Podría ser muy bien que estuviéramos presenciando el uso del lenguaje tecnológico para describir lo que es, en realidad, el mismo sistema de creencias básicas que caracterizan los primeros años en que se formaron las grandes religiones del mundo. No se ha hecho nunca o casi nunca un análisis del mundo. No se ha hecho nunca o casi nunca un análisis científico sobre máquinas voladores desconocidas. Sin embargo, en la Universidad de Colorado se llevó a cabo un estudio de dos años sobre unos cuantos informes a finales de los años sesenta. Aunque fue imposible explicar una cuarta parte de los informes, dos fueron atribuidos realmente a máquinas voladoras desconocidas, una de las cuales está fotografiada con detalle (¡y, de verdad se parece mucho a una máquina voladora!).

Todo esto demuestra lo intensamente que está enraizada en la sociedad tecnológica moderna la creencia en seres superiores del espacio. ¿Qué bases científicas hay para la existencia de comunidades extraterrestres avanzadas? ¿Puede haber realmente seres superiores en el espacio?

Durante el verano de 1970, un grupo de científicos se reunieron en el Ames Research Center de la National Aeronautics and Space Administration (NASA) en los Estados Unidos. Su propósito era descubrir uno de los temas más excitantes y de más largo alcance de la ciencia moderna: la existencia de vida extraterrestre, especialmente vida inteligente. Si hay vida inteligente en algún lugar del Universo; ¿Cómo sabemos dónde hay que buscarla? ¿Cómo podemos saber su está repartida por todo el mundo? ¿Podríamos comunicarnos y cómo? Las conclusiones de esta conferencia fueron sorprendentes. Puede haber millones de comunidades tecnológicas, sólo en nuestra galaxia, algunas de ellas pensando, tal vez, como contactar con nosotros. El razonamiento para llegar a esta conclusión intrigante está basado en una gran cantidad de especulaciones y deducciones que cubren varias ramas de la ciencia moderna, pero el razonamiento esencial es muy simple. El número de estrellas de la galaxia es tan grande que, aunque sólo una fracción minúscula tuviera planetas donde es posible la vida, habría sin embargo millones y millones de ellos.

La hipótesis central de esta especulación es que la vida se forma y evoluciona en cualquier planeta con condiciones parecidas a la Tierra. Aunque no es del todo seguro, el hecho de que la vida haya aparecido en la Tierra tan deprisa en cuanto las condiciones fueron favorables, hace pensar que la materia viviente puede ser considerada como el paso más o menos automático de las sustancias inanimadas a un nivel de organización superior. Si la materia viviente surge efectivamente de forma inevitable y automática bajo las circunstancias adecuadas, es casi seguro que la vida es muy común en todo el Universo. Parece menos seguro que evolucione hacia la inteligencia al cabo de un lapso de tiempo suficiente. En la Tierra, la inteligencia tiene una alta probabilidad de supervivencia, y se encuentra en otras criaturas a parte del hombre; por ejemplo, en los delfines y las ballenas. Es bastante razonable suponer que en otros planetas también han aparecido criaturas inteligentes. Saber qué fracción de las formas de vida inteligentes establecen comunidades tecnológicas como la nuestra es una adivinanza. Pero el hecho curioso es que estos imponderables tienen muy poca importancia. Un factor diez o parecido en establecer estas probabilidades no afecta en realidad la imagen general de la galaxia llena con muchos millones de comunidades tecnológicas. La cuestión más difícil y crucial, sin embargo, es responder si estas comunidades existen ahora.

En el capítulo 3 se describió como se forman continuamente las estrellas a partir de las nubes de gas y polvo en toda la galaxia. En promedio, durante toda la vida de la galaxia, el ritmo de creación es de unas diez nuevas estrellas por año, pero en realidad el ritmo de formación de estrellas era mucho mayor en el pasado que ahora, y la mayoría de estrellas tienen una edad de varios miles de millones de años. Incluso usando esta cifra media, el equipo de Ames estimó o conjeturó que el ritmo de formación de comunidades tecnológicas en la galaxia es aproximadamente de una cada diez años. A pesar de ser una conjetura, como mínimo este número está deducido a partir de unas bases científicas basadas en la lógica. Los parámetros que determinan el ritmo probable de aparición de nuevas comunidades se deducen de estudios de astronomía, física, bioquímica y biología. Sin embargo, alcanzamos ahora el punto difícil, el imponderable crucial que determina por encima de todo, si la galaxia contiene otra vida inteligente en este momento: ¿Cuánto tiempo sobrevive una comunidad tecnológica media? Es la cuestión más difícil de responder, porque depende de ciencias imprecisas del comportamiento, como la política y la sociología. Una vez más, la única guía disponible es nuestra propia experiencia terrestre. La aparición de una tecnología avanzada en la Tierra ha estado asocia da de cerca con la adquisición de armas de destrucción masiva, mientras que la actividad industrial vigorosa ha estado acompañada de un alto nivel de polución y una rápida expoliación de los recursos materiales. Las inestabilidades sociales, tanto nacionales como internacionales, parecen características inevitables de la súbita metamorfosis de nuestro sistema social en la edad del espacio, con su estilo de vida basado en la ciencia. En resumen, las tensiones sociales y políticas impuestas en la moderna sociedad industrial son tan grandes que, mucha gente, cree que el desastre es prácticamente inevitable.

Nuestra sociedad técnica puede colapsar de muchas maneras: la guerra total, con el uso de armas nucleares, biológicas o químicas es una forma obvia. Otra alternativa es que la sobreindustrialización produzca un nivel insoportable de polución y de deterioro geológico que asfixiaría la tecnología con sus propios productos. La destrucción del orden social bajo las tensiones crecientes debidas a la distribución desigual de la riqueza y de las materias primas, la sobrepoblación y la escasez de alimentos sería otro camino. El problema es que un alto nivel de tecnología requiere una organización social compleja y cada vez más sofisticada para sostenerlo. Se vuelve entonces extremadamente vulnerable a las inestabilidades y desafección por parte de grupos minoritarios. Esto ha sido demostrado dramáticamente en los últimos años por las tácticas de grupos terroristas que pueden producir la destrucción por el simple acto de capturar un avión o volar un oleoducto vital. Si esta experiencia es típica de las sociedades tecnológicas, podría ser que, a pesar de ser la vida abundante en todo el Universo, la tecnología fuera muy poco abundante. Mientras que la inteligencia tiene una alta probabilidad de supervivencia, la tecnología puede ser contraproducente para la supervivencia.

Este difícil problema es precisamente sobre el que gira toda la cuestión de las comunidades extraterrestres, por la causa siguiente. Si los pesimistas tienen razón y estamos a punto de destruir la raza humana mediante algunas de las técnicas descritas, entonces nuestra era tecnológica habría durado unas pocas décadas; en números redondos, digamos diez años. Si este es el número típico, la duración de las comunidades tecnológicas es, en promedio, igual a su ritmo de aparición en la galaxia. Esto significa que, en promedio, sólo existe una de estas comunidades tecnológicas en la galaxia en un momento dado y, en el momento actual, somos esta comunidad única. Estaríamos solos en la galaxia, la civilización técnicamente más avanzada, a punto de alcanzar el final de su vida. Muchos más millones seguirán, al desarrollarse la inteligencia en las formas de vida de otros planetas, luego la organización social y finalmente la mortífera tecnología que las conduce inmediatamente a su desaparición. Millones de sociedades extranjeras tienen que haber existido antes que nosotros, algunas de ellas tal vez especulando de la misma forma sobre el destino de sus vecinos galácticos en el espacio y en el tiempo, pero impotentes para avisar del peligro, sabiendo que la misma tecnología que podría detectar cualquier señal, implicaría necesariamente que se habría alcanzado el borde de la destrucción.

Hay, por supuesto, otra posibilidad más optimista. Puede que una fracción de las comunidades eviten el suicidio tecnológico. Tal vez algunas alcanzan una organización social suficiente para escapar de la destrucción en masa, podría ser incluso que nosotros fuéramos unos de los supervivientes. Si se consigue superar el período peligroso de alta tecnología coincidiendo con una conducta social baja, las comunidades tecnológicas pueden durar millones o incluso miles de millones de años, estando su duración controlada por catástrofes cósmicas naturales en lugar de sociopolíticas.

El Sol es una estrella típica con una edad de cinco mil millones de años. Existen millones de estrellas en la galaxia con el doble de edad. No conocemos el tiempo medio transcurrido entre la formación de una estrella y la aparición de una comunidad tecnológica en un planeta asociado, pero no hay ninguna razón para pensar que la Tierra sea un caso atípico. Cuatro o cinco mil millones de años es la mejor suposición que podemos hacer en ausencia de toda información sobre otras comunidades a parte de la nuestra. Incluso si sólo un uno por ciento de ellas sobrevive la fase tecnológica, la imagen queda totalmente transformada. Por el mismo procedimiento que antes llegamos a la conclusión de que el número de comunidades técnicas en la galaxia en este momento puede ser de varios millones.

Nuestra propia situación es curiosa. En lugar de ser la civilización técnica más avanzada (y, por cierto, la única) de la galaxia, seríamos, con mucho, la más joven. La razón es sencilla: la posibilidad de que muchas comunidades alcancen nuestro nivel de tecnología justo al mismo tiempo es infinitésima. La mayoría deben haber existido durante miles, millones o incluso un número superior de años. En pocas palabras, si no estamos solos en el Universo, los demás son seres superiores. Según este análisis, existen dos alternativas: o bien estamos solos en la galaxia o, por el contrario, si las comunidades técnicas son comunes, somos la más joven. Esta es una conclusión profunda, que podría muy bien afectar nuestra actitud intelectual sobre la posición de la humanidad en el Universo.

Podría haber, por supuesto, grandes cantidades de planetas con vida, incluso vida inteligente, pero sin tecnología, y podríamos incluso llegar a considerar las comunidades no técnicas como las más inteligentes. No podríamos saber nada de estas comunidades sin viajar, o mandar naves espaciales hasta ellas. Por otra parte, si hay otras sociedades técnicas, podrían comunicarse con nosotros de varias formas; por ejemplo, un método directo y simple sería mandarnos mensajes de radio. Este fue el motivo del Proyecto Ozma, en el que se utilizó el radiotelescopio de Green Bank en 1961 para intentar detectar señales radio de nuestros vecinos en algún lugar de la galaxia. El proyecto fue llevado a cabo por el Dr. Frank Drake, un astrónomo americano, que durante una semana estuvo observando dos de nuestras estrellas vecinas más cercanas, llamadas Tau Ceti y Épsilon Eridani. No se detectó ninguna señal, pero, en cualquier caso, la posibilidad de recepción era extremadamente baja.

Una búsqueda mucho más ambiciosa y sistemática en la galaxia podría tener éxito. En 1971 se discutió en una conferencia en el Ames Research Center un sucesor del Proyecto Ozma, llamado Proyecto Cyclops, consistente en una red monumental de unos mil radiotelescopios repartidos por una área de muchos kilómetros cuadrados; un complejo dedicado exclusivamente a la búsqueda de señales de las comunidades galácticas Para poder apreciar las dificultades que debe afrontar el Proyecto Cyclops debe recordarse que la galaxia es un lugar muy grande y que incluso si hay millones de comunidades que nos están transmitiendo ahora mismo señales, esto sólo representa que solamente vale la pena escuchar una estrella de cada cien mil. La densidad media de estrellas cerca del Sol es aproximadamente de una por cada varios años luz cúbicos, por lo que deberíamos intentar observar cada estrella que pareciera adecuada a una distancia de mil años luz para tener una mínima probabilidad de éxito. Algunas estrellas, como las variables, podrían ser omitidas de la lista, ya que es difícil entender como la vida podría sobrevivir cerca de fuentes de luz y calor fluctuantes, pero incluso con estas excepciones es una tarea formidable examinar tantas estrellas.

El problema de localización sería realmente abordable si estuviera claro en que posible frecuencia serían emitidas las señales que pretendemos recibir. Hay un enorme número de canales radio utilizabas que penetran nuestra atmósfera, pero incluso si la comunidad transmisora supiera cuál es la estructura correcta de la atmósfera terrestre, podríamos escuchar la estrella correcta pero sintonizar la frecuencia incorrecta y no enterarnos del mensaje. A primera vista el problema parece insoluble. Sin embargo, en 1959, Guiseppe Coconni y Philip Morrison, del Massachusetts Institute of Technology, hicieron una propuesta que dio una nueva perspectiva al problema de las comunicaciones. La idea básica es que cualquiera que quiera comunicarse con nosotros intentará presumiblemente hacerlo de forma que sea lo más fácil posible para nosotros recibir sus señales. La situación ha sido comparada a la de dos personas en una gran ciudad tratando de encontrarse mutuamente sin haberse citado previamente en ningún sitio. Cada uno se da cuenta que el otro irá a algún sitio especialmente significativo; el ayuntamiento, la estación central de ferrocarriles, etc. Para las comunicaciones radio de un planeta a otro, parece razonable suponer que la comunidad transmisora tratará de escoger una frecuencia de transmisión que tenga algún significado universal para ambas partes. ¿Pero qué frecuencia? ¿Qué tienen en común las galaxias?

Si se van a comunicar por medio de radiotelescopios, tenemos en común la radioastronomía; ellos deben ser capaces de «escuchar» lo mismo que nosotros con estos instrumentos. Lo más fácil parece ser la «canción del hidrógeno», que se «escucha» en todas las galaxias a una longitud de onda de 21 centímetros. Los átomos de hidrógeno invierten ocasionalmente los espines de sus dos partículas constituyentes (el protón y el electrón), lo que produce la emisión de ondas radio. Al ser tan abundante el hidrógeno en todo el Universo, el efecto acumulado de todas estas inversiones de espín, es la creación de un ruido de fondo en los radiotelescopios, que, por cierto, permite cartografiar la distribución de las nubes de gas interestelar en la galaxia. Se desprende de esto que los 21 centímetros son una buena frecuencia universal para comunicaciones, porque sería bien conocida por todos los radioastrónomos, humanos o no. Podría probarse también la frecuencia mitad o doble. Se han sugerido también otras frecuencias naturales, pero la lista total es bastante corta. Se ha calculado que, restringiendo la atención a un número limitado de bandas de frecuencia, el sistema Cyclops podría examinar todas las estrellas hasta unos mil años luz de distancia en treinta años, dedicando quince minutos a cada estrella. Sin ninguna duda esto representa una empresa científica y tecnológica muy grande, de manera que hay que asegurar de que hay una probabilidad razonable de éxito antes de dedicar muchos recursos al proyecto.

Los pesimistas apuntan que, aunque haya millones de civilizaciones extraterrestres capaces de entrar en comunicación por radio con nosotros, no podemos estar seguros de que lo estén intentando. Parece que no hay manera de que sepan de nuestra existencia, excepto si detectan señales nuestras. Las primeras señales de radio artificiales fueron transmitidas en la Tierra en los años veinte, por lo que nuestra presencia sólo podría ser conocida hasta una distancia de unos cincuenta años luz. Parece por lo tanto, muy improbable que haya cualquier mensaje dirigido deliberadamente a nosotros. Una estrategia alternativa para ellos sería transmitir señales omnidireccionalmente, con la esperanza de que alguna sociedad técnica, en un planeta remoto, pueda captar el mensaje. ¿Pero con qué motivación estos seres estarían llenando toda la galaxia con costosas señales por radio durante millones de años? Una vez hayan contactado unos pocos vecinos parece probable que dirijan a ellos toda su atención y sus recursos. Además, la suposición del uso de radiotelescopios para las comunicaciones entre civilizaciones tecnológicas super avanzadas parece excesivamente antropomórfico y localista. El que los radiotelescopios representen la cima de la tecnología terrestre no significa que las comunidades millones de años más avanzadas que nosotros utilicen estos métodos. Pueden disponer de técnicas que nuestra ciencia desconoce por completo. No podemos suponer que el último descubrimiento científico resulte ser el concepto más avanzado en existencia. Las comunicaciones por radio sólo se han usado en la Tierra durante cincuenta años, y en unas pocas décadas podríamos descubrir algo distinto.

A pesar de todas estas objeciones, parece que todavía vale la pena intentar detectar evidencias de vida inteligente mediante búsquedas radio. Mientras que algunas de las críticas anteriores se han podido responder de una forma bastante convincente, las cuestiones de motivación son las más difíciles de contestar. No podemos adivinar el comportamiento predilecto de especies extraterrestres miles o tal vez, millones, de años más avanzadas que nosotros. Incluso en la Tierra, las costumbres y actividades de los colonizadores blancos europeos, resultaban incomprensibles a los indios americanos, por ejemplo. Una comunidad extraterrestre podría estar motivada por estímulos que están infinitamente más allá de nuestra comprensión. Las únicas suposiciones que podemos hacer de su comportamiento son las que parecen estar ligadas a unas bases biológicas o físicas básicas: por ejemplo, cualquier forma de vida que alcance una capacidad tecnológica debe al menos mostrar un cierto nivel de curiosidad para poder alcanzar el progreso científico necesario. Si nos imaginamos que esta sociedad ha sobrevivido además a la crisis tecnológica, lógicamente mostrará consideración hacia las demás. Parece razonable suponer, por lo tanto, que cualquier comunidad extraterrestre capaz, de iniciar comunicaciones interestelares a gran escala tenga a la vez el deseo y la consideración de hacerlo.

Si toda la galaxia está poblada, aunque tenuemente, de comunidades técnicas altamente avanzadas, puede esperarse que la Tierra reciba sus visitas de vez en cuando. Después de todo, si los humanos consiguen navegar por el Sistema Solar al cabo de 200 años de revolución industrial, imaginemos lo que podría conseguir una sociedad con millones de años de experiencia en vuelos espaciales. La perspectiva de una visita extraterrestre es popular, y ha recibido una amplia atención por parte de la gente en los últimos años. El hecho de que podamos mandar sondas espaciales a otros planetas hace que la idea sea muy plausible.

Los entusiastas de la vida extraterrestre han buscado evidencias de naves espaciales que hayan aterrizado en la Tierra en tiempos históricos o que están operando en la actualidad en la atmósfera terrestre. Una teoría popular es que los seres superiores celestiales, considerados como dioses en las culturas antiguas, no son sólo míticos, si no que están basados en hechos reales, debido al contacto con visitantes extraterrestres. Es una idea intrigante, basada en piezas superficialmente convincentes. Muchas culturas tienen una tradición de dioses descendiendo del cielo en vehículos asociados con descargas luminosas o halos y se pueden interpretar fácilmente los dibujos y las descripciones de estos hechos como máquinas aéreas de algún tipo. La descripción de Ezequiel de cuatro ruedas voladoras luminosas de color berilo y llenas de ojos, que daban vueltas al moverse, suena como la descripción perfecta de un platillo volante arquetípico. El profeta Elías es descrito ascendiendo al cielo en un carro de fuego y la estrella de Belén es otro relato bíblico más de un objeto aéreo luminoso. Para la mayoría de la gente estos relatos antiguos son puramente simbólicos, pero algunos escritores los han interpretado como manifestaciones de tecnología extraterrestre. Es curioso pensar qué tipo de evidencia se podría esperar que sobreviviera de un encuentro con seres extraterrestres avanzados. Nuestra tecnología actual aparece como mágica para las tribus primitivas que viven en lugares como Nueva Guinea, de manera que la tecnología de la edad del espacio habría parecido milagrosa para la gente de hace dos o tres mil años, y no sería sorprendente que los encuentros con extraterrestres se hubieran descrito como visitas de ángeles o dioses.

Por desgracia no hay forma de saber si estos encuentros eran puramente simbólicos o reales. No se han encontrado nunca evidencias físicas, como artefactos abandonados, para confirmar la teoría extraterrestre. Existe también el peligro de que cualquier mito o leyenda, desde el yeti a la historia de la Atlántida, gane una credibilidad inmerecida al ser reinterpretada en el lenguaje de las visitas extraterrestres. Debe siempre tenerse en cuenta que cualquier aparición en el cielo era considerada como una manifestación de fuerzas sobrenaturales y que incluso objetos bastantes corrientes, como los cometas o los meteoros, recibían las más embellecidas descripciones.

Volviendo a la idea de que la Tierra está siendo visitada en la actualidad por naves espaciales de otros planetas, no falta la evidencia de testigos visuales para dar soporte a este hecho. Son cientos de miles las personas que han hecho informes oficiales de máquinas aéreas no identificadas. Incluso miles de personas han relatado lo que parecen ser aterrizajes reales de naves extraterrestres, incluyendo en muchos casos descripciones detalladas de sus ocupantes. No hay ninguna evidencia de que los testigos sean mentirosos o víctimas de ilusiones. Los informes están hechos por una muestra bastante típica de la población, que incluye a astronautas en órbita, pilotos y astrónomos. Los gobiernos y las organizaciones militares han recogido y archivado enormes cantidades de informes de este tipo, de los cuales sólo se han investigado unos pocos, sobre todo por oficiales militares. Una fracción importante de los informes más detallados, en particular aquellos con confirmación por radar, permanecen inexplicados. A parte de la investigación de la Universidad de Colorado, los científicos han ignorado por completo estos informes porque están asociados a un apacible histerismo muy extendido sobre la mitología de las máquinas voladoras no identificadas y los seres superiores del espacio. El histerismo se manifiesta en la profusión de clubes y organizaciones entusiastas que están firmemente convencidos de la existencia de esos seres, mientras que las librerías ofrecen cantidad de libros repetitivos que elaboran aún más esta sorprendente mitología.

No hay duda de que el fenómeno social de los informes de la gente sobre máquinas voladoras desconocidas es un misterio desafiante de nuestro tiempo. No hay razón para suponer que durante los próximos treinta años esta costumbre no seguirá como hasta ahora, ni que estos informes lleguen nunca a proporcionar una evidencia real de que las naves espaciales están operando en nuestra atmósfera. Es mejor enjuiciar esta idea provocativa examinando globalmente el concepto de viaje interestelar.

El hombre ha viajado hasta ahora 1,5 segundos luz en el espacio, que es la distancia hasta la Luna. A las velocidades alcanzables en la actualidad por los cohetes, se tardaría varios años en viajar desde la Tierra hasta el borde del Sistema Solar, mientras que para alcanzar incluso la estrella más cercana, a 4,3 años luz de distancia, se necesitaría un viaje de miles de años. Por lo tanto, los viajes interestelares están claramente fuera del alcance de nuestra capacidad tecnológica actual. Sin embargo, la experiencia del pasado sugiere que los avances tecnológicos pueden ser muy rápidos y los logros considerados previamente como imposibles muchas veces se han conseguido más bien pronto que tarde. Lina tecnología extranjera que nos adelante en millones de años podría tener máquinas capaces de viajar a velocidades muchísimo mayores que nuestros pequeños cohetes. Ya que no podemos adivinar el futuro tecnológico ni con cincuenta años de anticipación, no es lógico descartar la posibilidad de visitas extraterrestres sólo sobre bases tecnológicas.

Incluso sin imponer restricciones tecnológicas a nuestra imaginación, es necesario continuar el trabajo dentro del marco de las leyes de la física. Debido a razones fundamentales se piensa que la velocidad de la luz es la mayor velocidad alcanzable en el Universo. Muchas experiencias de laboratorio lo confirman y, a menos que las bases de la teoría de la relatividad, que explican, entre otras cosas, el origen de la energía solar, estén mal concebidas, debe aceptarse que la velocidad de la luz es una velocidad límite para los viajes interestelares. El factor tiempo, por lo tanto, no es un problema grave. Un viaje entre la Tierra y nuestra comunidad tecnológica más cercana sólo duraría seguramente unos pocos cientos de años terrestres. Todavía es más que la vida de un hombre, pero hay razones para no considerarlo como muy importante. Primero, las formas de vida extraterrestre pueden haber alcanzado, natural o artificialmente, una duración de vida más larga que la nuestra. Segundo, las técnicas de hibernación o congelación, probablemente podrían ser usadas durante la mayor parte del viaje. Tercero, y más curioso, hay el famoso efecto de la dilatación temporal. La teoría de la relatividad contiene muchas sorpresas, pero tal vez la predicción más fantástica es que los intervalos de tiempo son relativos al propio estado de movimiento. En pocas palabras, un reloj transportado por una nave espacial que viaja a una velocidad cercana a la de la luz va más despacio que un reloj similar dejado en la Tierra, lo que conduce al extraño efecto llamado la paradoja de los gemelos: un gemelo que viaja a una estrella lejana, al volver encontrará que es más joven que el hermano que se ha quedado. Obviamente, esta «elasticidad» del tiempo permite al astronauta realizar un viaje en un espacio de tiempo de la nave más corto que el lapso equivalente de tiempo de la Tierra para el mismo viaje. Este efecto de dilatación del tiempo se mide fácilmente, directamente transportando relojes alrededor de la Tierra en aviones veloces, o indirectamente, midiendo el crecimiento de la vida media de los rápidos muones creados en lluvias de rayos cósmicos o en aceleradores de partículas. Es un hecho real.

La teoría predice que la dilatación, o alargamiento, del tiempo elástico crece sin límite al acercarnos a la velocidad de la luz. Para la tripulación de una nave espacial, que naturalmente se consideran a ellos mismos en reposo e ingravidez, el efecto se manifiesta como una contracción de las distancias. Por ejemplo, a una velocidad del 99% de la de la luz, la distancia de la Tierra a la estrella más cercana queda reducida a poco más de medio año luz en lugar de cuatro. Sea cual sea la forma de mirarlo, el viaje dura unos pocos meses de tiempo del cohete, pero más de cuatro años de tiempo terrestre. En principio, el efecto de dilatación temporal podría permitir a una persona viajar alrededor de toda la galaxia durante su vida, pero el problema es que volvería cientos de miles de años después de su marcha, encontrando tal vez que la civilización ha desaparecido de la Tierra y nadie recuerda su existencia.

A pesar de las posibilidades prometedoras de la dilatación temporal, debe tenerse mucha precaución al suponer que viajar a una velocidad tan cercana a la de la luz pueda ser una realidad. Para alcanzar un 99% de la velocidad de la luz, debe consumirse una cantidad ingente de energía. Las leyes de la propulsión hacen extraordinariamente difícil alcanzar velocidades para las que la dilatación del tiempo es importante. Esto es debido a que el mismo factor que produce la dilatación temporal también incrementa la masa de la nave, lo que produce un consumo de energía creciente al acercarnos a la velocidad de la luz. Por ejemplo, se puede calcular que un viaje de ida y vuelta con una modesta nave de una tonelada a la estrella más cercana, al 99% de la velocidad de la luz, consumiría tanta energía que toda la vida en la Tierra quedaría aniquilada por la explosión del despegue. Además, debería solucionarse el problema de los efectos terroríficos del impacto con la materia interestelar como los meteoroides: un grano de arena colisionando con una nave espacial a velocidad casi lumínica tendría la fuerza de una explosión atómica.

Todavía es posible imaginar que se podrían solucionar los problemas tecnológicos. El cohete tal vez se podría lanzar desde una colonia espacial con gravedad cero, mientras que los meteoroides se podrían vaporizar con láseres antes del impacto. No hay que descartar, por lo tanto, la posibilidad de llegar alguna vez a mandar una nave espacial a través del espacio interestelar a casi 300.000 kilómetros por segundo. No hay duda, sin embargo, de que una misión de este tipo consumiría una gran cantidad de recursos de la comunidad y que no habría esperanza de que la nave regresase antes de pasar varios centenares de años.

De todo esto se desprende que una visita a la Tierra de una nave espacial extraterrestre sería una experiencia poco común y realmente monumental. Después de dedicar tanto tiempo, dinero y esfuerzo, es probable que la llegada de los extraterrestres sería tratada como un acontecimiento cósmico: el contacto físico entre dos culturas independientes. El mundo entero quedaría profundamente alterado. Esta expectación no parece que se haya cumplido en los cientos de historias de supuestos aterrizajes de naves. Es difícilmente concebible que otra comunidad se embargue en una expedición masiva a través de la galaxia, sólo para aterrizar en un campo de patatas en Wiltshire durante unos minutos y regresar recorriendo una distancia de varios cientos de años luz.

Se ha dicho muchas veces que nuestra existencia en la Tierra no puede ser conocida muy lejos en el espacio. Una civilización extra- terrestre que explore sistemáticamente la galaxia en busca de otras comunidades tendría que visitar miles o incluso millones de planetas parecidos a la Tierra antes de encontrar uno con vida inteligente. ¿Por qué la Tierra tendría que ser la agraciada con una visita si los viajes interestelares son una práctica tan poco común, o incluso no existente? Como respuesta a esta objeción, debe pensarse que la vida ha existido en la Tierra durante más de tres mil millones de años, de forma que la probabilidad de que se haya hecho una visita durante este vasto lapso de tiempo tal vez no es particularmente pequeña. Una vez establecida la presencia de vida en la Tierra, se podría haber informado a la galaxia entera por radio, y la aparición de humanos en este planeta podría haber sido anticipada por muchas comunidades mucho antes de que realmente apareciéramos.

También existe la posibilidad de sondas no tripuladas. Los logros de la micro miniaturización en los últimos años ha abierto la posibilidad de empaquetar computadores extraordinariamente potentes en volúmenes muy pequeños. No parece haber ninguna ley de la física que impida producir, con una tecnología muy sofisticada, máquinas computarizadas comparables con la cabeza humana en tamaño y capacidades. Esto requeriría el uso del almacenamiento de información a nivel molecular, pero, en principio, no hay ninguna objeción a ello. La disponibilidad de tales facilidades transformaría radicalmente la situación: una máquina muy simple de recogida de datos, equipada para buscar e informar de datos vitales acerca de otros sistemas planetarios podría ser más pequeña que un guisante, utilizando fuentes locales de energía con finalidades de señalización. Un procedimiento aún más rentable sería mandar semillas de máquinas biológicas. La idea es que la información para construir un hombre puede ser almacenada en una molécula microscópica de ADN, de forma que la información para construir incluso una máquina biológica bastante compleja podría ser comprimida también hasta dimensiones moleculares. A su llegada a un planeta adecuado biológicamente, esta semilla empezaría a crecer, produciendo todos los instrumentos, ojos, oídos, transmisor de radio, etc. necesarios para un análisis completo y la transmisión de las condiciones locales. La esencia de un viaje espacial eficiente reside en reducir el uso de la energía y materia, evitando así los costos de transporte prohibitivos. Idealmente sólo habría que enviar la información necesaria para construir la maquinaria.

La idea de máquinas biológicas podría parecer descabellada, pero debe recordarse que la Tierra está llena de ellas, bellamente adaptadas a sus tareas individuales. Los cruzamientos genéticos y las mutaciones inducidas artificialmente ya han producido muchos organismos obra del hombre, de los cuales el maíz es un ejemplo obvio. La manipulación genética es una promesa para proporcionar un amplio campo de posibilidades de utilización de materia orgánica para realizar funciones especiales. No hay razón para que no se pueda producir una planta con circuitos eléctricos potentes, similares a los de nuestro cuerpo, pero capaces de suministrar una mayor potencia, que podría ser usada como transmisor radio, sobre todo si crece en forma de una gran antena.

Las posibilidades de exploración de la galaxia disponibles para una civilización que haya adquirido estas técnicas serían enormes. Sondas microscópicas o semillas podrían inundar la galaxia, moviéndose a velocidades casi lumínicas con un consumo de energía razonable y un riesgo despreciable de impacto meteorítico. Al ser tan ligeras, los efectos inerciales podrían ser superados fácilmente durante las aceleraciones o frenados violentos, por lo que podrían ser «disparadas» simplemente al espacio interestelar desde un satélite orbital. Un problema tecnológico importante sería el frenado de los proyectiles a su llegada, pero existen varios recursos disponibles. Las sondas podrían estar cargadas eléctricamente para permitirles girar alrededor de los campos magnéticos del sistema estelar receptor. Pequeñas correcciones de trayectoria durante el vuelo, cerca del destino, podría llevarles a un contacto rasante con las tenues atmósferas planetarias. Si la velocidad fuera, por ejemplo, un 50% de la de la luz, la energía total de movimiento podría reducirse considerablemente convirtiendo parte de la masa en energía láser o de cualquier otra forma, para ayudar a producir un efecto de frenado. Estos problemas tecnológicos seguramente podrían ser solucionados. Incluso, produciendo máquinas biológicas basadas en procesos químicos diferentes, se podrían explorar de esta forma planetas con condiciones tan diversas como Júpiter y Venus. Al cabo de unas décadas se podría obtener un torrente de información acerca de los sistemas estelares cercanos.

Algunas sondas de este tipo pueden muy bien haber llegado a la Tierra. Al ser biológicas, probablemente deben haber sido devoradas al cabo de un tiempo y, en cualquier caso, lo más probable es que pasaran desapercibidas. Es probable que una vez hubiera quedado establecida la existencia de vida en la Tierra, se mandara un equipo más sofisticado para la observación orbital y la realización de una investigación desde la relativa seguridad del espacio exterior. Esta máquina mucho mayor sería probablemente mandada por «correo de superficie» a las bajas velocidades de los cohetes y bajo coste, tardando varias décadas o siglos en llegar. Esto sería aceptable una vez adquirida la certeza de haber encontrado un objeto interesante para su estudio.

Tanto si existen comunidades extraterrestres que han intentado comunicarse entre ellas como si no, parece virtualmente seguro de que en los futuros miles de millones de años, estas comunidades surgirán y se extenderán lentamente por todo el Universo. La capacidad de la vida inteligente para superar las futuras catástrofes cósmicas dependerá del nivel de tecnología y de control sobre su entorno que alcancen estas comunidades. Sólo podemos, por supuesto, tratar de adivinar el futuro de la sociedad tecnológica extrapolando lo que sabemos que es posible, de acuerdo con nuestra comprensión de la física y la biología. Según nuestras ideas actuales parece que existen todas las posibilidades de que la manipulación inteligente a través de la tecnología pueda llegar a ser una fuerza poderosa para la reestructuración del Universo a un nivel local. El destino de la sociedad tecnológica es el menos conocido pero, para nosotros, es el aspecto más relevante del destino del Universo. En el capítulo 9 se explicarán algunas especulaciones sobre este tema. Sin embargo, por avanzadas que se vuelvan las comunidades avanzadas super tecnológicas y sea cual sea su capacidad para reorganizar el Cosmos, un principio físico fundamental asegura que la calamidad final no puede ser evitada nunca.

Láminas
006.jpg

Lámina 1. Las estrellas de neutrones son pequeñas. La enorme densidad de la materia de una estrella de neutrones se ilustra al comparar su tamaño con el de Londres. La masa de la estrella puede ser un millón de veces mayor que la de la Tierra; la gravedad de esa masa engulliría con rapidez a nuestro planeta, relativamente tenue, y lo reduciría a una fina capa de átomos aplastados. Cortesía de Aerofilms Limited.

007.jpg
Lámina 2. Radiotelescopio de Arecibo. Este instrumento gigantesco, situado en Puerto Rico, es utilizado para detectar radioondas procedentes de galaxias alejadas miles de millones de años luz. Si se usara como instrumento señalizador, se podría comunicar con un instrumento similar en cualquier lugar de la galaxia. Cortesía de Arecibo Observatory, Puerto Rico.

008.jpg

Lámina 3. Huellas del bombardeo cósmico. La formación del sistema solar fue testigo de un intenso bombardeo de los planetas por restos rocosos. Esta fotografía de la superficie de Marte muestra un registro de los resultados. En la Luna y Mercurio se pueden ver efectos similares, pero en la Tierra estas marcas de nacimiento han sido borradas desde hace tiempo por la erosión dinámica. Cortesía de NASA.

009.jpg
Lámina 4. Manchas solares. Desde su descubrimiento por Galileo, los astrónomos han venido observando las manchas de la superficie del Sol. La fotografía muestra claramente las regiones centrales oscuras, rodeadas por un halo más brillante. Cortesía del Royal Greenwich Observatory.

010.jpg
Lámina 5. Protuberancia solar. Esta fotografía de una gigantesca protuberancia (erupción de gas) solar ocurrida el 4 de junio de 1946 da idea de la tremenda actividad que tiene lugar cerca de la superficie solar. La mancha brillante representa, con fines comparativos, el tamaño de la tierra. Cortesía del High Altitude Observatory, Colorado.

011.jpg
Lámina 6. Actividad en el Sol. La superficie solar moteada, fotografiada en luz de hidrógeno, muestra la turbulencia de las capas exteriores en ebullición. Los filamentos deshilachados son debidos a protuberancias eruptivas, vistas en relieve sobre el disco solar. Cortesía del Sacramento Peak Observatory.

012.jpg
Lámina 7. Las Pléyades. Este famoso cúmulo de estrellas jóvenes es fácilmente visible a simple vista. La fotografía, tomada con telescopio, muestra las nebulosidades de gas que rodean algunas de las estrellas más brillantes. Cortesía del Lick Observatory.

013.jpg
Lámina 8. Nebulosa del Anillo. Algunas estrellas moribundas expulsan una envoltura, aproximadamente esférica, de gas y forman las llamadas nebulosas planetarias. Ese gas es iluminado por la radiación de la estrella, visible en el centro. Cortesía del Dominion Astrophysical Observatory, British Columbia.

014.jpg
Lámina 9. Gran Nebulosa de Orión. Esta gigantesca acumulación estelar puede verse a simple vista en la «espada» de Orión. Contiene muchas estrellas del tipo T Tauri que se cree que son esferas de gas, el cual está contrayéndose y se halla en fase pre nuclear. Cortesía del Lick Observatory.

015.jpg

Lámina 10. Nebulosa del Cangrejo. Esta nube de gas de la constelación de Taurus representa los residuos de una supernova del año 1054 de nuestra era. El núcleo de la estrella que explotó aún se halla cerca de su centro, en forma de una estrella de neutrones que gira rápidamente y produce pulsaciones regulares de radioondas y ópticas. Cortesía del Yerkes Observatory.

016.jpg
Lámina 11. Gran Nube de Magallanes. Esta mini galaxia es en realidad un satélite de la Vía Láctea. Se le dio ese nombre en honor a Magallanes, quien la descubrió durante su viaje alrededor del mundo. Cortesía del Boyden Observatory.

017.jpg
Lámina 12. Galaxia de Andrómeda. Esta bella galaxia espiral es prácticamente gemela de la Vía Láctea y la única galaxia visible a simple vista. Está bastante cerca, sólo un millón y medio de años luz. Son de destacar los dos «satélites», que aparecen como manchas brillantes en el halo de estrellas que la rodea. Cortesía de California Institute of Technology y de la Carnegie Institution of Washington.

018.jpg
Lámina 13. Galaxia espiral. Esta galaxia se halla en la constelación del Pavo. En la fotografía se observan brazos espirales, formados por estrellas débiles y gas, que se extienden a gran distancia del núcleo de la galaxia. Cortesía del UK Schmidt Telescope Unit del Royal Observatory, Edinburg.

019.jpg
Lámina 14. Campo de galaxias. Este cúmulo de galaxias lejanas, en la constelación del Pavo, está a una distancia de unos tres mil millones de años luz. Todas las estrellas individuales que se ven en la fotografía son miembros cercanos de nuestra propia galaxia. Las puntas de las estrellas brillantes son distorsiones fotográficas. Cortesía del UK Schmidt Telescope Unit del Royal Observatory, Edinburg.

020.jpg
Lámina 15. La galaxia espiral NGC 5457 (=M 101), de la Osa Mayor.

021.jpg
Lámina 16. Antena parabólica del radiotelescopio Mark II, en el Observatorio de Jodrell Bank (Gran Bretaña). Los radiotelescopios han permitido explorar zonas de nuestra galaxia inaccesibles a las observaciones ópticas y descubrir importantes características de los objetos exteriores a ellas.

022.jpg
Lámina 17. Aspecto de la nebulosa denominada Cabeza de Caballo, en la constelación de Orión. Dicha nebulosa constituye un excelente ejemplo de las denominadas nebulosas oscuras.

023.jpg
Lámina 18. Nebulosa Trífida en la constelación de Sagitario (NGC 6514 (= M 20), ejemplo de asociación de nebulosidad luminosa y oscura.

024.jpg
Lámina 19. Nebulosa gaseosa en la constelación del Escudo (NGC 6611 (= M 16), un ejemplo de nebulosa difusa asociada a un grupo de estrellas luminiscentes.

025.jpg
Lámina 20. La radiogalaxia NGC 5128 (Centauro A), una de las primeras radiofuentes que resultaron identificadas como galaxias.

026.jpg
Lámina 21. Torre solar del observatorio de Kitt Peak en el sur de Arizona, Estados Unidos.

027.jpg
Lámina 22. Fotografía del quásar 3C-273.

028.jpg
Lámina 23. Ejemplo de hacinamiento globular en la constelación de Hércules. Corresponde a NGC 6205.

029.jpg
Lámina 24. Galaxia en forma de espiral barrada llamada Nebulosa Norteamericana.

030.jpg
Lámina 25. A) A partir de un nódulo de condensación, se forma una protoestrella, cuyo tamaño puede ser enorme. B) Tras derrumbarse sobre sí misma, queda reducida a estrella normal. La concentración de materia provoca activas reacciones. C) Como consecuencia de las mismas, llega el helio a predominar sobre el hidrógeno. De esta manera se transforma en gigante roja. D) Después experimenta grandes pulsaciones. La transmutación del helio en elementos pesados hace que pierda su capacidad radiante. E) Por último, se derrumba sobre sí misma y queda como una enana blanca, o se forma en su centro una estrella de neutrones.

031.jpg
Lámina 26. Galaxia del Sombrero, ejemplo del tipo SO.

032.jpg
Lámina 27. Júpiter, el gigante, tiene un diámetro de 142.700 kilómetros, lo que le convierte en el planeta mayor del Sistema Solar. La Gran Mancha Roja, con unos 40.000 kilómetros de longitud y 14.000 de anchura, tiene una superficie equivalente a la de la Tierra.

033.jpg
Lámina 28. Isaac Newton a la edad de 60 años, en 1702, copia de un retrato pintado por Godfrey Kneller.

034.jpg
Lámina 29. Acelerador lineal de la Universidad de Berkeley en California. Fue diseñado para poder acelerar partículas pesadas. El diámetro del tubo exterior es de 3 m, lo que puede comprobarse comparándolo con la estatura del operario que aparece de pie al fondo.

Capítulo VI
La catástrofe inevitable

Este libro trata del nacimiento y desaparición del orden cósmico. Se ha dado una descripción del orden a muchos niveles: cosmológico, galáctico, estelar, biológico, intelectual, tecnológico. Con sistemas tan dispares controlados por fuerzas distintas con escalas de longitud y tiempo muy diferentes, podría parecer que es una tarea sin esperanza describir las características comunes o las propiedades sistemáticas de todos estos distintos niveles de estructura. Si no hubiera ningún principio común o ninguna relación conceptual subyacente entre estos niveles, no se podría escribir un relato de conjunto del destino del Universo; se reduciría a una colección de temas de cosmología, astrofísica, geología, sociología, ingeniería, etc. Sin embargo, uno de los logros de las ciencias físicas ha sido el descubrimiento de algunas leyes y propiedades fundamentales, que son de carácter tan general que pueden ser aplicadas a sistemas tan diversos como una estrella y un hombre. A partir de estas leyes se pueden sacar conclusiones muy amplias sobre el destino del Cosmos, basadas en hechos muy generales.

El concepto unificador es el orden, pero la naturaleza de este orden es muy distinta según los niveles. A un nivel cosmológico, el orden significa simplicidad y uniformidad, una expansión suave y uniforme del Universo a gran escala. A los niveles más pequeños, el orden significa organización compleja y la disposición especializada de la materia y la energía, tanto si es una estrella que emite energía en su núcleo y la transmite a las capas superficiales más frías, o una célula viva con sus procesos metabólicos, como si es una comunidad tecnológica que opera en una red de telecomunicaciones interestelares. Se necesita, por lo tanto, una definición matemática del orden, que pueda ser aplicada a todos estos sistemas dispares.

El primer paso para llegar a esta definición se debió sobre todo a los cálculos de los ingenieros. Los industriales del siglo XIX, conscientes del problema de los costes, buscaban un correcto tratamiento matemático de la idea de energía útil. Se sabía desde hacía tiempo que la energía podía tomar muchas formas, química, eléctrica, mecánica, gravitatoria, etc., y que podía convertirse de una forma a otras: por ejemplo, una locomotora de vapor transforma la energía química del carbón en energía mecánica de movimiento. También se sabía que la energía total se conserva siempre cuando cambia de forma. En el mundo real, las máquinas trabajan siempre con una eficiencia menor del 100%, lo que significa que siempre se malgasta algo de energía en cada conversión sucesiva. La energía no desaparece, simplemente se disipa; es decir perdemos su control. En otras palabras, deja de ser energía útil. El calor es una forma de energía, y se han inventado muchos dispositivos para convertirlo en otras formas, como por ejemplo, las turbinas de vapor para generar electricidad. Los físicos y los matemáticos estudiaron cuidadosamente la eficacia de los motores térmicos durante el siglo XIX, y una de sus conclusiones más importantes fue que incluso la eficacia del más perfecto motor térmico tiene que ser siempre inferior al 100%, por lo general considerablemente menor, debido a razones fundamentales de la tísica.

Para comprender esto, es útil considerar un ejemplo concreto, como el calor contenido en un recipiente de agua. Si se coloca el recipiente en una nevera, el agua se helará porque habrá perdido parte de su energía térmica. Si se le devuelve la energía, el hielo se volverá a fundir. El hecho de que un recipiente de agua contenga energía térmica cuando está a temperatura ambiente no es de ninguna ayuda si queremos usar esta energía para algún propósito, como por ejemplo hacer funcionar un motor, ya que el contenido de calor del agua no está en forma útil. Por otra parte, cuando se coloca el recipiente en un entorno frío se puede extraer algo de energía del calor y utilizarla. Por ejemplo, el aire frío alrededor del agua menos fría se calentará y expansionará y podría servir para ejercer una presión sobre una membrana o para mover un pistón. El hecho crucial que hace que la energía térmica del agua sea utilizable cuando está en la nevera, pero no a temperatura ambiente, es la existencia de una diferencia de temperaturas entre el agua y su entorno. Es la no uniformidad en la distribución de la energía térmica lo que permite al calor realizar trabajo. Fuera de la nevera, el contenido del recipiente y de la habitación están a una temperatura uniforme, por lo que no hay ningún flujo neto de calor entre el recipiente y la habitación. Es la expresión de un principio físico simple, pero de gran trascendencia: el flujo espontáneo de calor entre los cuerpos es siempre del caliente al frío. Cuando ambos cuerpos alcanzan la misma temperatura, el flujo de calor se detiene y se puede decir entonces que se ha alcanzado el equilibrio termodinámico. Cuando prevalece el equilibrio, ya no puede haber más cambios útiles sin una interferencia exterior. Por ejemplo, no se puede producir espontáneamente una diferencia de temperatura entre un recipiente de agua y el aire que lo rodea, ya que necesitaría de un flujo de calor desde lo frío hasta lo caliente, para enfriar el recipiente y calentar el aíre, o viceversa.

Este principio general del flujo del calor es conocido como segunda ley de la termodinámica (la primera ley de la termodinámica dice simplemente que el calor es una forma de energía que puede ser convertida en otras formas sin que cambie la cantidad total de energía). Otra forma de describir el contenido de la segunda ley es diciendo que se puede obtener beneficios de la energía térmica cuando está dispuesta de manera no uniforme. Cuando el calor está distribuido uniformemente por todo el sistema se mantiene el equilibrio, pero si está concentrado en un sólo lugar hay un flujo de calor, y el sistema evoluciona y cambia de alguna forma. El cambio continúa mientras haya un desequilibrio termodinámico tal como una diferencia de temperatura. Esto significa que, por lo que concierne al flujo de calor, la esencia de la actividad es el desequilibrio: cuando se alcanza el equilibrio, cesa la actividad.

Debe establecerse una clara distinción entre actividad microscópica y macroscópica. Incluso en equilibrio, hay una actividad microscópica muy intensa, con los átomos moviéndose, colisionando, emitiendo y absorbiendo radiación, pero esto sucede totalmente al azar. No hay ningún comportamiento cooperativo que afecte a grandes cantidades de átomos. Lo que nos interesa es la actividad organizada, que significa realmente actividad macroscópica. Por ejemplo, las corrientes de convección que ocurren dentro de un recipiente de agua que se está enfriando suponen el movimiento cooperativo de millones y millones de átomos en un flujo ordenado. La actividad organizada sólo existe, por lo tanto, cuando hay desequilibrio termodinámico.

Para poder precisar más estas ideas, los físicos han inventado una medida cuantitativa del orden y el desorden para describir el grado de organización macroscópica o de disposición estructurada de un sistema. Esta cantidad recibe el nombre de entropía, que es en realidad una medida del grado de desorganización. A veces es útil pensar en la entropía como desorden, pero vale la pena aclarar un poco más este punto. El uso cotidiano de la palabra desorden puede resultar ambiguo, ya que lo que una persona puede considerar como una disposición ordenada puede ser para otra algo completamente caótico. Un mensaje codificado, por ejemplo, es un revoltijo de letras para el no iniciado, pero es un comunicado inteligible para quien conozca la clave. Por lo tanto, es mejor considerar la entropía como lo opuesto a la información. En general, un sistema ordenado (entropía baja) tiene un alto contenido de información, en el simple sentido de que se necesita una gran cantidad de información para describir su disposición. Por el contrario, para un sistema desordenado se necesitaba poca información. Las propiedades térmicas de un recipiente de agua en una habitación a temperatura uniforme se describen con una sola información: su temperatura común. Es un sistema desordenado, de alta entropía, y el desorden significa aquí «falta de orden». Aunque los átomos estén todos ellos moviéndose caóticamente cuando hay equilibrio macroscópico, el desorden completo significa realmente el cese de toda actividad.

Como ejemplo final, un líquido en el que se ha vertido tinta de color puede tener un aspecto que en lenguaje ordinario calificaríamos de desordenado, pero de hecho tiene un alto contenido de información, ya que las características de su superficie necesitan de una descripción detallada para especificar su disposición precisa. Por el contrario, una vez la tinta se ha esparcido uniformemente, el sistema se ha vuelto muy desordenado, la entropía ha crecido y el contenido de información es muy bajo. De hecho, sólo se necesita una información —la concentración global de tinta— para describirlo. Las propiedades de este ejemplo en cuanto a información se pueden demostrar fácilmente pensando en la posibilidad de codificar un largo mensaje mediante la distribución no uniforme de tinta en la superficie del agua, mientras que cuando está esparcida uniformemente no lleva ninguna información, excepto que la tinta está allí, con una cierta concentración.

Usando el concepto de entropía se puede llegar a una comprensión sistemática de las propiedades organizativas de una enorme variedad de sistemas físicos. Un principio simple y potente, la segunda ley de la termodinámica, limitado inicialmente al estrecho contexto de los motores térmicos, se cree actualmente que es aplicable a cualquier sistema del Universo. Para esta aplicación universal se puede enunciar la segunda ley de una forma muy general: en cualquier cambio que ocurre en el Universo, la entropía total aumenta siempre. Lo curioso de esta segunda ley es que es única entre las leyes fundamentales de la naturaleza. Todas las demás hacen referencia a propiedades de conservación de varias magnitudes durante los procesos físicos. Sólo la segunda ley de la termodinámica se refiere expresamente a la forma en que se alteran irreversiblemente todas las cosas, y por lo tanto es fundamental para la explicación de todos los cambios, tanto si es progreso, crecimiento y evolución, como si es colapso catastrófico y muerte. Proporciona un marco descriptivo para la comprensión de cómo empiezan y terminan todas las cosas, y a través de esto, de la propiedad básica del tiempo, que distingue el pasado del futuro. Aplicando estos principios a escala cósmica, descubriremos cómo el destino del Universo está escrito en la segunda ley de la termodinámica.

Algunos ejemplos sencillos de fenómenos bien conocidos nos darán idea del poder de la segunda ley. Ya hemos visto que la tendencia del calor a disiparse de manera que disminuyan las diferencias de temperatura es un ejemplo del crecimiento de la entropía o del desorden, ya que la distribución uniforme del calor está menos ordenada que cuando se concentra en determinados lugares. En otras palabras, siempre que fluye el calor de lo caliente a lo frío aumenta la entropía. Este era el contexto original de la segunda ley, pero es fácil ver que también es aplicable cuando no hay diferencia de temperatura. Para tomar un ejemplo discutido previamente, si se echan algunas gotas de tinta sobre el agua, al principio están de una forma ordenada pero, a medida que pasa el tiempo, la tinta empieza a diluirse en el agua hasta que se dispersa del todo, alcanzando una concentración uniforme. Se pierde así por completo la información sobre la distribución inicial de la tinta.

Una forma de describir el incremento de la entropía es diciendo que el cambio es totalmente irreversible. Esto no significa que no pueda ser devuelto a su estado inicial, sino que no volverá a su estado anterior por sí solo. Por ejemplo, en el caso de un recipiente de agua que se enfría hasta helarse dentro de una nevera, como es natural se puede volver a fundir el hielo sacando el recipiente de la nevera. Sin embargo, no cabe esperar que se vuelva a fundir si lo mantenemos en un ambiente muy frío (a algunos grados bajo cero de temperatura). La tinta diluida en el agua puede recuperar su concentración local inicial destilando el agua, recogiendo la tinta y vertiéndola de nuevo en el agua, pero la migración natural y espontánea de todas las partículas de tinta al mismo lugar sería considerada, verdaderamente, un milagro.

Continuamente ocurren cambios irreversibles en la vida diaria; la lista es interminable, por lo que sólo daremos algunos ejemplos al azar. Un huevo que se cae al suelo y se rompe, un castillo de arena que desaparece bajo las olas, un muñeco de nieve fundido por el sol; en todos estos casos el sistema inicial ordenado se vuelve desordenado. Se puede volver al orden inicial, pero ello puede resultar extremadamente difícil y depende de la capacidad tecnológica. De acuerdo con la segunda ley, la recuperación de la disposición ordenada original debe ser compensada al menos con un incremento igual de entropía en algún lugar; así, por ejemplo, la reconstrucción de un castillo de arena requiere un consumo de energía por parte del constructor, energía que se obtiene mediante la combustión de moléculas de comida en las células de su cuerpo a través de su metabolismo. El orden alcanzado por la arena queda más que compensado por el desorden sufrido por las moléculas de comida que se desintegran en el proceso. Esto refleja la experiencia general de que, para hacer cualquier cosa en el mundo, se necesita energía. La consiguiente degradación de la energía útil en energía disipada no es más que otro aspecto de la segunda ley.

La imposibilidad de hacer un balance correcto de la entropía conduce a veces a violaciones aparentes de la segunda ley. Por ejemplo, a primera vista, el crecimiento de un cristal parece ser una clara excepción al principio del aumento del desorden. Un cristal es un conjunto de átomos altamente ordenado, que puede hacerse crecer espontáneamente a partir de una desordenada solución concentrada. Un estudio cuidadoso muestra que la formación del cristal produce una cierta cantidad de energía térmica, y que este calor se pierde al disiparse en el entorno del cristal El crecimiento de entropía debido a la pérdida de calor compensa con creces el incremento de orden que representa el cristal.

Tal vez la más obvia contradicción aparente de la segunda ley de la termodinámica, que ha desconcertado a muchos científicos, se refiere a los sistemas vivientes. La evolución gradual de las especies, desde los organismos unicelulares hasta la variedad de formas de vida complejas que observamos hoy en día en la Tierra, parece contradecir directamente el principio de la disminución de la organización. Es esencial una buena comprensión de las bases termodinámicas de la vida para explicar la aparición en el Universo de organismos sofisticados como los seres humanos y para determinar el destino de todos los seres vivos en el futuro. Veremos que todos los sistemas biológicos, e incluso los sociales y tecnológicos, están sujetos al mismo principio de entropía que la materia inanimada.

Los ingredientes químicos de un ser humano se pueden encontrar por poco dinero en el comercio. No hay nada extraño ni extraordinario en las sustancias de que estamos hechos: carbono, hidrógeno, oxígeno y trazas de otros elementos que existen a nuestro alrededor con relativa abundancia. La característica crucial, de un organismo viviente no son sus componentes, sino la forma en que éstos están ensamblados, formando un sistema elaborado, organizado y cooperativo. La bacteria más simple es tan compleja que construir cualquiera de sus partes a partir de las materias primas queda fuera del alcance de los científicos en el laboratorio. Si todas las posibilidades de manipulación al alcance de nuestra tecnología sólo permiten producir unas pocas moléculas orgánicas simples, ¿cómo puede ser que la naturaleza, sin tener acceso a ninguna tecnología, produzca espontáneamente un sistema tan complicado como un ser humano? Cada año aparecen trescientos millones de humanos nuevos en la Tierra, y cada uno de ellos representa un enorme incremento del contenido de información del Universo, ya que la información requerida para producir un cuerpo humano, la disposición de materia y energía más compleja que conocemos, es inimaginablemente grande. ¿De dónde procede toda esta información?

Aunque los científicos frecuentemente han considerado que la materia viva viola la segunda ley de la termodinámica, se puede demostrar que el crecimiento de información en biología queda largamente compensado por la entropía producida en el proceso evolutivo. El origen de la información biológica en los organismos vivos puede reducirse a una combinación de mecanismos de selección, respuesta y mutaciones al azar. Para cada nuevo fragmento de información necesaria para mejorar la complejidad y la sofisticación de una especie particular, el mecanismo de desgaste natural genera una gran cantidad de entropía.

La esencia de la transformación del primer ser viviente en hombre es la evolución. La gran variedad de la vida que observamos en este planeta, con cada especie tan bien adaptada a su particular «nido» ecológico, ha surgido aparentemente a partir de los mismos organismos precursores. Los registros fósiles muestran que hubo una vez un ancestro común entre, por ejemplo, los cocodrilos y los caimanes, las ovejas y las cabras y, lo más polémico, los monos y los hombres. Los registros más antiguos revelan que en el lejano pasado, hace miles de millones de años, los ancestros de todas las ricas formas de vida actuales eran las mismas simples criaturas pequeñas. Es bastante fácil establecer la evidencia de esta lenta transformación evolutiva; lo difícil es explicar cómo sucedió, cómo se supone que la naturaleza sabe que, por ejemplo, el oso polar debe tener el mismo color que la nieve y cómo obtuvo la información para hacer un oso blanco desde el principio.

El experimento de Miller y Urey descrito en el capítulo 3 muestra cómo pueden ensamblarse por accidente las moléculas prebióticas en una semana aproximadamente: cuando se mezclan todos los ingredientes, las combinaciones al azar de las moléculas acaban produciendo aminoácidos y nucleótidos. Aunque el producto final es el resultado de configuraciones al azar de los átomos, el accidente es prácticamente inevitable. Una forma de expresarlo es diciendo que el contenido de información del «caldo» de Miller y Urey era muy bajo y, puesto que las moléculas eran tan simples, no es difícil prever su ensamblaje espontáneo. La naturaleza, por lo tanto, no necesita «saber» mucho para conseguirlo. Por otra parte, un hombre o un oso polar contienen una información muchísimos millones de veces mayor, y resulta excesivo esperar que estos sistemas complejos hayan surgido por mero accidente.

La explicación fue descubierta en el siglo XIX, simultáneamente, por Charles Darwin y Alfred Wallace, quienes argumentaron que la evolución había ocurrido mediante una larga serie de accidentes controlados, de forma que el hombre no surgió de una única transformación súbita, sino de una lenta sucesión de adaptaciones graduales. El principio básico se puede describir fácilmente con ayuda de una analogía. Supongamos que un artista sin experiencia desea hacer un molde de alabastro de un hombre, y sabe por experiencia que al cabo de unas cuantas docenas de intentos puede modelar satisfactoriamente una cabeza, no por virtud de ninguna habilidad artística, sino simplemente por prueba y error. Al cabo de varias docenas de intentos más consigue realizar una pierna correctamente. Muchísimos moldes más tarde consigue finalmente uno con una buena cabeza y una buena pierna a la vez. En este punto, sin embargo, se desanima: puede que esté trabajando años enteros antes de tener la suerte suficiente para conseguir todos los miembros, formados correctamente, en el mismo molde. Entonces descubre una estrategia completamente distinta: trabaja en diferentes moldes por el mismo procedimiento de prueba y error hasta que uno resulta tener un brazo derecho correcto. En lugar de descartarlo por incompleto, hace cien moldes idénticos, todos ellos, como mínimo, mejores que la pila de moldes sin ninguna característica buena. Entonces empieza a trabajar en ese centenar de moldes buenos, rehaciéndolos uno por uno al azar, hasta obtener finalmente uno con el brazo derecho correcto original y también una buena pierna izquierda. Inmediatamente hace cien copias de éste y se pone a trabajar de nuevo. Al cabo de no mucho tiempo de seguir este procedimiento habrá producido un molde perfecto y podrá fundir el hombre de alabastro completo. El principio básico de la nueva estrategia es que, a pesar de que cada elemento del hombre de alabastro ha sido elaborado sólo por accidente, se ha seguido un proceso de selección para preservar las características buenas y descartar las malas. De esta forma, mediante una sucesión de accidentes controlados, se llegó a producir el resultado final perfecto.

Darwin explicó cómo todas las criaturas vivientes están sujetas a remodelaciones aleatorias, llamadas mutaciones. Actualmente se conoce la razón de éstas. La información para construir la criatura está almacenada en una molécula muy larga llamada ADN (iniciales de ácido desoxirribonucleico), que tiene una estructura de doble hélice, formada por millones de átomos unidos en una disposición muy complicada. Las diferencias genéticas entre un elefante y una hormiga pueden seguirse hasta las distintas disposiciones de los átomos en sus respectivas moléculas de ADN. De vez en cuando, sin embargo, algún accidente al azar, como el impacto de una partícula de un rayo cósmico, desplaza algún átomo del ADN y, cuando esto sucede, el descendiente de la criatura será un mutante. En la mayoría de los casos, el cambio será desastroso —la pérdida de un miembro, o un órgano interno mal formado—, pero en contadas ocasiones el accidente producirá un cambio beneficioso. Esto difícilmente puede suceder en circunstancias normales, ya que la mayoría de criaturas están tan perfectamente adaptadas a su existencia particular que difícilmente pueden ser mejoradas. Pero cuando ocurre algún cataclismo, como un cambio de clima, de vegetación, de suministro de agua, o la aparición de nuevos depredadores, entonces la mutación ocasional podría ser beneficiosa. Por ejemplo, al aproximarse una glaciación los mutantes con una coloración menos oscura salen beneficiados, porque se confunden mejor con la nieve y el hielo.

Ahora llegamos al punto crucial: igual que el artista descarta sus moldes imperfectos, la naturaleza descarta sus mutantes imperfectos. La cruda realidad de la supervivencia asegura que sólo los mejor adaptados a las condiciones ecológicas del momento vivan lo suficiente para reproducir y transmitir sus características a su descendencia. Una gacela con tres patas no podría llegar a la edad adulta y reproducir otras gacelas con tres patas, porque sería devorada por un león mucho antes. Sin embargo una gacela con las patas un poco más largas podría tener una ventaja clara en este aspecto respecto a las otras, a causa de su habilidad para escaparse más deprisa. De esta forma, las raras mutaciones ventajosas —accidentes— tienen una ventaja selectiva. Esta selección natural asegura que cada especie se vaya adaptando lentamente muchas generaciones a las condiciones particulares a que está sometida o, en caso contrario, se extinga.

Ya podemos responder a la difícil pregunta de dónde procede la información para construir un hombre. Durante los miles de millones de años que la vida ha existido en la Tierra, millones y millones de pequeños accidentes se han ido preservando y combinando selectivamente, igual que el perfeccionamiento gradual de los moldes. La información ha sido introducida en el organismo por el entorno, a través del proceso de selección natural. El ADN que lleva la información para hacer un hombre contiene todo el registro de la evolución de nuestra especie desde el caldo primitivo. Es una gran cantidad de información, pero la molécula de ADN es tan compleja, que en realidad tiene una capacidad de almacenamiento equivalente a un ordenador de gran tamaño.

Se puede aplicar un razonamiento similar a la sociedad. Cada paso en la construcción de una organización social e industrial más compleja debe quedar compensado por un incremento de entropía en alguna parte. A modo de ejemplo, consideremos la construcción de un sistema de ferrocarriles, en el que la consecución de una red ordenada de comunicaciones, exige a cambio excavaciones a gran escala y la expoliación del entorno. Con el consumo de la industria, los recursos mundiales se agotan irreversiblemente. Como es natural, la vida y la tecnología sólo pueden continuar mientras la entropía del entorno pueda crecer. A causa de esta decisiva limitación, las comunidades tecnológicas deben estar situadas siempre en regiones de desequilibrio termodinámico, que en nuestro caso es el Sol.

Un examen cuidadoso de todos los sistemas que evolucionan hacia un orden cada vez mayor, muestra que en algún otro lugar del Universo se produce como compensación un aumento de la entropía. Esto suscita la cuestión de qué sucede cuando aplicamos la segunda ley de la termodinámica al Universo entero. Si consideramos cualquier región extensa característica del espacio que contenga muchas galaxias, podemos preguntarnos qué consecuencias tiene para su comportamiento y actividad futuros la necesidad de que su entropía crezca siempre. Antes de esto, sin embargo, se ha de resolver una profunda paradoja. La segunda ley exige que en cualquier cambio en un sistema físico se acabe produciendo más desorden que orden, y sin embargo el Universo ha conseguido hacer exactamente lo contrario, creando orden a partir del caos primitivo. Tampoco podemos buscar en otro sitio un incremento de entropía como compensación, ya que el Universo incluye todo lo existente. ¿Significa esto que la segunda ley falla a una escala cósmica? Esta es la cuestión más importante para determinar el destino final del Universo.

Una forma de analizar la paradoja es usar el concepto de información. El Universo es un lugar muy especial, con un enorme contenido de información —información sobre galaxias, estrellas, planetas, seres vivos, inteligencia— pero ¿de dónde procede toda esta información? Evidentemente no estaba presente cuando empezó el Universo, ya que, si la radiación cósmica de fondo es una indicación, la bola de fuego primitiva estaba en equilibrio térmico, que queda descrito con una sola información (la temperatura). De acuerdo con la segunda ley, la información se pierde al crecer la entropía, aunque en la situación del cosmos parece haber aparecido de la nada. No hay duda de que es uno de los enigmas básicos de la cosmología. Para explicar la solución de la paradoja, es útil establecer una analogía entre el Universo y un reloj. Los relojes sólo funcionan si tienen cuerda, y lo hacen durante un tiempo, pero finalmente, de acuerdo con la ley fundamental del aumento de la entropía, se paran. Una forma de expresar este cambio es diciendo que un reloj, al funcionar, ejerce una actividad organizada, en la que los engranajes están en movimiento, las agujas giran, etc.; pero durante el proceso esta actividad organizada se convierte en desorganizada, al disiparse la energía almacenada al darle cuerda debido a la fricción entre sus componentes móviles. La energía reaparece como calor en dichos componentes, pero en esta forma sólo produce la actividad desorganizada de los movimientos atómicos aleatorios. A escala cósmica ocurre un fenómeno similar. Las estrellas, como los relojes, son sistemas organizados, cuya energía almacenada se va disipando lentamente en el espacio a través de la radiación térmica y luminosa. Mientras el Sol brille, su energía es útil, ya que está ordenada. La energía radiada no desaparece, pero se vuelve desordenada al extenderse por el espacio y enfriarse hasta la temperatura del entorno. En esta forma ya no es útil.

Expresando en el lenguaje del reloj, la paradoja del origen del orden del mundo, o de la información cósmica, se reduce a la cuestión de cómo «se dio cuerda» al Universo en un principio. Una condición de equilibrio, en la que cesa toda la actividad organizada, corresponde al reloj sin cuerda, y ésta era la situación del Universo durante la fase primitiva. En las épocas siguientes debió entrar en actividad, pero sólo puede comprenderse el mecanismo mediante un estudio detallado de los procesos que tuvieron lugar en la bola del fuego. Esta es la razón por la que las primeras etapas del Universo son tan importantes para determinar su destino último, ya que fue la época en que «se le dio cuerda». Lo que observamos hoy en día es cómo se le está acabando la cuerda al Universo.

Aunque una explicación detallada del proceso requiere un conocimiento de física más allá del propósito de este libro, se pueden comprender los principios importantes. El mecanismo básico consiste en el movimiento de expansión de la bola de fuego originaría que, de tan rápida, era explosiva en las etapas realmente iniciales. En aquellos momentos el Universo estaba tan caliente que los procesos en la bola de fuego ocurrían muy deprisa; la velocidad de todos los complejos movimientos e interacciones de las partículas crecía sin límite en los momentos más tempranos. Por lo tanto, aunque la expansión era explosiva, era aún muchísimo más lenta que los procesos que ocurrían en el fluido caliente, y era posible que el contenido del Universo se ajustara casi instantáneamente a la expansión, manteniendo de esta forma el equilibrio. Más tarde, sin embargo, al empezar a disminuir la temperatura, los procesos se fueron frenando debido a las condiciones más frías y no pudieron seguir el ritmo de la expansión. En este punto el contenido del Universo empezó a retrasarse, y desde entonces ha ido retrocediendo cada vez más. Precisamente este desequilibrio entre el Universo en expansión y su contenido es lo que constituye el mecanismo de cuerda.

Se puede comprender ahora cómo ha aparecido la información y el orden en el Universo, aparentemente contra la predicción de la segunda ley de la termodinámica. La segunda ley sólo se aplica a los sistemas inalterados y, en el caso cosmológico, la expansión del Universo alteró el equilibrio que prevalecía inicialmente, permitiendo la aparición de nueva información a costa de un aumento de la entropía. Cada vez que aparecen nuevos organismos en el Universo, tanto si se trata de la formación de una estrella como de la evolución de una nueva especie, aparece una cantidad de entropía como compensación en algún lugar. Si se detuviera la expansión del Universo, esta entropía crecería hasta un máximo y el equilibrio prevalecería de nuevo. Pero mientras dure la expansión, no se puede alcanzar el equilibrio y pueden seguir apareciendo nuevos organismos.

035.jpg
Fig. 6. Dando cuerda el Universo. El mecanismo que permitió la aparición del orden a partir del caos original, tiene una clara analogía con el dispositivo del pistón y del cilindro mostrado aquí. El movimiento del pistón representa el Universo en expansión; empieza muy rápidamente y luego va más despacio. El gas confinado debajo del pistón representa la materia cosmológica en la bola de fuego primordial. En (a), el gas está muy comprimido y caliente, de forma que, aunque el pistón es levantado rápidamente, la respuesta de las moléculas, que se mueven con gran velocidad, mantiene la uniformidad y el equilibrio; no aparece ninguna estructura ni actividad organizada; el contenido de información se mantiene bajo. En (b) ocurre lo contrario, el gas expansionado se ha enfriado y se ha vuelto muy tenue y sus moléculas se mueven con lentitud. A pesar de que el pistón (que representa la expansión del Universo) es levantado más lentamente, es ahora mucho más rápido que el tiempo de respuesta que necesita el gas para alcanzar el equilibrio. Por consiguiente, las lentas moléculas del gas estarán intentando siempre alcanzar el pistón que se va alejando. Este retraso se va agrandando cada vez más al proseguir la expansión. El gas ha dejado de ser uniforme y ha tomado una disposición más estructurada, con actividad turbulenta y un alto contenido de información. En el Universo real no hay pistón; la expansión ocurre uniformemente en toda la materia cosmológica. Sin embargo, la idea básica de los procesos microscópicos retrasándose más y más con las condiciones cambiantes, es la misma.

Por desgracia, el mecanismo de cuerda de la expansión cosmológica ya no es tan electivo como era, y en conjunto el Universo se está parando más deprisa que se le «da cuerda». La nueva actividad y el orden causado debido a la expansión son insuficientes para contrarrestar el aspecto general de desintegración y colapso de la organización. Empezando con las estrellas y extendiéndose por todo el cosmos, el declive y caída del Universo será inexorable e inevitable.

Capítulo VII
Destino de
las estrellas

Todas las estrellas se enfrentan a la catástrofe y a la muerte final. Durante miles de millones de años pueden actuar como fuentes de energía libre, pero gradual e inexorablemente se van apagando y va cesando su actividad. Este destino se deduce implícitamente de la segunda ley de la termodinámica, que predice que el desequilibrio termodinámico que mantiene calientes las estrellas mientras el espacio que las rodea está frío no puede durar siempre; más tarde o más temprano se alcanzará una temperatura uniforme. Aunque la segunda ley implica este final inevitable, no hace ninguna predicción sobre la naturaleza de la muerte de las estrellas. Parece bastante evidente que si las estrellas brillan gracias a la combustión nuclear, acabarán por agotar su combustible. Lo que no parece evidente es la variedad de formas espectaculares en que se produce este agotamiento, o la extraña naturaleza de los cadáveres celestes que quedan después de morir las estrellas.

Los astrónomos pueden recurrir a dos métodos para estudiar la muerte de las estrellas: la construcción de modelos matemáticos y la observación directa. El hecho de que podamos observar tanto la muerte como el nacimiento de las estrellas puede parecer sorprendente, pero muchas estrellas son mucho más viejas que el Sol. Además, hay una relación definida entre la duración de la vida de una estrella y su masa. La razón estriba en que las estrellas de masa más grande son más pesadas, por lo que necesitan una mayor presión interna para soportar el peso suplementario de las capas exteriores. Esto a su vez precisa de una mayor compresión y una temperatura más alta (ya que todos los gases se calientan al comprimirlos), lo que hace que el combustible nuclear se queme más deprisa. Además, las estrellas de gran masa tienen normalmente un tamaño mayor, por lo que pueden radiar una gran cantidad de energía desde sus superficies más extensas. Algunas estrellas tienen cien veces la masa del Sol, y su vida puede durar menos de cien mil años.

La primera etapa crítica que marca el comienzo del fin para una estrella es cuando sufre, literalmente, su primer ataque de corazón. El estado normal de una estrella como el Sol es la fase de combustión del hidrógeno. Durante este período la estrella está en una situación muy estable, convirtiendo hidrógeno en helio a un ritmo constante cerca de su centro. El Sol permanecerá en este estado durante otros cuatro o cinco mil millones de años, hasta que se agole el combustible, el hidrógeno, en su región central. El helio acabado de producir se concentra en un núcleo que, como es incapaz de producir energía mediante procesos nucleares, empieza a contraerse bajo su propio peso. Los detalles de lo que sucede a continuación son complicados y dependen parcialmente de la masa y la composición de la estrella, pero el comportamiento general es el mismo. El núcleo, al contraerse, va aumentando gradualmente de temperatura. Aún hay combustión nuclear, pero sólo en una fina capa alrededor del núcleo. El efecto de estos reajustes internos es que las capas exteriores de la estrella se expansionan, enfriándose durante el proceso. Se produce entonces la curiosa situación de que el núcleo de la estrella se comprime y se vuelve más caliente, mientras que la superficie se expansiona y se enfría. El enfriamiento de la superficie cambia el color de la estrella a rojo: la estrella se ha convertido entonces en una gigante roja, como Aldebarán.

En las estrellas de masa relativamente baja, como el Sol, estos acontecimientos van acompañados de un incremento considerable de luminosidad y, aunque el Sol se volverá intrínsecamente más frío, radiará mucha más energía. Al final, será tal vez unas 1.500 veces más brillante de lo que es ahora. El aumento de luminosidad provocará la llegada a la superficie de la Tierra de un mayor flujo de calor, y la vida en nuestro planeta se verá amenazada. Las elevadas temperaturas fundirán rápidamente los casquetes polares, inundando extensas áreas costeras de los continentes, y las temperaturas ecuatoriales se harán gradualmente insoportables para los seres vivientes. Durante muchos millones de años, la evolución seguirá indudablemente seleccionando organismos capaces de soportar temperaturas cada vez más altas, pero finalmente, con los continentes reducidos a desiertos resecos, hervirán los océanos y la atmósfera se llenará de nubes de vapor. Es difícil imaginar cómo podría mantenerse la vida tal como la conocemos bajo estas condiciones hostiles. Tal vez la vida logre mantenerse durante unos millones de años más cerca de las regiones polares, pero no habrá escapatoria posible de la incineración.

Los estudios de otras estrellas, junto con reconstrucciones matemáticas, indican que el Sol se volverá tan extenso que llegará a engullir la Tierra en sus capas exteriores. En cualquier caso, mucho antes de que esto sucediera, la Tierra se habría volatizado lenta pero inevitablemente. El planeta que ha hospedado varios miles de millones de años de vida habrá desaparecido para siempre.

Si los descendientes de la humanidad todavía habitan la Tierra en esos días, conocerán la inminencia del desastre. Las primeras etapas de la expansión solar son muy lentas y duran varios cientos de millones de años. Posteriormente el proceso se acelera, hasta que la estrella llega a la etapa de gigante roja y entra en una fase de evolución rápida y espectacular. Es dudoso que la vida pueda sobrevivir en cualquier lugar del Sistema Solar durante esta fase siguiente. La tranquila estabilidad que caracterizaba la historia anterior del Sol habrá dado paso a cambios catastróficos nada apropiados a la vida biológica, aunque la inteligencia artificial podría continuar sin duda en los planetas exteriores, como Plutón.

El origen de estos cambios debe buscarse en el núcleo en contracción del Sol. Al irse añadiendo cada vez más helio al núcleo desde la capa de combustión de hidrógeno, crece el peso del núcleo, y para soportar este peso adicional debe aumentar la presión central. Durante un tiempo esto se consigue mediante el proceso de contracción, que eleva la temperatura central: al crecer la temperatura, la presión hace lo mismo. Sin embargo, cuando la densidad del núcleo llega a ser unas mil veces la del agua, ocurre un nuevo fenómeno extraño: la materia altamente comprimida del núcleo se vuelve extraordinariamente rígida. La razón de esta súbita rigidez está relacionada con un sutil efecto mecánico cuántico relacionado con las propiedades microscópicas de los electrones del núcleo.

Los físicos han descubierto que hay dos tipos distintos de materia, con propiedades bastante distintas. Las diferencias pueden atribuirse al comportamiento de las partículas individuales de materia. Se sabe desde hace tiempo que las partículas subatómicas de la misma variedad son indistinguibles —todos los electrones, por ejemplo, son idénticos—, excepto en un aspecto. En los años 20 se descubrió, a partir de un estudio de los espectros atómicos, que los electrones pueden existir en dos estados distintos, aun cuando su movimiento sea idéntico. Por lo tanto, la diferencia entre ambos estados no puede ser una propiedad del tipo de movimiento que tengan, sino que debe residir en alguna propiedad interna de la partícula. Un análisis más detallado ha revelado que esta propiedad interna es, en muchos aspectos, algo parecida a una rotación; los electrones, en cierto sentido, están girando sobre sí mismos. Este giro o spin, sin embargo, es un fenómeno peculiar que se diferencia en dos aspectos cruciales del giro de, por ejemplo, la Tierra. La primera propiedad enigmática es que el electrón tiene que girar dos vueltas completas —y no simplemente una— para volver al mismo estado inicial. Esta noción paradójica fue mencionada en la página 34 en relación con los neutrinos, y es muy difícil imaginarla correctamente. Sin embargo, se le puede dar una descripción matemática clara que concuerda con la idea teórica de una rotación; también se puede medir experimentalmente de forma directa. La segunda peculiaridad del spin del electrón procede de las leyes de la mecánica cuántica. Mientras que el eje de rotación de un cuerpo ordinario que esté girando puede tener una dirección cualquiera, el electrón, sólo puede girar en una de dos direcciones, que se pueden describir gráficamente como «arriba» y «abajo».

La limitación del giro del electrón a dos direcciones permite explicar la propiedad de doble estado observada en los espectros atómicos; es una propiedad compartida también por los protones, los neutrones y los neutrinos. La teoría cuántica no sólo limita las posibles direcciones del giro o spin, sino que fija también su magnitud: el spin sólo puede valer múltiples enteros de una unidad básica. Los electrones y los protones, por ejemplo, tienen una sola unidad de spin, mientras que el fotón de luz y algunos mesones pesados tienen dos unidades. Mientras que el gravitón tiene cuatro unidades, algunas partículas, como el pión, no tienen ningún spin. Aquí es donde resulta importante la división en dos clases de materia. Sucede que las propiedades de la materia constituida por partículas con un número par de unidades de spin, o sin spin, son muy distintas de la materia hecha de partículas de spin impar. En especial, las partículas de spin impar no pueden ser apretadas unas contra otras fácilmente, propiedad que se deduce de un famoso principio descubierto por el físico Wolfgang Pauli y conocido como principio de exclusión.

El principio de exclusión de Pauli no sólo rige el destino de las estrellas, sino que es la base de toda la estructura atómica y de la química. Establece que dos partículas de spin impar del mismo tipo no pueden ocupar el mismo estado, lo que viene a significar que no se pueden poner juntos dos electrones en la misma región del espacio. Por esta razón, los electrones de los átomos se amontonaron alrededor del núcleo en capas, de forma parecida a las pieles de una cebolla. Si el principio de exclusión dejara de funcionar, las capas se derrumbarían y la química sería imposible. Esto significa que la misma rigidez que sostiene las capas electrónicas en el átomo soporta también el peso del núcleo de helio de una estrella que está envejeciendo.

Los físicos llaman «presión de degeneración» a la rigidez cuántica debida al principio de exclusión, para distinguirla de la presión térmica ordinaria. Para las partículas de spin par no hay presión de degeneración —por ejemplo, se pueden poner juntos un número cualquiera de fotones—, y ésta es la razón por la que la luz puede formar ondas. En el núcleo de una estrella, la presión de degeneración tiene el efecto de parar la lenta contracción e influir en la estabilidad de la estrella. A diferencia de la materia ordinaria que disipa rápidamente la energía que se va produciendo, la materia degenerada extraordinariamente rígida retiene la energía hasta que se alcanza una temperatura tan enorme que desaparece la presión de degeneración. De esta forma se alcanzan las condiciones para que la gigante roja se convierta en una bomba monstruosa.

Mientras la temperatura del núcleo de una gigante roja se mantenga por debajo de los ochenta millones de grados, no se enciende la mecha. Sin embargo, si la temperatura alcanza en su lenta subida este nivel crítico, se inicia una nueva reacción nuclear: la fusión del helio. De la misma manera que el hidrógeno actúa como combustible nuclear al fusionarse para formar helio, el helio puede a su vez fusionarse para formar núcleos más pesados, especialmente carbono, que puede producirse como resultado directo del encuentro simultáneo de tres núcleos de helio. La energía necesaria para vencer su repulsión eléctrica es varias veces mayor que para los núcleos de hidrógeno (protones), ya que intervienen más partículas eléctricas (seis en vez de dos), razón por la que se necesita una temperatura tan alta.

La combustión del helio es menos activa que la del hidrógeno, pero sus efectos son mucho más dramáticos, a causa de la inestabilidad del núcleo de helio degenerado. Tan pronto como empieza la combustión del helio, la temperatura del núcleo sube de golpe, ya que la materia rígida es incapaz de expansionarse lo bastante deprisa para absorber el súbito incremento de energía que se produce. Entonces la elevada temperatura enciende todo el núcleo en el espacio de unos minutos, en una especie de destello estelar. El destello del helio hace aumentar la producción de energía de una estrella unos cien mil millones de veces, lo que sería completamente catastrófico si no ocurriera en un lugar enterrado bajo miles de kilómetros de materia. El peso de las capas superiores de la estrella amortigua la explosión, y en unos segundos la situación vuelve a estar bajo control. Toda la energía se disipa en trabajo sobre el núcleo dilatándolo de nuevo a un estado normal en el que ya no hay presión de degeneración. El efecto de este espasmo en el corazón de la estrella cambia por completo su estructura interna y su desarrollo posterior, produciéndose una nueva fase de combustión del helio y del hidrógeno. En el caso del Sol, la luminosidad se estabilizará durante esta nueva fase a unas cien veces su valor actual, y su color cambiará de rojo a azul, indicación de una temperatura superficial varios miles de grados más caliente que la actual. El Sol será entonces una gigante azul. Durante esta época la superficie de Plutón estará a una temperatura similar a la actual de la Tierra.

La evolución de todas las estrellas es parecida a grandes rasgos, aunque los detalles individuales pueden variar mucho. En particular, la duración de la fase de combustión del hidrógeno depende mucho de la masa de la estrella: las estrellas de masa muy pequeña pueden tardar mil veces más que el Sol en alcanzar la etapa de gigante roja. Incluso algunas estrellas pueden no llegar a alcanzar nunca una temperatura interna suficiente para encender el destello del helio, y simplemente se irán enfriando. Sean cuales sean los detalles o la duración de su evolución, todas las estrellas están sujetas a la segunda ley de la termodinámica, según la cual la combustión no puede seguir indefinidamente; al final tiene que llegar el momento de la muerte de la estrella. Los estertores de la agonía pueden ser más o menos violentos según las circunstancias. La mayoría de estrellas de masa moderada pasarán de la fase de combustión del helio a una sucesión de reacciones nucleares complicadas, dando lugar a elementos cada vez más pesados en una secuencia de capas. Hay, por lo tanto, una tendencia general de las estrellas a volverse más calientes. Cada elemento sintetizado más pesado necesita un combustible nuclear más pesado, con una producción de energía cada vez más baja y una barrera eléctrica nuclear más alta a vencer. En consecuencia, se necesitan temperaturas cada vez más altas para iniciar las combustiones nucleares cada vez menos activas. Es como una hoguera que empezara quemando parafina, luego madera, y que finalmente tuviera que contentarse con hojas húmedas; todos son combustibles, pero se necesita un fuego más violento para encender los combustibles menos inflamables

036.jpg
Fig. 7. Vida y muerte de una estrella ordinaria. A pesar de que los detalles individuales pueden variar mucho, el diagrama sirve para mostrar la evolución de las estrellas enanas ordinarias, como el Sol. La estrella empieza como una nube de gas en contracción (estrella T Tauri) y luego su actividad se estabiliza durante varios miles de millones de años. Luego se dilata y se traslada hacia la parte derecha del diagrama, convirtiéndose en una gigante roja. Después del destelleo del helio se mueve rápidamente hacia la izquierda y se transforma en una estrella azul caliente, tal vez pulsante o que lanza al espacio capas de gas. Finalmente, cuando se ha agotado todo el combustible nuclear, se enfría hasta convertirse en una enana blanca, que al cabo de mucho tiempo se apaga gradualmente y pasa a ser una enana negra. El ritmo de evolución de la estrella depende completamente de su masa (y por lo tanto de su posición en la línea oblicua). Las estrellas de gran masa de la región de las gigantes azules se dilatan y transforman en supergigantes rojas muchos miles de veces más deprisa que el Sol.

Al completarse cada etapa de combustión, el núcleo de la estrella se contrae aún más para mantener el vital equilibrio entre la presión y el flujo de energía. Cada vez que se acaba la energía de la estrella, debe empezar a contraerse bajo su propia gravedad hasta que la temperatura es lo bastante alta para quemar el combustible que esté disponible. Cuando se empiezan a quemar elementos como el oxígeno, la temperatura se acerca a los mil millones de grados, unas cien veces más caliente que el centro del Sol en su estado actual.

Cuando la temperatura sube por encima de los mil millones de grados, aparece una nueva forma importante de inestabilidad. Las condiciones son entonces comparables a la bola de fuego primitiva de un segundo, el final de la era leptónica. En esta etapa la temperatura es tan alta que la energía de radiación es en forma de rayos X. La energía es suficiente para producir pares electrón-positrón a través del proceso de creación de materia, y algunos de los pares se aniquilan de nuevo y producen un par neutrino-antineutrino. Otros procesos producen también neutrinos: en uno de éstos, el núcleo de la estrella se vuelve literalmente radiactivo y empieza a desintegrarse a través de la emisión de neutrinos.

El efecto combinado de todos estos procesos es el transporte de grandes cantidades de energía fuera del centro de la estrella. La razón estriba en la increíble capacidad de penetración de los neutrinos, la mayoría de los cuales pasan directamente a través de las capas exteriores de la estrella y se escapan al espacio. Esta pérdida de energía desde el centro acelera los procesos nucleares y provoca la subida de la temperatura interna, mientras que el núcleo de la estrella se contrae cada vez más deprisa para compensar con la gravedad la disipación acelerada de la energía de la estrella, Pero cuanto más elevada es la temperatura, más neutrinos se escapan al espacio. La estrella llega entonces a un estado de gran crisis. Al aumentar la temperatura, se acelera el ritmo de contracción. Mientras los cambios evolutivos después del destello del helio duran millones de años, la estrella ahora modifica apreciablemente su estructura interna en unos pocos meses. Todo está a punto para la siguiente catástrofe, pero a un nivel mucho mayor que la primera.

El destino de la estrella es ahora incierto, y el factor determinante es la física nuclear. El suministro de energía de los procesos nucleares no puede seguir indefinidamente; al final se alcanza una forma de equilibrio, cuando los núcleos llegan al estado más estable y densamente ligado y se ha extraído la máxima cantidad de energía de los procesos de síntesis nuclear. En este punto se forman elementos como el hierro. Aunque se pueden producir núcleos más pesados que el hierro, necesitan un aporte neto de energía para su síntesis, de forma que no añaden calor al horno nuclear. Cuando la temperatura es de unos tres mil millones de grados, se suceden una gran cantidad de reacciones nucleares. Se establece una especie de equilibrio termodinámico, en el que se producen todo tipo de núcleos de forma equilibrada. La mayor parte del centro de la estrella se convierte rápidamente en hierro, con algunos elementos muy pesados producidos en pequeñas cantidades por la captura de neutrones descarriados.

Estos procesos nucleares han sido todos estudiados con gran detalle mediante cálculos por computadora y modelos matemáticos y, en particular, se han hecho estimaciones de las abundancias relativas de los distintos núcleos producidos. De esta forma se sabe que las condiciones en el centro de la estrella van más allá de cualquier cosa alcanzable en el laboratorio, con una temperatura mil veces más alta que en el centro de una bomba de hidrógeno y una presión billones de veces mayor que en el fondo del océano más profundo de la Tierra.

Cuando el núcleo empieza a contraerse cada vez más deprisa, la temperatura no tarda en llegar a los ocho mil millones de grados, con lo que se produce un efecto notable. El hierro, sintetizado con tantos esfuerzos a lo largo de millones de años, no puede resistir esta temperatura tan alta y los núcleos empiezan a romperse bajo el efecto de los rayos gamma, cada vez más activos. En cuestión de minutos, casi todo el hierro se vuelve a desintegrar en helio, con el resultado de que toda la inmensa cantidad de energía generada al producir los elementos pesados debe ser devuelta.

Ha llegado el momento del «juicio final»: hay una pérdida de energía devastadora en el núcleo de la estrella. El resultado es catastrófico; el centro de la estrella se colapsa, no gradualmente, en unos años, sino de repente, en pocos segundos. El núcleo, que ya era compacto, cae por su propio peso, y las ondas de choque generadas por esta importante implosión son suficientes para crear grandes cantidades de neutrinos a partir de la energía del choque. Mientras que una estrella en condiciones normales sería transparente a estas partículas, el centro de la estrella es ahora tan compacto que un dedal lleno de esta materia pesaría un millón de toneladas. Con estas densidades, los neutrinos sólo pueden viajar unos cien metros antes de ser absorbidos. Como consecuencia, una potente marea de neutrinos, extendiéndose desde el núcleo, transporta la energía generada por la implosión a través de las capas exteriores de la estrella, causando su explosión violenta. En el cataclismo producido, la estrella se suicida de una forma espectacular. La energía producida en la explosión hace que la luminosidad de la estrella aumente mil millones de veces, haciéndola brillar durante unos días como una galaxia entera. La materia exterior es expulsada violentamente al espacio, formando una nebulosa brillante de gas, conocida por los astrónomos como una supernova. Estas explosiones son tan brillantes que pueden detectarse fácilmente en otras galaxias lejanas, y cuando ocurren en nuestra propia galaxia son fácilmente visibles en el cielo. Si la estrella más cercana se convirtiera en supernova, su brillo rivalizaría en el cielo con el del Sol.

La supernova más famosa es la observada por los astrónomos chinos en 1054. Fue visible de día durante varios meses, brillando más que el planeta Venus. Se la llamó «Estrella Invitada» o «Estrella Nueva» (nova en latín), aunque por supuesto no era el nacimiento, sino la muerte de una estrella. Los chinos registraron la posición de la supernova en el cielo: está situada en la constelación de Taurus. Con un telescopio es posible ver en aquella posición lo que queda de la Nebulosa del Cangrejo, una deshilachada formada por los restos destrozados de la explosión, expandiéndose aún a varios kilómetros por segundo muchos siglos más tarde. De la estrella original no queda aparentemente nada más. La última supernova de nuestra galaxia fue observada en 1572 por Tycho Brahe, y se espera que en cualquier momento aparezca otra.

Una vez hemos visto el destino de las capas exteriores de la estrella después de la explosión de la supernova, deberíamos mirar qué sucede en el centro de la estrella, cuya implosión catastrófica desencadenó la supernova. Deberíamos esperar encontrar un residuo del núcleo en el centro de la nebulosa, pero desnudo, sin las capas exteriores de la estrella. Un objeto así sería extremadamente denso y compacto, ya que el núcleo que empezó a implosionar tenía ya una densidad de un millón de toneladas por centímetro cúbico. El primer resto de una supernova fue descubierto accidentalmente en 1967, cuando un grupo de astrónomos, bajo la dirección de Anthony Hewish, de la Universidad de Cambridge, estaban construyendo un equipo de radio para detectar el «parpadeo» de las radiofuentes lejanas. Mientras trabajaba con una de las redes de antenas, una estudiante, Jocelyn Bell, descubrió una traza peculiar en el registro de papel. Cuando encontró otros ejemplos de la misma traza, comprobó que la señal que la producía ocurría siempre en el mismo instante del día astronómico, que no dura lo mismo que un día terrestre, sino unos cuantos minutos menos. La razón de esto es que durante un día la Tierra se ha desplazado un corto trecho —más o menos de un grado— en su órbita alrededor del Sol, de forma que la orientación del Sol respecto a las estrellas lejanas, vista desde la Tierra, está desplazada la misma cantidad, lo que provoca que el Sol vaya pasando gradualmente, al transcurrir los meses, por las constelaciones del zodíaco. Esta reorientación diaria tarda unos cuatro minutos en ser corregida por el giro de la Tierra alrededor de su eje, por lo que el día solar es unos cuatro minutos más largo que el día astronómico. La asociación de las extrañas señales de radio con este último sugería que la fuente de las señales era, o un objeto astronómico distante, u otros radioastrónomos.

La característica más notable de esas señales de radio no era sólo su conexión astronómica, sino el hecho de que cada una consistía en una secuencia muy regular de pulsos. La conclusión inmediata de Hewish y Bell fue que los pulsos eran señales radio artificiales de algún tipo. Hewish escribió discretamente a otros grupos de radioastronomía para ver si estaban transmitiendo alguna señal parecida, pero no lo hacían. La otra posibilidad era dramática y excitante: tal vez la Srta. Bell había detectado el primer mensaje radio artificial de otra civilización de la galaxia. Si fuera así, ello tendría unas implicaciones más profundas.

Hewish se enfrentó de repente a una responsabilidad nada envidiable. Decidió actuar con cuidado y no hizo ningún anuncio. Si las señales procedían realmente de una comunidad extraterrestre, presumiblemente se alterarían ligeramente cuando el planeta que las transmitía describiera su órbita alrededor de su estrella. La fuente fue bautizada provisionalmente como LGM, iniciales de «little green men» (hombrecillos verdes), y se la vigiló sigilosamente durante varios meses. Al no alterarse el carácter de las señales, los astrónomos empezaron a pensar que eran de origen natural, y por lo tanto debían de estar asociadas a algún tipo de estrella. Finalmente se encontró otra fuente pulsante en otra región del cielo. Era demasiada coincidencia que hubiera dos civilizaciones distintas que estuvieran transmitiendo simultáneamente a la Tierra, por lo que el origen estelar de las señales ya no ofreció más dudas. En el mes de febrero del año 1967 Hewish y su grupo anunciaron su sensacional descubrimiento al mundo.

La identificación de una fuente astronómica con los pulsos radio era un gran enigma ya que en algunos casos los pulsos ocurrían muchas veces por segundo con una gran precisión. El problema era la identificación del tipo de estrella que podía generar unos pulsos radio regulares tan potentes y rápidos. Las pulsaciones regulares de las estrellas eran bien conocidas; las variables Cefeidas, por ejemplo, oscilan y su brillo óptico cambia de una forma sistemática, pero la escala de tiempo de casos como éste es de horas o días. Para oscilar más de una vez por segundo una estrella tendría que ser muy compacta, más densa incluso que una enana blanca.

Al cabo de poco tiempo el astrónomo Thomas Gold propuso el modelo de una estrella muy contraída con un campo magnético encerrado en ella. La estrella gira rápidamente y, al hacerlo, arrastra consigo el campo magnético a gran velocidad. Cerca de la estrella, y ligada a ella por el campo magnético, hay una nube de plasma. El acoplamiento del campo magnético con el plasma gira con la estrella y hace girar con él las partículas cargadas del plasma. Los electrones del plasma emiten energía radio concentrada en un haz muy estrecho, causando los pulsos radio. Al girar la estrella, el haz efectúa un barrido como un faro y, cada vez que pasa en dirección a la Tierra, se detecta un pulso. Los pulsos, por lo tanto, no se originan en la misma estrella, sino en el plasma que la rodea. Estas dinamos cósmicas se conocen en la actualidad con el nombre de púlsares.

Para comprender la naturaleza de la estrella que origina el púlsar, recordemos que la estrella debe ser muy densa y pequeña, con una gravedad superficial suficiente para impedir que la materia cerca de la periferia sea expulsada por la fuerza centrífuga.

037.jpg
Fig. 8. Las estrellas tienen tamaños muy diversos. Este diagrama muestra la gran variedad de los tamaños de las estrellas. Algunas, como Betelgeuse, englobarían todo el sistema solar mientras que, en el otro extremo, la minúscula estrella de neutrones es mucho más pequeña que la Tierra.

Los cálculos muestran fácilmente que una estrella en estas condiciones sólo puede tener unos kilómetros de diámetro, lo que suscita la idea increíble de un objeto con una masa parecida a la del Sol, comprimida en un tamaño menor que la ciudad de Londres. La gravedad de un objeto así es tan intensa, que si cayera sobre Londres engulliría toda la Tierra en cuestión de segundos. Toda la materia de la Tierra quedaría aplastada en una capa de un centímetro de grosor alrededor de la superficie de la diminuta estrella. La materia es tan densa que un dedal de ella pesaría más que una flota de transatlánticos en la Tierra.

Las densidades que se manejan en estos fenómenos sólo son igualadas por la materia nuclear. La naturaleza de la presión que mantiene la estrella bajo una atracción gravitatoria tan inmensa tiene un especial interés. En estas condiciones, la presión de degeneración de los electrones ya no puede soportar el peso de las capas superiores. La gravedad es tan intensa que incluso comprime los átomos individuales transformándolos en neutrones. La estrella es por lo tanto como un núcleo atómico gigante, constituido enteramente por neutrones: una estrella de neutrones.

El concepto de estrellas de neutrones fue propuesto por vez primera en los años treinta sobre la base de modelos teóricos, pero sólo cuando se descubrieron los púlsares se tomó la idea más en serio. En la actualidad todo el mundo acepta que las estrellas de neutrones son responsables del mecanismo púlsar, y durante años se han dedicado muchos estudios teóricos a construir modelos que reproduzcan sus propiedades. Aunque muchos aspectos de la teoría son sólo tanteos, la estructura interna general de estos objetos está razonablemente clara. La superficie, que consiste en una capa de algunos metros de espesor con las propiedades de un metal, tiene congelado en su interior el campo magnético que produce el púlsar. Debajo se encuentra una sólida corteza de cristales de neutrones de aproximadamente un kilómetro y medio de profundidad, un trillón de veces más fuerte que el acero.

La mayor parte de la estrella de neutrones, sin embargo, no es sólida, sino que está constituida por una interesante sustancia llamada superfluido. En el laboratorio se pueden producir superfluidos de átomos ordinarios a muy bajas temperaturas. En la estrella, existe un superfluido de electrones ultra densos, cuyas propiedades sólo se pueden deducir a partir del análisis matemático. La característica que distingue un superfluido de un fluido ordinario es la ausencia total de fricción, efecto que surge, en pocas palabras, de la organización macroscópica del comportamiento cuántico. Finalmente, el núcleo de la estrella de neutrones puede contener otras partículas subatómicas en un estado que de momento se comprende sólo superficialmente.

La estrella de neutrones, al girar y emitir radiación, pierde energía, dando lugar a un efecto de frenado, lo que provoca una reducción continua de la velocidad de rotación. La desaceleración es bastante pequeña —el primer pulsar descubierto se ha ido frenando sólo una cuarenta y cuatro millonésima de segundo por año—, pero la regularidad de los pulsos es tan grande que incluso puede llegar a detectarse. Es una indicación de que los pulsares se apagan al cabo de decenas de millones de años, aunque puede haber alguna irregularidad súbita de la velocidad de rotación. Ocurrió una a principios de la primavera de 1969, cuando un púlsar de la constelación de Vela aumentó súbitamente su velocidad de rotación de forma inesperada. Aunque no se comprende del todo este fenómeno, algunos astrónomos piensan que está asociado a un terremoto de la estrella de neutrones, un reajuste menor de la materia de la corteza de la estrella. Si las estrellas de neutrones son realmente residuos de supernovas, deberíamos esperar encontrar púlsares en el centro de los restos de una explosión de supernova. En 1968 se produjo una gran excitación con el descubrimiento de un púlsar en medio de la nebulosa del Cangrejo, lo que confirmó de manera palpable esta teoría. El púlsar del Cangrejo es uno de los más rápidos conocidos —pulsa treinta veces por segundo—, característica que se explica por su formación muy reciente, hace menos de mil años. Por lo tanto, ha tenido muy poco tiempo para desacelerarse por el proceso de frenado. A causa de su alta velocidad de rotación es muy brillante, y en realidad puede observarse como una fuente de destellos rápidos con un telescopio mediano.

En base a estos descubrimientos, se cree en la actualidad que las estrellas de neutrones son estrellas muertas, el estado final natural de las estrellas, que tienen una masa suficiente para alcanzar una temperatura central de varios miles de millones de grados antes de explotar. Dentro de varias decenas de miles de millones de años, muchas de las estrellas que vemos en el cielo se habrán agotado y estallado, dejando un residuo de neutrones como único recuerdo de su existencia. Después de disipar su energía rotacional a través del mecanismo pulsar, cada estrella muerta caerá en el silencio; habrá llegado el final de una larga carrera de actividad organizada, y la segunda ley de la termodinámica habrá exigido otra víctima. Aunque la estrella de neutrones puede permanecer en el espacio toda la eternidad, la segunda ley le prohíbe hacer nada más.

No todas las estrellas acaban sus días como estrellas de neutrones. Algunas no tienen siquiera la masa suficiente para alcanzar el destello del helio, mientras que otras, las que contienen hasta unas seis masas solares, puede que no sigan el camino descrito al principio de este capítulo hacia la etapa de supernova. En algunos casos las capas superficiales de la estrella pueden estallar de una forma menos explosiva, sin ningún colapso del núcleo. Esto provoca la formación de una capa de gas aproximadamente esférica que es expulsada, formando lo que los astrónomos llaman una nebulosa planetaria. La más famosa de ellas es la llamada nebulosa del Anillo, en la constelación de Lira, que llega a ser visible con un telescopio de unos diez centímetros. La expulsión de capas de gas puede ocurrir varias veces, disminuyendo mucho el contenido total de masa de la estrella. La fuerza de la gravedad, por supuesto, sigue siendo inexorable, y una vez se ha agotado el suministro de energía nuclear en las estrellas de masa moderada, éstas empiezan a contraerse de la forma habitual. Sin embargo, mientras sus masas finales no excedan aproximadamente 1,4 veces la masa del Sol, pueden llegar a alcanzar un equilibrio estable, mantenido por la presión de degeneración de los electrones. Estas estrellas siguen siendo muy compactas, de un tamaño parecido al de la Tierra, pero mucho menos densas que una estrella de neutrones. Conocidas como enanas blancas (ver capítulo IV), pueden estar muy calientes, posiblemente unos 40.000 grados en la superficie, y por lo tanto siguen radiando. Sin embargo, se van enfriando lentamente al ir agotando paulatinamente su suministro de energía, proceso que puede llegar a durar unos cien mil millones de años. Cuando su temperatura se acerca a la del espacio que la rodea y se apaga, todo lo que queda de ellas es una enana negra. La segunda ley ha reclamado otra víctima.

Para las estrellas que mueren como estrellas de neutrones o enanas negras, el final catastrófico puede ser violento y espasmódico, con temperaturas, presiones y densidades extremas, o simplemente un enfriamiento lento y aburrido. En todos los casos la gravedad es el agente que en última instancia controla los acontecimientos. De hecho, una estrella, en el sentido popular de la palabra, puede ser considerada sólo como un breve interludio entre una nube dispersa de gas y una esfera de materia comprimida. La actividad fundamental que está sucediendo en todo el Universo es el colapso de la materia en aglomerados altamente concentrados. El hecho de que intervengan los procesos nucleares para permitir una demora de ejecución, en la forma de una estrella luminosa, durante unos miles de millones de años, puede ser vital para le existencia de la vida, pero no es más que una victoria temporal contra el poder de la gravedad, que trata de hacer caer el objeto sobre sí mismo.

La segunda ley de la termodinámica asegura que esta actividad luminosa tan interesante debe apagarse tarde o temprano. La lucha contra la gravedad no puede mantenerse para siempre. La compactación final prevalecerá y la estrella morirá, más o menos violentamente según las circunstancias. La naturaleza todopoderosa de la gravedad es curiosa, porque es con mucho la más débil de todas las fuerzas conocidas. Si no fuera por el hecho de que la gravedad sólo atrae, nunca habríamos podido descubrirla. Pero el efecto acumulativo de una fuerza siempre atractiva no tiene límites, y la gravedad es capaz de dominar a todas las demás fuerzas conocidas de la naturaleza una vez se ha hecho con el control. En las enanas blancas y las estrellas de neutrones, la fuerza acumulada de la gravedad de la estrella no es suficiente para vencer la presión de degeneración cuántica, y el peso de la estrella, a pesar de lo densa que es, puede ser soportado por el núcleo. Sin embargo, es posible predecir de forma definitiva que si al final de su vida una estrella contiene una cantidad de materia superior a unos tres soles, entonces nada puede impedir un colapso gravitatorio catastrófico, de una naturaleza aún más fantástica que los fenómenos descritos en este capítulo.

Capítulo VIII
Agujeros negros y super agujeros

De todas las catástrofes que le pueden suceder a una estrella, el colapso gravitatorio total es la más impresionante. Representa no sólo el fin de una estrella, sino el fin de la materia. La segunda ley de la termodinámica predice la inevitable extensión del desorden o crecimiento de la entropía, de lo que se deduce que la actividad organizada del Universo debe irse perdiendo de manera continua. En el colapso gravitatorio desaparecen casi instantáneamente del Universo vastas cantidades de información y de estructura ordenada, que se pierden de forma irrecuperable. Para comprender las bases físicas de este fenómeno, debemos investigar la naturaleza de la gravedad, tal como la pone de manifiesto la teoría general de la relatividad de Einstein.

La mayoría de la gente considera la gravedad como una fuerza que podemos sentir, por ejemplo, porque tira de nosotros hacia abajo contra la superficie de la Tierra. Newton explicó que los objetos caen hacia el suelo porque la gravedad de la Tierra los empuja hacia abajo, lo que les hace acelerarse verticalmente cada vez más deprisa. La misma fuerza gravitatoria que tira de una manzana tira también de la Luna, razón por la que ésta permanece cerca de la Tierra en lugar de vagar por el espacio. Newton no ofreció ninguna explicación de cómo la gravedad de la Tierra podía alcanzar la Luna y atraerla atravesando el espacio vacío, pero los físicos modernos lo explican en términos de un campo gravitatorio, que es como una especie de halo invisible de fuerza, que se va atenuando gradualmente desde el centro gravitatorio, tanto si es la Tierra como si es el Sol, una estrella de neutrones o una galaxia.

Tal como vimos en el capítulo 2, Newton expresó sus ideas físicas de la gravedad a través de relaciones matemáticas precisas, de forma que se pudieran efectuar cálculos detallados de, por ejemplo, el movimiento de los planetas del Sistema Solar. La teoría tuvo éxito y no fue controvertida durante dos siglos, pero cuando Einstein descubrió la teoría de la relatividad en 1906, se llegó a la conclusión de que la idea newtoniana de la gravedad tenía que ser errónea, siendo la dificultad principal el que actuara instantáneamente a distancia. Los experimentos realizados a principios de siglo, combinados con el brillante trabajo teórico de Einstein, establecían sin ninguna duda que ninguna influencia física podía sobrepasar la velocidad de la luz sin invertir el orden de causa y efecto. Como esto resulta impensable, elimina la posibilidad de acción instantánea a distancia, en la que se fundaba el concepto de gravedad de Newton. Al intentar construir una teoría alternativa, Einstein quedó muy impresionado por una característica de la gravedad que Newton había considerado como una mera coincidencia. No es una característica sutil, sino una muy conocida, articulada por vez primera por Galileo: el hecho bien sabido de que objetos de pesos y densidades distintas que se dejan caer simultáneamente desde la misma altura llegan al suelo simultáneamente. Cerca de la superficie de la Tierra esto es cierto sólo aproximadamente, a causa de la interferencia de la resistencia del aire, pero es sólo un efecto que complica las cosas, sin ninguna relación con la naturaleza de la gravedad y que puede ser evitado dejando caer objetos en el vacío.

Algunas personas creen intuitivamente, de forma equivocada, que los objetos pesados deberían caer más deprisa que los ligeros. Sin embargo, lo que sucede en realidad es que los objetos pesados tienen una inercia mayor, por lo tanto cuesta más acelerarlos. Ambos efectos se compensan exactamente de forma que, aunque los objetos pesados son atraídos hacia abajo más intensamente, responden a esta fuerza con más lentitud. La observación precisa muestra que en realidad caen exactamente igual que los cuerpos ligeros; en otras palabras, cuando los objetos caen libremente bajo la acción de la gravedad, su movimiento no depende de la masa o la composición del cuerpo. Esta característica de la gravedad la distingue por completo de cualquier otra fuerza, y esto sugirió a Einstein que la explicación de la gravedad tal vez no debía buscarse en las propiedades de los mismos cuerpos que caen, sino en la naturaleza del espacio a través del cual están cayendo.

Al variar la gravedad de un sitio a otro, varían las trayectorias de los cuerpos en movimiento, fenómeno llamado efecto de marea, porque la variación de la gravedad de la Luna sobre la superficie de la Tierra produce las mareas oceánicas. Einstein buscó alguna propiedad del espacio y del tiempo que pudiera explicar cómo podían variar las trayectorias de caída libre de los cuerpos de un sitio a otro. Esta variación podía ser un efecto de torsión y giro, o bien una expansión, una contracción o desgarro. Tal como mencionamos en el capítulo 1, Einstein propuso que el espacio y el tiempo son, de alguna forma, elásticos y pueden sufrir distorsiones en presencia de una masa gravitante. La curvatura de espacio-tiempo cerca de una masa tuerce las trayectorias de los cuerpos en caída libre. De acuerdo con esta imagen no debemos considerar a la Tierra como forzada a seguir una trayectoria curva alrededor del Sol por la fuerza de gravedad, sino cayendo libremente por el espacio-tiempo curvado, cuya distorsión aparta a la Tierra del movimiento en línea recta, provocando una trayectoria curva. La gravedad, por lo tanto, queda reducida a la geometría, y deja de ser una fuerza.

La distorsión del espacio y del tiempo en presencia de cuerpos gravitantes puede comprobarse en el Sistema Solar mediante tres experimentos distintos. El primero fue llevado a cabo por el astrónomo británico Sir Arthur Eddington durante el eclipse total de Sol de 1919. Esta observación se refiere a la desviación de un rayo de luz al pasar cerca de la superficie del Sol, y aparece como un desplazamiento de la posición de una estrella lejana, al ser vista a través del espacio curvado alrededor del Sol. La desviación es muy pequeña, pero confirma la teoría de Einstein. El segundo experimento, que puede realizarse incluso en la Tierra, es una prueba del efecto de la gravedad sobre el tiempo. La gravedad, más intensa cerca de la superficie de la Tierra, hace que el tiempo vaya más despacio que a una altura mayor, y esto puede ser comprobado comparando cuidadosamente relojes nucleares. Un rayo gamma de un núcleo atómico, con una frecuencia extraordinariamente bien definida, es enviado a la parte superior de una torre, donde se compara su frecuencia con la de un núcleo similar. Los relojes van realmente más despacio cerca de la superficie de la Tierra, donde la gravedad es mayor. El tercer experimento prueba la curvatura del espacio alrededor del Sol examinando las órbitas de los planetas. Mercurio es el más cercano al Sol, y desde hacía tiempo los astrónomos conocían una discrepancia en su movimiento orbital. La teoría de Einstein predice exactamente la magnitud del efecto de giro de la curvatura del espacio sobre el movimiento del planeta. En el Sistema Solar los tres efectos son muy pequeños y de poca importancia, ya que incluso la gravedad del Sol no es suficiente para causar grandes distorsiones del espacio-tiempo, pero cerca de objetos superdensos como las estrellas de neutrones, las distorsiones del espacio y del tiempo pueden resultar apreciables.

En el capítulo anterior se mencionó que la presión de degeneración, tanto de los electrones como de los neutrones, no podría soportar una estrella con una masa superior a tres veces la del Sol. La pregunta vital es ¿qué le sucede a una estrella así? Una estrella, si no tiene forma de oponerse a su propia gravedad, se colapsa de manera catastrófica. Esto es lo que le sucede al centro de una superno- va durante la formación de una estrella de neutrones, pero en este caso la masa del núcleo es lo bastante pequeña para que la presión de degeneración de los neutrones detenga finalmente el colapso. Para una estrella con una masa ligeramente superior, este soporte es insuficiente, y el colapso continúa de forma incontrolable, provocando que la gravedad superficial crezca cada vez más deprisa y que la estrella se vuelva cada vez más compacta. La escala temporal del suceso es muy corta: en cuestión de una milésima de segundo se alcanza un punto en que la distorsión del espacio-tiempo cerca de la superficie de la estrella en colapso es tan grande que ocurren fenómenos nuevos y extraños.

El primer efecto se refiere a la dilatación del tiempo ya mencionada en relación a la gravedad terrestre. Sobre la superficie de una estrella esférica en colapso, el ritmo del tiempo, con relación a un lugar muy alejado, decrece exponencialmente; es decir, el ritmo del «reloj» disminuye a la mitad cada diez milésimas de segundo para una estrella típica. En un abrir y cerrar de ojos el tiempo en la superficie de la estrella, medido con un reloj lejano, llega a pararse prácticamente, y para un observador alejado los acontecimientos parecen haberse congelado en el tiempo. Por lo tanto, el mismo colapso de la estrella, por lo que concierne al mundo exterior, parece detenerse abruptamente. El radio de la estrella en el momento que esto sucede es conocido como radio de Schwarzschild, en honor al astrónomo alemán Karl Schwarzschild, y es proporcional a la masa total. Para un objeto con la misma masa que el Sol es de un par de kilómetros, aún más pequeño que una estrella de neutrones. La congelación aparente de todos los acontecimientos en una estrella en colapso no debe producir la impresión de que en realidad el tiempo y la actividad se han detenido allí. Un observador en la superficie de la estrella no consideraría que le está pasando nada extraño al tiempo. Lo que sucede es que el tiempo de la estrella y el tiempo en un lugar alejado se van separando de una forma progresivamente acelerada. Se sabe en la actualidad que todo tiempo está en relación con la situación del observador y su estado de movimiento. Normalmente, por supuesto, no notamos ninguna discrepancia entre las medidas de intervalos de tiempo hechas por observadores distintos, ya que el efecto es muy pequeño en la vida cotidiana, pero en circunstancias tan drásticas como el colapso gravitatorio total, la disparidad de la escala temporal crece sin límites. Una consecuencia inmediata es la reducción súbita de la frecuencia de las ondas luminosas procedentes de la estrella, lo que produce un cambio de las características del color de la luz, un corrimiento hacia el extremo rojo del espectro. El corrimiento hacia el rojo crece realmente muy deprisa —la frecuencia se reduce a la mitad cada diez milésimas de segundo— y en un tiempo muy corto la estrella en colapso deja de emitir luz visible por completo. Cuando la longitud de onda sobrepasa la región radio, la estrella se vuelve totalmente negra y sus características superficiales resultan invisibles. El mismo proceso que detiene la escala temporal de la estrella detiene también su emisión de luz.

Se han propuesto muchos métodos ingeniosos para que un observador distante pueda obtener información de la estrella invisible es colapso. Una sugerencia es enfocar una luz intensa sobre ella. Sin embargo, desgraciadamente, la misma distorsión temporal que opera en la superficie de la estrella afectaría a la luz que incidiera sobre ella. Un observador distante vería cómo la luz no llegaría a alcanzar a la estrella en colapso —aunque el observador esperara toda la eternidad— de forma que el haz iluminador no regresaría nunca para revelar los detalles de su superficie.

Una estrategia alternativa que se ha investigado matemáticamente es la de situar un cómplice en la superficie de la estrella mientras ésta se colapsa, y convenir con él que intente mandarnos varias señales. Aunque en realidad ningún observador podría resistir los rigores del colapso gravitatorio, y menos aún mandar ninguna señal durante las pocas milésimas de segundo de que dispone en su sistema de referencia, la situación imaginaria es útil como argumento. Si el observador en su caída intentara dar cuenta de lo que estaba sucediendo en la estrella disponiendo cargas eléctricas de acuerdo con un código, el observador alejado no podría leer el mensaje. La razón de ello es que la distorsión del espacio alrededor del objeto curva el campo eléctrico de las cargas, de tal forma que todas parecen estar concentradas en un único punto, en el centro. Ocurren efectos similares si se usan otras fuerzas; no se pueden leer los campos de fuerza nuclear, y son igualmente inútiles los mensajes gravitatorios utilizando ondas gravitatorias o disposiciones de objetos pesados. La única información del objeto que puede obtener un observador distante es la masa total, la carga eléctrica total y el momento angular total, si está girando. No se puede discernir nada acerca de su estado interno. Incluso la estrategia de bajar un gancho con una cuerda para recuperar algún trozo de la estrella fallaría, ya que se puede demostrar que ninguna cuerda en el Universo es lo suficientemente resistente para resistir las fuerzas gravitatorias.

Estas extrañas limitaciones se comprenden mejor si se examinan (valiéndose de las matemáticas) los sucesos vistos por el observador sobre la estrella. Para él no hay dilatación del tiempo, por lo que el tamaño de la estrella se reduce a un ritmo alarmante. Su gravedad es tan intensa, debido a la enorme compresión reinante, que una estrella típica se reduce a la mitad de tamaño en unas milésimas de segundo, cayendo sobre sí misma bajo su propio peso y arrastrando con ella al observador. Este no nota nada anormal cuando atraviesa el radio de Schwarzschild, ya que no tiene ningún significado local, pero, sin embargo, una vez está dentro de él su destino queda sellado; ya no podrá volver nunca más al Universo exterior, ni siquiera podrá dar cuenta de su destino a un observador distante. Ninguna información de ningún tipo puede alcanzar el mundo exterior desde el interior del radio de Schwarzschild. En el corto tiempo que el observador ha tardado en caer a esta distancia, ha transcurrido toda una eternidad para el Universo que acaba de abandonar.

La región interior al radio de Schwarzschild tiene la rara propiedad de que ni siquiera la luz es lo suficientemente ágil para evitar ser atrapada por la intensa gravedad. Un impulso luminoso emitido por la estrella en dirección hacia fuera, alejándose del centro, se encontraría en realidad moviéndose hacia atrás, en dirección a la estrella, en lugar de alejarse de ella, atraído irresistiblemente hacia el cuerpo en colapso. Es un caso parecido al de un corredor sobre una pista rodante: por deprisa que se mueva hacia delante respecto a la pista, es arrastrado hacia atrás por el movimiento de aquélla. En las cercanías de la estrella en colapso, esta distorsión del movimiento de los rayos de luz es otro efecto del espacio-tiempo curvado, debido a la gravedad de la estrella.

Según la teoría de la relatividad, todos los cuerpos materiales deben moverse más despacio que la luz. Como la superficie de la estrella es material, también debe seguir moviéndose hacia el centro, ya que de otra forma el pulso de luz dirigido hacia fuera, que en realidad se mueve hacia dentro, cruzaría la superficie, lo que significaría que la materia de la superficie habría tenido que «viajar» más deprisa que la luz sólo para mantener un radio constante. La estrella, por lo tanto, debe continuar comprimiéndose inevitablemente, y no hay fuerza en el Universo que pueda estabilizarla en una situación estática. El colapso es realmente inexorable; los papeles del espacio y el tiempo se han intercambiado en cierto modo dentro del radio de Schwarzschild, de forma que la superficie de la estrella no puede evitar reducirse de la misma manera que el flujo del tiempo no puede ser detenido en el mundo exterior. Además, la reducción se acelera cada vez más deprisa.

Nos enfrentamos ahora con un profundo problema. ¿Qué sucede cuando la superficie de la estrella se ha reducido a la nada? Cuando esto ocurre, toda la masa de la estrella queda concentrada en un único punto matemático, con una densidad infinita. La curvatura del espacio-tiempo también crece sin límite. El espacio-tiempo no puede existir bajo esas circunstancias, destrozado por la oleada de fuerzas ilimitadas de la gravedad. La estrella ha alcanzado lo que los matemáticos llaman una singularidad, una región donde deja de existir el espacio-tiempo. No es posible decir lo que hay más allá de una singularidad, ya que toda la física deja de ser aplicable. Generalmente se cree que al principio del big bang, discutido en el capítulo 2, había una singularidad, que puede considerarse como la inversión temporal de la singularidad alcanzada por la estrella; la primera supone la entrada de materia en el Universo, en la creación, mientras que la segunda implica su desaparición.

Después de formarse la singularidad, la región interior al radio de Schwarzschild está vacía; la estrella aparentemente se ha reducido a un punto y ha desaparecido para siempre. La gravedad, sin embargo, permanece, atrapando todo lo que cae dentro de este radio crítico e impidiendo que la luz o la información se escapen. Esta extraña región del espacio-tiempo es, por lo tanto, negra y vacía, un «agujero negro» en la jerga moderna. Tanto los científicos como la gente en general han dedicado en los últimos años una amplia atención a los agujeros negros. Estos han sido estudiados con gran detalle por los matemáticos y los físicos, que quieren analizar sus características poco habituales utilizando modelos matemáticos, y por los astrónomos, que los buscan en el espacio.

Es muy interesante el papel que desempeña la superficie en el radio de Schwarzschild, al atrapar toda la información dentro del agujero negro. Puesto que un observador alejado no puede ver o conocer ningún suceso que tenga lugar dentro de esta superficie, se le llama horizonte de sucesos. El horizonte de sucesos separa los sucesos del espacio-tiempo a los que tenemos acceso de los que no. Los sucesos que ocurren dentro del agujero negro, al ser inaccesibles, no pueden afectar de ningún modo el mundo exterior; están desconectados causalmente de él. No sucede lo mismo en sentido inverso, ya que el mundo exterior puede influir en lo que sucede dentro del agujero negro, por ejemplo al caer materia y luz dentro de él, aunque éstas no pueden regresar al mundo exterior. El horizonte de sucesos actúa por lo tanto como una barrera en un solo sentido, permitiendo únicamente el paso de materia hacia el interior. Todo lo que cae dentro del agujero negro lo hace mayor; es decir, que el horizonte de sucesos crece. El destino de la materia que cae es extremadamente violento, ya que las mismas fuerzas de marea que levantan y hacen descender los océanos en la Tierra, operan sobre distancias muy cortas dentro de los agujeros negros. Un desgraciado observador que cayera de cabeza en uno de ellos se encontraría con que tirarían de su cabeza, que estaría más cerca del centro gravitatorio, con más fuerza que de sus pies. Por lo tanto sería estirado cada vez con más violencia. También su cuerpo quedaría aplastado en un volumen cada vez más pequeño cerca de la singularidad. Su destino sería parecido al de la estrella original, desaparecida hace ya tiempo, y enseguida se estrellaría en la singularidad saliendo fuera del Universo.

Desde el punto de vista de un observador del mundo exterior, el frenado de los sucesos cerca del radio de Schwarzschild, provocado por la distorsión ilimitada del tiempo, implica que el observador que cae parecerá que tarda un tiempo infinito en alcanzar el horizonte de sucesos. En efecto, pero desaparece del Universo en una fracción de segundo, porque el corrimiento hacia el rojo de la luz aumenta a un ritmo creciente. No hay forma de que el observador distante pueda alcanzar a su colega, aunque sepa que no ha cruzado aún el horizonte, ya que, aunque viajara a una velocidad cercana a la de la luz, se encontraría que cuando alcanzara el horizonte en su persecución, su amigo lo habría cruzado mucho tiempo antes en dirección al agujero negro. Este punto es especialmente importante, ya que significa que la información puede desaparecer realmente en un agujero negro casi instantáneamente. La súbita pérdida de información representa un incremento de entropía, por lo que el agujero negro puede ser considerado como la consecuencia final de la segunda ley de la termodinámica: no sólo el cese de la actividad por parte de la materia, sino su desaparición total.

Una medida de la entropía total de un agujero negro es el área de su horizonte de sucesos, que crece siempre que caiga materia o energía en su interior. La segunda ley de la termodinámica, que requiere que la entropía debe crecer siempre en cualquier proceso, puede aplicarse directamente a los agujeros negros para predecir que, bajo circunstancias muy generales, tenderán a hacerse mayores (a crecer su área), y no sólo cuando hay acreción de materia de su entorno. Por ejemplo, cuando dos agujeros colisionan y se juntan, el agujero negro resultante tiene un área total mayor que la suma de las áreas de la pareja originaria. El mismo principio impide que un agujero negro se divida en dos, lo que implica que la coalescencia es irreversible.

Sin embargo, todavía es posible que un agujero negro se reduzca si se tiene en cuenta la entropía de su entorno, de forma que la entropía total del sistema completo pueda crecer, aunque decrezca la del agujero negro. Si el agujero se reduce, debe perder algo de masa o energía, ya que el área del horizonte de sucesos es proporcional al cuadrado de la masa. Esta energía debe aparecer de algún modo en los alrededores, en forma de radiación de alta entropía emitida desde el agujero. Tal como se explicó en el capítulo 6, la máxima entropía alcanzable es en forma de radiación en equilibrio térmico a una temperatura uniforme, reconocible por su espectro característico. En 1974, mientras investigaba la teoría cuántica de los agujeros negros, el matemático británico Stephen Hawking hizo el sorprendente descubrimiento de que los procesos cuánticos en realidad harían que el agujero emitiera radiación en equilibrio térmico a una temperatura determinada. Evidentemente, los agujeros negros no son negros después de todo.

El proceso cuántico descubierto por Hawking predice que los agujeros negros se evaporarían lentamente y se reducirían al emitir energía, situación que, a primera vista, parece contradecir la naturaleza del horizonte de sucesos, ya que, si nada puede escaparse de un agujero negro, ¿cómo puede emitirse radiación térmica? La solución de esta paradoja se basa en la noción bastante abstracta de energía negativa. De acuerdo con la física clásica, un agujero negro sólo puede disminuir de masa emitiendo energía, lo que es imposible a causa de la restricción del horizonte de sucesos. La física cuántica, sin embargo, permite otra posibilidad: en lugar de ser energía que se escapa, puede haber energía negativa que entre en el agujero. De esta forma la radiación puede producirse fuera del agujero negro, donde puede escapar al mundo exterior, y quedar compensada por un influjo de energía negativa que reduce la masa del agujero negro a un ritmo apropiado.

La energía negativa es creada por la gravedad del objeto, y existe incluso alrededor de los objetos ordinarios como las estrellas o la Tierra, aunque es extraordinariamente pequeña. Normalmente no produce ningún efecto apreciable porque es estática, pero si un objeto implosiona para formar un agujero negro, la energía negativa caerá a su interior a través del horizonte de sucesos como cualquier otra cosa, provocando por lo tanto la aparición de energía positiva en forma de radicación térmica de Hawking en el exterior del agujero negro.

El efecto de evaporación es muy pequeño, ya que la temperatura de un agujero negro con la masa aproximada del Sol es menor de una millonésima de grado sobre el cero absoluto. Si existen agujeros negros de este tamaño, deben estar creciendo, ya que la temperatura del Universo que los rodea es, como mínimo, de tres grados, debido a la radiación de fondo primordial. Al contrario de la mayoría de objetos, los agujeros negros se calientan cuando emiten calor, por lo que los agujeros pequeños tienen una temperatura mayor que los grandes. Hawking ha conjeturado que pudieron formarse miniagujeros durante el big bang, cuando la densidad era muy elevada. Un miniagujero típico podría tener el tamaño de un núcleo atómico y contener una masa equivalente a la del monte Everest. Un objeto de este tipo estaría terriblemente caliente, con una temperatura de unos diez mil millones de grados, inigualado por nada parecido desde el Universo primordial. Por lo tanto, radiaría de una forma muy intensa y perdería masa a un ritmo prodigioso, planteando la cuestión fascinante de qué sucedería al final. En el momento actual no se puede responder a esta pregunta con la menor seguridad, ya que los efectos gravitatorios cuánticos (la disrupción del espacio-tiempo mencionada al final del capítulo 2) desempeñan un papel importante. Según un punto de vista, el agujero negro se evaporaría por completo, dejando expuesta la singularidad del centro cuando el horizonte se hubiera reducido a la nada. Sobre las consecuencias que podría tener una singularidad desnuda nadie sabe nada; tal vez desaparecería simplemente, en cuyo caso la materia que había implosionado para formar el agujero negro al principio habría desaparecido completamente, dejando sólo la radiación térmica como recuerdo de su existencia anterior.

Sin duda alguna los agujeros negros tendrán un papel importante en el colapso del Cosmos. Muchos astrónomos creen que la mayoría de las estrellas de gran masa acaban su vida de esta forma, aunque éste no sea el caso del Sol, que está destinado a convertirse en una enana blanca. También pueden existir super agujeros escondidos en algún lugar de la galaxia, con una masa equivalente a millones de soles. Hace unos años se acogió con gran excitación la declaración del físico americano Weber, de que había detectado ondas gravitatorias procedentes del centro de la galaxia, similares a las producidas en el big bang pero de longitud de onda mucho más larga. Los estudios teóricos indicaron que podían haber sido generadas como arrugas del espacio-tiempo, causadas por el impacto violento entre una estrella y un super agujero. El agujero, que se supone situado en el centro galáctico, devoraría la estrella y crecería, mientras que parte de la materia adicional sería radiada en forma de ondas gravitatorias. Si Weber estuviera en lo cierto, proporcionaría una evidencia clara de la existencia de un super agujero en nuestra galaxia. Desgraciadamente, sus resultados no han sido confirmados por otros investigadores, y la existencia de dichas ondas gravitatorias en particular no es aún segura.

Los super agujeros tienen un apetito voraz e insaciable y, en un tiempo suficiente, podrían consumir una buena fracción de la galaxia. Aunque muchas estrellas podrían escapar ellas mismas de la implosión, parece probable que finalmente sucumban a la gravedad y sean devoradas por algún gran super agujero en alguna parte.

A pesar de sus tendencias caníbales, los agujeros negros representan una enorme fuente de energía disponible, en particular si giran. Se cree que las estrellas de neutrones llegan a girar varias veces por segundo, por lo que si se forma un agujero negro por el colapso de una estrella, parece probable que girará aún más deprisa, con una energía rotacional igual a la producción actual de energía de Sol durante diez millones de años. La diferencia está en que, mientras el Sol radia su energía a un ritmo extraordinario, un gran agujero negro retiene su energía rotacional más o menos indefinidamente, excepto la pequeña pérdida debida al proceso de evaporación. Por lo tanto, no hay mejor forma de almacenar energía que ponerla en un agujero negro; el problema es, entonces, cómo extraerla de nuevo.

El matemático británico Roger Penrose descubrió un mecanismo a través del cual un agujero negro puede dejar escapar una parte de su energía de rotación. La estrategia en principio es bastante simple: se deja caer una partícula de materia cerca de la superficie del horizonte de sucesos, donde es separada en dos piezas, una de las cuales es sacrificada en el agujero. Si se escoge la trayectoria muy cuidadosamente, se puede suministrar una gran cantidad de energía a la pieza restante, que es proyectada a gran velocidad hacia fuera del agujero. Esta energía es suministrada en parte por la masa del componente sacrificado y en parte por la energía de rotación del agujero negro, que al final es un poco más ligero que antes. El proceso Penrose no contradice la universal segunda ley de la termodinámica, aunque el agujero negro pierda masa, porque el tamaño del agujero negro en rotación depende tanto de su velocidad de rotación como del contenido total de masa-energía. Resulta que cuanto más deprisa gire un agujero negro, más pequeña se vuelve la superficie de su horizonte de sucesos. Por lo tanto, cuando se reduce su velocidad de rotación por el mecanismo Penrose, el área crece en realidad aunque disminuya la masa-energía total.

Es posible realizar el proceso inverso, y aumentar la velocidad de rotación de un agujero negro, inyectando en él materia de forma que se le suministre más momento angular y masa, y reduciendo por lo tanto el área de su horizonte de sucesos. Se han realizado investigaciones para descubrir si éste o algún otro proceso podrían ser utilizados para acelerar la rotación de un agujero negro hasta que el horizonte desapareciera por completo, dejando una singularidad desnuda. En todos los casos la respuesta parece ser negativa; es como si la naturaleza aborreciera una singularidad desnuda y operara siempre para evitar la indecente desaparición de la pantalla del horizonte de sucesos. Algunos escritores se han explayado sobre las consecuencias desastrosas para el resto del Universo si una singularidad quedara desnuda. Como las singularidades están asociadas a una completa violación de las leyes de la naturaleza, algunos dicen que de algo así podría surgir cualquier influjo, y que cualquier cosa podría suceder en el mundo impredecible que resultaría. Otros, con una actitud más escéptica, han sugerido que tal vez las singularidades no llegan a formarse nunca.

El destino de un viajero que se aventurara dentro de un agujero negro en rotación sería aún más fantástico. Al acercarse al horizonte de sucesos, se atraviesa una región llamada «ergosfera», donde puede tener lugar el proceso Penrose. En esta zona, el viajero no puede evitar girar con el agujero negro; es como si el objeto en rotación hubiera producido un vórtice espacial invisible que arrastrara de manera irresistible a todas las cosas. Aunque intentara evitarlo con los motores del cohete al máximo, sería arrastrado alrededor del vórtice, y si cruzara el horizonte ya no podría volver más tarde al Universo exterior. Sin embargo, a causa del movimiento de rotación, no sería arrastrado directamente hacia la singularidad central, por lo que no abandonaría de esta forma el Universo. Lo que sucedería a continuación es objeto de controversia. Según una versión idealizada de los agujeros negros en rotación, atravesaría el interior del objeto y saldría por el lado opuesto a otro Universo.

Esta interesante posibilidad ha resultado, comprensiblemente, muy atractiva para algunos escritores de ciencia ficción, ya que la idea de la existencia de otro universo conectado al nuestro a través de un agujero negro excita la curiosidad de mucha gente. Por des gracia, la hipótesis presenta también aspectos totalmente absurdos ya que si el intrépido explorador cayera de nuevo en el mismo agujero negro del que acababa de emerger, se encontraría, no de regreso en nuestro Universo, lo que es imposible (ya que para un observador distante de nuestro Universo aún no lo habría atravesado la primera vez), sino en otro Universo. Incluso podría repetirle el proceso ad infinitum. Tal vez es plausible otro Universo, pero que exista una infinidad de ellos parece un concepto dudoso. La idea de un «puente espacio» que conectara nuestro Universo con otros ha sido tratada con escepticismo por la mayoría de físicos, ya que está basado en un modelo idealizado de agujero negro en rotación. En el Universo real parece probable que la materia que cae dentro del agujero negro durante un período largo, así como los procesos cuánticos dentro del agujero, tendrían un efecto importante, provocando la aparición de otra singularidad que cerraría el puente espacial e impediría que la materia o la información viajaran a través del agujero.

Durante los últimos años se han realizado diversos estudios para descubrir cómo podría observarse un agujero negro. Al ser pequeño y negro, el formado por el colapso de una estrella no podría ser visto directamente, de forma que su existencia tendría que deducirse a partir de los efectos producidos en sus inmediaciones. La mejor esperanza es buscar un agujero negro en un sistema estelar binario. Una gran proporción de las estrellas de la galaxia se encuentran en combinaciones múltiples, de forma que de vez en cuando uno de los compañeros de una estrella visible podría resultar ser un agujero negro. La presencia de un objeto oscuro y compacto podría deducirse a partir de la perturbación gravitatoria ejercida sobre su compañero visible, de la misma forma que fue descubierta por Bessel la enana blanca Sirio B. Esto no es suficiente para probar la existencia de un agujero negro en el sistema pero, afortunadamente, hay otros efectos que ofrecen una evidencia más positiva. Las intensas fuerzas de marea podrían romper la superficie de la estrella visible compañera, arrancándole materia. Esta materia caería hacia el agujero negro, pero el movimiento orbital de la estrella tendería a disponer los gases alrededor del agujero formando un disco. Las regiones interiores del disco serían empujadas gradualmente hacia el agujero, calentándose violentamente al hacerlo. Los cálculos muestran que la temperatura de la materia asimilada seria lo suficientemente alta para emitir rayos X, un dato significativo de la existencia de un agujero negro.

Uno de los grandes avances tecnológicos de los últimos años ha sido el desarrollo de la astronomía de rayos X. Como los rayos X no atraviesan la atmósfera terrestre, esta rama de la astronomía debe desarrollarse con la ayuda de telescopios de rayos X situados en satélites artificiales. Se han detectado muchas fuentes de rayos X de distintos tipos, incluyendo varias asociadas con sistemas binarios; un ejemplo especialmente bueno es Cygnus X-l, en la constelación del Cisne, y otro, menos convincente, Épsilon Aurigae. Cygnus X-l es un candidato de primer orden para un agujero negro, aunque es necesario probar que su compañero oscuro no es sólo una estrella muy compacta y poco brillante, como una estrella de neutrones o una enana blanca. Por el momento esto sólo puede hacerse a partir de estudios teóricos, que sugieren que ni una estrella de neutrones ni una enana blanca pueden tener una masa mayor de unas pocas masas solares. A causa de su efecto gravitatorio, se puede evaluar la masa de la compañera oscura de Cygnus X-l si se conoce la masa de la estrella visible, lo que depende a su vez de una comprensión correcta de la naturaleza de esa estrella. Si todas las suposiciones son correctas, parece bastante probable que Cygnus X-l contenga realmente un agujero negro.

Existe también la posibilidad de que puedan observarse agujeros negros de tamaño microscópico, detectando la radiación que emiten, por el proceso cuántico descubierto por Hawking. Tal como hemos explicado, estos objetos se van evaporando gradualmente, volviéndose cada vez más calientes al hacerlo. El ritmo de evaporación crece rápidamente al reducirse, de forma que en los últimos momentos se emite de repente una gran explosión de energía, la mayor parte en forma de rayos gamma. En los últimos años, se han detectado mediante telescopios especiales instalados en satélites artificiales explosiones de rayos gamma, aunque con unas características distintas de las esperadas para los agujeros negros en explosión.

La observación de agujeros negros microscópicos proporcionaría información interesante sobre las condiciones existentes en la bola de fuego primordial, ya que esos objetos diminutos serían vestigios de esta fase primitiva. El tiempo que tarda un agujero negro en evaporarse completamente depende mucho de su masa inicial, los más pesados tardan mucho más en radiar toda su masa-energía y desaparecer. Un simple cálculo sugiere que todos los agujeros formados en el big bang con una masa menor de mil millones de kilogramos —con un tamaño comparable al de un núcleo atómico— se habrían evaporado en la actualidad. Determinando cuántos agujeros negros de la bola de fuego primordial existen aún, y cuál es su masa actual, se podrían deducir algunas de las propiedades de la materia primordial.

En este capítulo y en el anterior hemos examinado con detalle el destino de las estrellas. Todas las estrellas están necesariamente condenadas por la segunda ley de la termodinámica, pero algunas de ellas pueden apagarse lenta y tranquilamente como enanas, mientras que otras no aceptan la muerte con tanta ecuanimidad; estallan espectacularmente e inundan la galaxia con sus restos, dejando muchas veces una estrella de neutrones. Otras pueden sufrir explosiones periódicas pero menos drásticas, y pasan por etapas de gran actividad, expandiéndose y comprimiéndose espasmódicamente, o pulsando con regularidad. Muchas de éstas acaban sus días como enanas blancas. Finalmente, las estrellas de gran masa explosionan con una violencia mucho mayor que una supernova, pero con la energía dirigida hacia su interior, para rasgar el espacio-tiempo y desaparecer del Universo. Incluso los agujeros negros que quedan, se cree que se evaporan lentamente en la plenitud de los tiempos.

Este es el futuro de nuestro Universo tal como lo predice la ciencia moderna; una mezcla de violentos paroxismos y degradación lenta. El colapso del cosmos acabará finalmente con todas las características del Universo que conocemos. Hasta qué punto y hasta cuándo podrá sobrevivir la vida inteligente a estos hechos, depende del nivel de tecnología de que dispongan nuestros descendientes. Ciertamente, el final está muy, muy lejos en el futuro. Es posible, sin embargo, que incluso los supervivientes puedan ser vencidos por una calamidad aún mayor, la catástrofe definitiva: el colapso gravitatorio del Universo entero.

Capítulo IX
Tecnología y supervivencia

La tecnología representa el nivel máximo de actividad organizada que se conoce y, más que ninguna otra cosa, determinará el destino final de las comunidades inteligentes en general y de los seres humanos en particular. Al intentar predecir el futuro de la sociedad tecnológica, es necesario abandonar el mundo de los principios físicos y hacer algo de futurología especulativa. Curiosamente, es mucho más fácil predecir el estado final de una estrella que adivinar el destino de la vida inteligente, ya que los principios que controlan la evolución de las estrellas son directos y relativamente sencillos, mientras que la historia ha probado frecuentemente que la futurología social es irremediablemente imprecisa. Por lo que se refiere a la tecnología lo que se puede intentar es extrapolar las tendencias actuales basándose en lo que se cree que son las leyes correctas de la física y adoptar el razonamiento de que todo lo que es posible en un principio podría llegar a ser realizado por una comunidad con suficiente tiempo, dinero y motivación. La pregunta de si nunca se llegarán a alcanzar los límites de la tecnología es, por supuesto, otra cuestión. Sin embargo, un hecho sí es seguro: a las comunidades tecnológicas del futuro no les faltará tiempo para realizar las especulaciones aquí expuestas. Teniendo presentes estas precauciones importantes, vamos a examinar algunas conjeturas actuales de astrónomos, físicos y biólogos.

La amenaza más inmediata a la supervivencia de la humanidad no es la catástrofe cósmica, sino la desintegración social y política. Mucha gente considera la tecnología como un medio para mejorar las privaciones y las luchas, y mide el progreso humano por el grado de organización social y desarrollo tecnológico. En unos miles de años, la organización social ha evolucionado desde pequeños grupos tribales de centenares e incluso decenas de individuos, a los modernos estados nacionales de decenas o centenares de millones de individuos. A pesar de los desórdenes producidos durante esta síntesis, el proceso se desarrolló sin apenas esfuerzos. Los problemas graves parecen residir en los intentos de organizar grupos de gente en un número mayor que en los estados nacionales. Una síntesis adicional de un factor cien permitiría una sociedad integrada global. Puede ser que surja alguna inestabilidad social muy básica cuando la población de una cierta unidad social supere, por ejemplo los mil millones. En este caso, el orden social mundial no alcanzaría nunca toda la humanidad (a menos que la población disminuya drástica mente) y siempre estaría presente el riesgo de autodestrucción. Su poniendo, sin embargo, que finalmente se llegue a esta etapa siguiente y que el planeta sea dirigido como una sola unidad, surge naturalmente la cuestión de si esto es el final de la historia. Una idea muy utilizada por los escritores de ciencia ficción es el imperio galáctico, lugar en el que la organización social se extiende más allá de los límites de un planeta para abarcar todo un cúmulo estelar o incluso una galaxia. Se han escrito muchas historias de ciencia ficción sobre las tensiones y guerras entre imperios rivales, que no son más que una trasposición de las trivialidades terrestres al ámbito cósmico.

Existe un gran interés en saber si los imperios galácticos son una realidad, no porque tengamos que intentar conseguir uno, sino porque, si son posibles, alguien debe haber conseguido ya alguno en nuestra propia galaxia. Puesto que la sociedad humana tiene una edad que es sólo una cienmilésima parte de la de la galaxia, somos comparativamente unos recién llegados. Cualquier posible imperio se construyó presumiblemente hace mucho tiempo, a menos que estemos realmente solos en el Universo. Esta idea hizo decir al físico Enrico Fermi: «¿Dónde están?» creyendo que si existieran otras comunidades tecnológicas, ya habrían colonizado la Tierra. El conocimiento acerca de la vida extraterrestre es tan escaso que incluso la información negativa de que la Tierra no ha sido colonizada es útil para imponer restricciones a las especulaciones sobre las comunidades galácticas.

Vale la pena examinar con detalle lo que significa establecer un imperio galáctico. El establecimiento de los estados nacionales en la Tierra se basó fundamentalmente en los avances tecnológicos, en particular, respecto a las comunidades. El ferrocarril, el telégrafo y la construcción de carreteras modernas son los catalizadores que han permitido que millones de kilómetros cuadrados fueran administrados, supervisados y suministrados desde una autoridad central. Por ejemplo, no se pudo establecer una cohesión social y un control políticos verdaderos entre la Costa este de los Estados Unidos y California ya que para cruzar las Montañas Rocosas a caballo se tardaba muchas semanas. Con el advenimiento del ferrocarril y del telégrafo, los Estados Unidos se convirtieron rápidamente en un verdadero estado nacional. Las posibilidades de comunicación del siglo XX, tales como los viajes aéreos y la televisión vía satélite, y la interdependencia económica proporcionan actualmente las bases tecnológicas para una sociedad mundial.

La primera etapa para establecer una comunidad extraterrestre sería la colonización de los planetas de nuestro Sistema Solar. Ya existen cohetes capaces de alcanzar cualquiera de estos planetas con una tripulación de varias personas y una duración del viaje de varios años, de forma que podrían mandarse pequeños grupos a otros planetas —especialmente a la Luna— en un futuro cercano. El problema principal es cómo sobrevivir en unas condiciones hostiles, ya que ninguno de nuestros planetas hermanos tiene unas condiciones ni siquiera parecidas a las necesarias para la vida humana. Carl Sagan ha sugerido que un uso inteligente del control biológico permitiría alterar drásticamente las condiciones de Marte y Venus. Por ejemplo, si se encontrara un organismo que convirtiera la atmósfera de Venus en oxígeno, se reduciría enormemente el calentamiento debido al efecto «invernadero» del dióxido de carbono superabundante, hecho que permitiría la colonización de las regiones polares debido al bajón de la temperatura.

Si estos métodos no resultan factibles la única alternativa es construir ecosistemas artificiales y auto contenidos. En términos prácticos, esto significa la construcción de contenedores sellados suficientemente grandes para acomodar a toda una comunidad, con una diversidad suficiente de plantas y animales vivos para que se alcance alguna forma de autosuficiencia ecológica, ya que los viajes frecuentes a y desde la Tierra son terriblemente caros. Sin embargo, la misma construcción de la colonia es una grave dificultad. Los proyectos de ingeniería de esta magnitud son sumamente difíciles en la Tierra, y además, en un futuro próximo, el coste del transporte de grandes piezas de maquinaria —aunque sólo sea hasta la Luna— será probablemente incalculable.

Una propuesta más realista ha sido avanzada por Gerard O’Neill, de la Universidad de Princeton, que sugiere que, en lugar de establecer colonias planetarias, las unidades deberían construirse en el espacio exterior, preferentemente en los puntos de equilibrio gravitatorio del sistema Tierra-Sol-Luna. Es mucho más fácil manipular grandes piezas pesadas de material en las condiciones de ausencia de gravedad del espacio exterior y sin el problema del aterrizaje de suministros y maquinaria en el planeta huésped. Además se ahorran costos de combustible, ya que un viaje de planeta a planeta es más del doble de caro que un viaje de un planeta al espacio, debido a la sencilla razón de que todo el combustible que se necesita para frenar la nave al efectuar un aterrizaje suave a la llegada, debe ser embarcado en la Tierra, con el consiguiente aumento del peso de la nave a su despegue. La sugerencia de O’Neill, por el contrario, es extraer las materias primas de la Luna (o de los asteroides). La gravedad superficial es mucho menor que la de la Tierra, y pueden mandarse grandes pedazos de roca al espacio mediante el simple sistema de lanzarlos a la velocidad suficiente. La ausencia de atmósfera en la Luna posibilita que un sencillo dispositivo lanzador sea suficiente para este propósito.

Una vez se hubiera establecido una pequeña estación espacial que cobijara a unas decenas de personas, se podría empezar a trabajar en la construcción de las unidades mayores. O’Neill imagina inmensos cilindros, de varios kilómetros de diámetro, girando lentamente alrededor de sus ejes para simular el efecto de la gravedad terrestre en su periferia. Un cilindro típico estaría construido con materiales transparentes y grandes espejos que reflejarían la luz solar hacia su interior, sería autosuficiente y con un paisaje variado, con áreas urbanas y rurales e instalaciones industriales y recreativas. Una construcción de este tipo podría contener una población humana de varios miles de personas, además de una gran variedad de formas de vida. El proyecto será por supuesto jerárquico, con un cilindro proporcionando una fuerza de trabajo in situ para la construcción de los demás. El combustible y la energía solar cubrirían las necesidades energéticas y el hidrógeno traído desde la Tierra, combinado con oxígeno de las rocas lunares, proporcionaría una fuente barata y sencilla para llenar de agua los lagos artificiales. O’Neill ha realizado cuidadosos estudios científicos y económicos de su propuesta de colonias espaciales y ha llegado a la conclusión de que los cilindros están dentro de nuestras capacidades tecnológicas y financieras actuales. El primer cilindro podría construirse en 100 años.

Es fácil imaginar una cadena de mundos artificiales extendida por todo el Sistema Solar. Los viajes entre ellos serían mucho más fáciles que viajar a la Tierra a causa de la ingravidez. En las colonias espaciales, por lo tanto, surgiría probablemente una organización social compleja con unos vínculos muy escasos con la Tierra. Sin embargo, los mensajes por radio a través del Sistema Solar sólo tardan en recibirse unas horas como máximo, por lo que no hay razón en principio para que todo el Sistema Solar no sea habitado alguna vez por una única unidad social, débilmente unida, formada tal vez por miles de millones de personas.

Mucha gente considera esta perspectiva como una forma factible de evitar el desastre ecológico en la Tierra. Se argumenta que cuando los recursos del planeta se agoten y la población llegue al máximo de su capacidad, la expansión hacia el espacio eliminará la presión para contener el crecimiento económico y demográfico. Esto no es totalmente cierto. En la actualidad la población se dobla cada 20 o 30 años y aunque se pudiera colonizar todo el planeta Venus y la Tierra estuviera llena a rebosar, Venus también quedaría repleto en diez años más. Tanto si las colonias espaciales son o no una realidad en el futuro, la más simple estadística marca un límite a los días de la fecundidad humana.

Otra restricción importante es el consumo de energía. Nuestra mayor fuente de energía es el Sol, lo que supone un límite superior a la cantidad de energía de forma natural que podemos conseguir. La tecnología de consumo más elevado basada en el Sistema Solar sería aquella que usara toda la energía producida por el Sol. El físico americano Freeman Dyson ha sugerido que si se desmantelara algunos de los planetas, como Júpiter, y se esparciera formando una capa alrededor del Sol, se atraparía casi toda la luz del Sol. Una comunidad humana podría entonces habitar la superficie interior de la capa y explotar esta fuente de energía. Aunque la idea de desmantelar un planeta entero pueda parecer increíble, incluso para la futurología más atrevida, es importante tener en cuenta que no hay ninguna restricción impuesta por las leyes de la física. No hay ninguna duda de que, teniendo el tiempo, el dinero y la motivación suficiente, se podría construir una capa de Dyson, aunque esto no significa que se vaya a realizar. Sin embargo, es curioso notar que si el consumo de energía sigue creciendo al ritmo actual, nuestros requerimientos energéticos se acercarán a los de la capa de Dyson en sólo unos quinientos años. Si la galaxia está realmente llena de super técnicos, deberíamos esperar encontrar signos de sus actividades tecnológicas, incluso si en realidad no nos están mandando ningún mensaje. Proezas tecnológicas como la capa de Dyson podrían haber sido realizadas por una civilización con una edad de mil millones de años. Así que, si consideramos la existencia de una construcción de este tipo, podríamos, detectarla ya que aparecería como una estrella muy distendida y fría radiando intensamente en la parte infrarroja del espectro.

A pesar de todos estos esquemas, una comunidad a escala solar no es un imperio galáctico, ya que su establecimiento dependería en primer lugar de los viajes estelares y, más tarde, de una red de comunicaciones. En el capítulo 5 se apuntaba que el vuelo espacial directo entre estrellas es poco probable como posibilidad sería a gran escala. Existe, sin embargo, un concepto radicalmente distinto y mucho más prometedor de viaje por el espacio: el arca espacial. En esta variante, la comunidad viajera renuncia a cualquier intento de realizar un retorno a alta velocidad, o simplemente, renuncia a volver. La esencia de la idea es hacer construir una nave ecológicamente autosuficiente con una tripulación que se mantenga en su interior durante generaciones y que flotara tranquila y lentamente a través del espacio sin necesidad de grandes instalaciones de potencia para su propulsión. Los ocupantes podrían permanecer congelados durante el viaje, que podría durar varios miles de años. Aún mejor, sólo se necesitaría mandar una pequeña parte de la tripulación bien entrenada, y el resto de la gente podría ser almacenada en forma de óvulos fertilizados a punto de ser incubados a la llegada. Este proyecto permitiría transportar millones de futuros individuos en un arca de un tamaño razonablemente pequeño. El arca espacial podría ser una visión miniatura de uno de los cilindros de O'Neill, con un sistema de propulsión y una fuente de energía interna (no habría luz solar durante el viaje). Otra alternativa para las necesidades de energía es recolectar grandes cantidades del tenue hidrógeno interestelar que llena toda la galaxia con una densidad muy baja y usarlo en un dispositivo de fusión nuclear controlada. Aún mejor, se podría pensar en un trozo de antimateria, producido antes de la partida flotando sin peligro a unos metros del arca, para utilizar su contenido de energía cuando fuera necesario. Usando arcas espaciales, una comunidad con recursos podría poblar toda la galaxia en unos millones de años, aunque no sería de ninguna forma un imperio galáctico. No podría realizarse ningún intercambio ni viaje entre las colonias, ya que incluso las comunicaciones por radio tardarían cientos de miles de años. La velocidad de la luz impone una limitación básica a la cohesión de una unidad social. Para poder considerar una sociedad como una organización integrada, debe ser capaz de responder colectivamente a los cambios en todos los asuntos. En los estados nacionales terrestres, las crisis diarias como las inestabilidades económicas, las guerras, las calamidades naturales, etc. provocan una respuesta colectiva de toda la comunidad en cuestión de horas o días. La gente se identifica con un país porque sienten que pueden influir en una situación en desarrollo, como parte de un esfuerzo nacional. Los asuntos nacionales como la política, el deporte o las realizaciones tecnológicas son seguidos casi en el mismo momento de producirse y las opiniones se transmiten rápidamente a través de la sociedad. Hay una red intensa de información entre los individuos de la comunidad. Cuando el retraso en la transmisión de la información se vuelve comparable a la escala de tiempo de los sucesos, la sociedad pierde su cohesión. Poca importancia puede tener para una colonia espacial que una mitad de la Tierra esté en guerra con la otra mitad si la información no llega hasta diez mil años después. El tamaño máximo de una comunidad espacial que sea un verdadero imperio es probablemente de un año luz aproximadamente, lo que representa un tiempo de diálogo de dos años, comparable a la situación de la Tierra en la Edad Media, cuando los barcos tardaban unos dos años en viajar a los países lejanos. Un año luz no llega ni siquiera a mitad de camino de la estrella más cercana.

Si los imperios galácticos quedan descartados, la Tierra no debe temer convertirse en la «colonia» de nadie. A pesar de todo, sigue pendiente la cuestión de por qué no han llegado arcas espaciales. ¿Está en lo cierto Fermi cuando dice que la ausencia de colonizado res en la Tierra implica nuestra soledad galáctica? Pueden darse unas cuantas respuestas interesantes a esta pregunta. Primero, siempre se puede argumentar que la Tierra es un caso especial, o que, a lo mejor, el clima no es adecuado para la mayoría de las demás comunidades o que, tal vez, nuestra química biológica es única; también es posible que vivamos en una parte de la galaxia escasamente poblada y que no nos hayan detectado. Ninguna de estas respuestas es muy satisfactoria, ya que se vuelve al principio pre copernicano de una Tierra privilegiada, mientras que todos los datos confirman que nuestro planeta no es especial, sino más bien típico. Un punto más importante es que los hipotéticos colonizadores pueden llegar a tener problemas biológicos fundamentales para habitar planetas huéspedes ya que no sólo es cuestión de aterrizar y salir de la nave espacial. Son muy remotas las posibilidades de que el planeta huésped sea suficiente parecido al planeta de origen en cuanto a contenido atmosférico, rango de temperaturas, niveles de radiación, cambios estacionales, etc. para que sea habitable sin un entorno protegido como las estaciones espaciales. Además puede ocurrir que los microorganismos de variedades totalmente desconocidas sean un serio peligro para la salud (recordemos el final de los marcianos de Wells). De todas formas, si la colonia se formara como una estación espacial, tendría más sentido permanecer en la misma arca y construir colonias del tipo O’Neill o, por el contrario, establecerla en planetas sin vida. Además, podría ser que las comunidades tecnológicas super avanzadas que son capaces de realizar viajes interestelares, tengan requerimientos de los que no sabemos nada. Puede que sea mejor para sus propósitos residir en la superficie sólida de Urano y excavar amoníaco sólido, que colonizar la Tierra.

Otra consideración a tener en cuenta es la evolución social y la selección natural. En la Tierra, la proliferación de las especies está controlada por la evolución y la selección natural a nivel biológico, cuyas reglas se entienden bastante bien, si no se considera que las especies más avanzadas son necesariamente los colonizadores más agresivos. Se conoce poco la evolución social en la Tierra, así que menos sobre la extraterrestre. Podrían producirse procesos de selección que favorecieran a las comunidades sedentarias por encima de las itinerantes. Tal vez las comunidades que tengan capacidad tecnológica que posibilite la colonización interestelar sean las más inestables. Es extremadamente limitado suponer que se pueden aplicar principios deducidos de unos pocos miles de años de evolución social de la humanidad no tecnológica al comportamiento tecnológico de comunidades que están miles de millones de años más avanzadas que nosotros. En pocas palabras, la colonización puede que sea posible, pero puede ser poco frecuente.

Otro argumento que se utiliza muy a menudo es suponer que en realidad las arcas espaciales ya han llegado y que los colonizadores están aquí sin que nos hayamos enterado. Seguramente los de más planetas del Sistema Solar podrían estar llenos de colonizadores y no lo sabríamos. Tampoco nos enteraríamos fácilmente de la existencia de colonias de O’Neill en el espacio, sobre todo si estuvieran situadas entre los trozos de roca del cinturón de asteroides, que es realmente el lugar más idóneo debido a la abundancia de materias primas. ¿Nos daríamos cuenta de la existencia de una comunidad extraterrestre en la Tierra? Una civilización millones de años más avanzada que la nuestra nos parecería lo mismo que la nuestra debe parecer a las hormigas: indistinguible del entorno general. Si la mayoría de colonias estuviera situada en el fondo del mar, sólo entreveríamos ocasionalmente su sorprendente actividad, que nos parecería totalmente incomprensible, o incluso milagrosa. Ningún testigo de esta actividad sería creído, igual que, en general, nadie cree en los milagros. Una propuesta aún más especulativa es que los colonizadores llegaron hace cuatro mil millones de años a un planeta yermo, y sembraron en él la vida —una especie de «repoblación forestal» cósmicamente con la intención de hacerlo habitable en un futuro lejano; de hecho, es una teoría en la línea de la de Carl Sagan para Venus.

Una suposición básica que se establece al discutir la colonización espacial y las comunidades interestelares es que la inteligencia y las sociedades biológicas son el ejemplo supremo de organización y complejidad de la materia. Debemos afrontar el hecho de que tal vez sólo pertenecemos a un estado transitorio en toda la jerarquía de niveles de desarrollo de la organización. La situación de los aminoácidos en el recipiente de Miller y Urey, realizado en el experimento de simulación de génesis de vida desarrollado en la Universidad de Chicago, resulta de gran interés. Aunque los aminoácidos representan un grado de organización estructurada, sólo son una etapa intermedia en el camino de la evolución biológica. Finalmente, al cabo de unos millones de años, los aminoácidos se combinaron entre ellos para dar lugar a una nueva forma de materia con una potencia de organización mucho mayor: la materia viviente. No hay forma de deducir la posibilidad de existencia de la materia viviente conociendo tan sólo las propiedades de sus componentes inanimados. La vida es un fenómeno colectivo que sólo aparece cuando se alcanza un cierto grado de complejidad. No sabemos si existen estados de organización más perfectos que la materia viviente y que aparecerían, a su vez, al alcanzar un cierto nivel de organización; es imposible adivinar cuál podría ser o de qué podría estar compuesto ese estado superior de organización. Seguramente resultaría incomprensible para nosotros. Si existen estas posibilidades más allá de la vida inteligente biológica, no tiene sentido hablar de sistemas sociales que duran millones o miles de millones de años, ya que el nivel siguiente establecería su supremacía mucho antes. Podría no haber ninguna comunicación entre ambos sistemas, como no la hay entre nosotros y un aminoácido, o, entre nosotros y una rana.

Algunos científicos creen firmemente que ya estamos a punto de alcanzar el nivel siguiente de organización, que es conocido como «inteligencia artificial». Sin ninguna duda la inteligencia se ha desarrollado en los sistemas vivientes porque tiene una alta probabilidad de supervivencia en el mundo competitivo de la evolución biológica, pero no hay razón para suponer que es el único sitio donde puede existir. En el mundo moderno abundan las máquinas inteligentes creadas de manera artificial; los ordenadores pequeños, por ejemplo, realizan tareas rudimentarias como ensamblar componentes en una línea de producción, conducir tanques, montar sistemas de puntería de un arma, etc. Estas operaciones son comparables a las reacciones reflejas, por ejemplo, la de una arañil moviéndose sobre una superficie desigual. Normalmente no diríamos que una araña es inteligente, así que estos ordenadores pequeños pueden considerarse más como simples calculadoras que como entidades inteligentes. Los grandes ordenadores son otra cosa: dirigen fábricas, bancos y compañías, organizan el tráfico y los servicios, calculan trayectorias de naves espaciales y la nucleosíntesis en las estrellas, juegan al ajedrez y deciden cuando un país debe ir a la guerra. Los ordenadores controlan actualmente grandes áreas de los asuntos humanos que son demasiado complicados para la gente. Las máquinas hacen cálculos, sospesan estrategias alternativas, maximizan la eficacia y deliberan sobre complejos problemas técnicos muchos millones de veces más deprisa que cualquier ser humano.

A pesar de los poderes de los ordenadores, mucha gente se resiste a llamarlos inteligentes. Esto depende, por supuesto, de lo que se entienda exactamente por inteligencia. Es cierto que no posee cualidades ni emociones humanas —no aprecian la música o la poesía y están gobernados por una fría lógica— pero esto es así porque están construidos deliberadamente de esta forma. De momento no tenemos necesidad de un ordenador ilógico, pero sería fácil hacer uno añadiéndole algún elemento aleatorio. No hay respuesta humana que no pueda ser, en principio, emulada por una máquina suficientemente sofisticada y programada correctamente.

De momento, los ordenadores dependen directamente de la programación pero, en los últimos años, se han desarrollado algunos ordenadores con equipo sensorial directo. Ya existen máquinas que tienen «ojos» para localizar objetos en un campo de visión y que son capaces de manipular un brazo para moverlos. En principio parece que no exista ninguna razón para que un ordenador no pueda analizar los tonos de la voz humana y, por lo tanto, interpretar directamente las palabras. En el libro de ciencia ficción 2001: Una odisea del espacio, de Arthur C. Clark, un ordenador llamado HAL dirige toda una nave espacial. Sus ocupantes están realmente a merced de esta máquina que, durante los acontecimientos, se vuelve beligerante y tiene que ser desconectada. En su lucha por hacerse con el poder HAL es capaz incluso de leer por el movimiento de los labios la conspiración que preparan los tripulantes de la nave.

Los ordenadores tienen una serie de ventajas sobre los humanos en el juego de la inteligencia. Primero, son inmortales: si falla un componente puede ser reemplazado. Segundo, hay menos distinción entre las capacidades personales y sociales de los ordenadores que en el caso de los humanos. Los ordenadores se pueden interconectar —y se hace frecuentemente logrando un grado de cooperación mucho mayor del que es posible en la sociedad humana. La unión de cerebros permite un poder intelectual ilimitado, ya que no necesitan ser enseñados individualmente. Cada uno de ellos puede leer directamente la información de la memoria del otro. En tercer lugar, los ordenadores pueden desacoplar físicamente sus sistemas sensoriales de la unidad central de proceso. Para los humanos esto sería como si se dejara el cerebro en casa y se mandaran los ojos, los oídos y las manos a trabajar. Mientras informen por radio de lo que ven y oyen, no es realmente necesario pensar in situ para responder correctamente. De esta forma, la privación sensorial de los ordenadores es en realidad una ventaja: pueden permanecer seguros en un sitio sin temor a los depredadores y adquirir información simultáneamente por muchos canales distintos, incluso directamente de las memorias de otros ordenadores.

Todas estas características han llevado a algunos escritores científicos a proponer que la inteligencia artificial tendrá inevitablemente en el futuro un predominio sobre la inteligencia biológica; algunos incluso dicen que ya está sucediendo. Esto no significa necesariamente la desaparición de la inteligencia biológica, de igual modo que la aparición de la materia viviente no significó el final de los aminoácidos. Incluso se ha especulado que los ordenadores biológicos podrían ser una posibilidad. Sabemos que el cerebro humano es capaz de hazañas intelectuales increíbles mediante manipulaciones a nivel microscópico sobre moléculas orgánicas, y es posible que la manipulación genética avance lo suficiente para hacer crecer ordenadores, aunque si los ordenadores orgánicos fueran preferidos por la gente a uno compuesto de circuitos integrados, sería otra cuestión. En cualquier caso sería mutuamente satisfactoria una relación simbiótica entre la gente y los ordenadores. La materia viviente contiene ejemplos de simbiosis entre organismos distintos con ventajas comunes para ambos. Los ordenadores ya consiguen actualmente que nuestras vidas sean más ordenadas y eficientes; nuestra dependencia actual es grande, y crece cada vez más. Aquellos que sienten horror a ser «controlados» por máquinas deberían imaginar el caos que se produciría si mañana se desconectaran todos los ordenadores del mundo. Si deseamos un estilo de vida tecnológico y complejo, lleno de artilugios que posibiliten una vida fácil con una alta productividad industrial, debemos pagar el precio de abandonar nuestra independencia. Ya no seremos amos de nuestro propio destino, pero seguramente estaremos demasiado cómodos para preocuparnos de ello.

Una comunidad dominada por poderes artificiales inteligente, donde las inteligencias biológicas proporcionaran la fuerza de trabajo con una contrapartida de orden social y comodidad, podría tener una alta probabilidad de supervivencia en el Universo. Los ordenadores seguramente podrían manejar los asuntos humanos mucho mejor que los hombres, que hasta ahora no han conseguido organizarse a escala global sin luchas y conflictos. La promesa de que no haya más guerra como contrapartida al control de los ordenadores es demasiado atrayente para no ser considerada. Si la galaxia está llena de estas comunidades de dos (o tal vez varios) componentes, es probable que intenten comunicarse por radio. Esto significa que cualquier mensaje que recibamos de otro sistema estelar procederá muy probablemente de una máquina. No es tan sorprendente como parece. Cualquier mensaje radiado no consistirá en un discurso en inglés de un orador, sino en una señal codificada matemáticamente. La eficacia de la transmisión de datos requiere una codificación altamente compleja de la onda-radio que sólo un ordenador sería capaz de desentrañar y analizar en todo su contenido. Del mismo modo, si tuviéramos que transmitir cualquier información muy sofisticada sobre nuestra propia cultura, estaría por encima de la capacidad de organización de cualquier persona individual. Incluso en nuestro nivel de tecnología, por lo tanto, el ordenador estaría al frente de cualquier diálogo interestelar. Si existen las comunidades interestelares, son un asunto complejo y tedioso que únicamente los ordenadores —no programados para aburrirse— tendrían la resistencia de mantener durante años las búsquedas y la evaluación de señales de radio.

Si las comunidades más avanzadas son de este tipo, no debemos esperar ninguna colonización ya que las costumbres sedentarias de los ordenadores tenderían a limitarlos a vivir en un solo lugar, creciendo cada vez más por adición de nuevas unidades. No parece que exista un límite para el tamaño de estas inteligencias artificiales así que su poder para manipular el entorno crecería con sus capacidades intelectuales. Si se considera la perfección de un cerebro humano comparado con el de un gato, por ejemplo, —un tamaño diez veces menor— las posibilidades de un cerebro artificial inmenso parecen inimaginables.

En un futuro lejano, cuando el Sol sea demasiado peligroso para que la vida permanezca en la Tierra, se necesitará tecnología para crear un nuevo entorno en el que habiten nuestros descendientes, si existen. Tal como explicamos en el capítulo 6, la presencia de algún tipo de desequilibrio termodinámico es esencial para la continuación de la sociedad organizada, además, la segunda ley de la termodinámica asegura que estas regiones del Universo serán cada vez más difíciles de encontrar. Aunque existen muchos medios para que una comunidad tecnológica pueda aumentar su longevidad mediante preparaciones y arreglos prudentes, parece que no hay manera de evitar indefinidamente el declive. Los mismos principios de la física que regulan la desintegración inevitable de la actividad ordenada se aplican también al Universo como un todo que ya se está apagando gradualmente. En el capítulo siguiente examinaremos si al final cesará toda la actividad o si antes de esto el Universo quedará dominado por el colapso gravitatorio total.

Capítulo X
El universo agonizante

Seguramente hay pocas conclusiones en la ciencia más profundas que la predicción de que el Universo está predestinado a morir, pero el principio en el que se basa esta predicción la segunda ley de la termodinámica— es el regulador de la actividad natural más fundamental que conoce la humanidad. Su aplicación determina la evolución y el destino de sistemas tan diversos como recipientes de gas, castillos de arena, seres humanos, estrellas y el Cosmos. El progreso inexorable hacia el equilibrio y la entropía máxima está escrito dentro del comportamiento de todas las cosas; a nuestro alrededor vemos como el Universo lenta, pero seguramente, se va apagando.

En los capítulos anteriores de este libro se ha explicado que los astrónomos modernos creen que el Universo nació hace diez o veinte mil millones de años. El mecanismo que permitió «dar cuerda» al Universo, evolucionando lentamente desde el caos hasta una estructura ordenada y una actividad compleja, se identificó con la expansión cosmológica explosiva de la época primordial después del big bang. Esta expansión continúa hoy día, tal como puede deducirse del movimiento global de separación sistemática entre las galaxias alejadas. En la actualidad, sin embargo, el «mecanismo de cuerda» que acopla la expansión cosmológica a los sistemas materiales es muy débil y suelto, por lo que la dilatación del espacio ya no puede sostener la compleja organización de la materia e impedir la desintegración sin tregua del orden. Por lo tanto, a menos que esté completamente equivocada nuestra comprensión de la materia y la energía, la inevitabilidad del fin del mundo está escrita en las leyes de la naturaleza.

Las especulaciones acerca del Apocalipsis no están reservadas únicamente a los científicos. Durante siglos, las grandes religiones han hablado de maldición y destrucción, del día del juicio final en el que el sistema actual del orden del mundo será destruido llevando a los creyentes a pensar que el fin era inminente. Incluso en nuestra moderna sociedad tecnológica, la especulación sobre e, fin del mundo se ha convertido en un pasatiempo de moda, aunque algo morboso. La ciencia moderna ha dado un significado preciso a estos temores proporcionando unos fundamentos detallados para la escatología cósmica: el fin del Universo.

Aunque la segunda ley de la termodinámica nos asegura que el Universo se está apagando, no dice nada acerca de la velocidad de declive y caída del orden en el mundo. Esta información sólo se puede obtener a partir de un cuidadoso estudio de las fuentes importantes de desequilibrio termodinámico, como las estrellas. En los dos capítulos anteriores se examinó con detalle el destino de las estrellas y se calculó una escala de tiempo inmensamente grande hasta su muerte. El porvenir generalmente aceptado para nuestro rincón del Universo es que el Sol se volverá gradualmente más luminoso y más grande dentro de unos cinco mil millones de años. Su radiación destruirá finalmente toda la vida de la Tierra y tal vez incluso el mismo planeta. Durante varios miles de millones de años más su comportamiento será algo errático, incluyendo probablemente cambios súbitos de naturaleza explosiva, o puede volverse inestable y efectuar pulsaciones de tamaño y de luminosidad. En la última fase de su vida será como una enana blanca, una estrella diminuta y comprimida que se irá enfriando lentamente durante un largo período de tiempo si se compara con su edad actual. Al cabo de cien mil millones de años estará constituida por materia negra y consumida.

Durante ese tiempo, las estrellas de toda nuestra galaxia y de las demás galaxias del Universo, sufrirán el mismo ciclo de nacimiento, evolución y muerte. Las estrellas de mayor masa consumen rápidamente su combustible nuclear, y muchas de ellas estallan como supernovas o colapsan catastróficamente en agujeros negros. En realidad, muchas estrellas de gran masa han muerto desde hace tiempo. Por el contrario, las estrellas más pequeñas se queman lentamente y pueden llegar a tener una existencia cien veces más larga que la del Sol. Sin embargo, existe un límite inferior para la masa de una estrella. Si la materia no pesa lo suficiente para comprimir el núcleo y elevar la temperatura central a varios millones de grados, no se inicia la combustión nuclear vital que proporciona la energía a las estrellas. Estas esferas pequeñas de gas se contraerán lentamente y se apagarán al disiparse su energía gravitatoria como calor; serán estrellas fallidas, como por ejemplo el planeta Júpiter.

No toda la materia observada del Universo está en forma de estrellas; gran parte de ella está esparcida en grandes nubes de gas y polvo, a partir de las cuales se pueden llegar a formar nuevas generaciones de estrellas. De esta forma se prolonga la vida activa del Universo, aunque, como es natural, el suministro de esta materia prima es finito y, con el tiempo, llegará a acabarse. Ya no se formarán nuevas estrellas y la galaxia entera empezará a perder luz. Entonces, la expansión cosmológica habrá apartado las demás galaxias a una distancia mucho mayor de la actual, por lo que aparecerán con sólo una fracción del brillo actual y mucho más pequeñas, es decir, en todo el Universo las estrellas estarán desapareciendo.

La mayoría de estas estrellas muertas se convertirán en agujeros negros que, de vez en cuando, colisionarán y se juntarán, especialmente cerca del centro de las galaxias, donde la densidad de estrellas es más alta. Esta fusión irá creando gradualmente agujeros negros supermasivos en los que caerá una gran cantidad de materia. La materia, al caer, radiará energía fuera de la galaxia en forma de ondas gravitatorias, lo que reducirá por lo tanto la gravedad total de la galaxia y provocará que las estrellas muertas y los agujeros negros más pequeños cerca de la periferia de la galaxia se aparten y se pierdan por el espacio intergaláctico. Probablemente el Sol está demasiado cerca del centro de la galaxia para que se extravíe de esta forma; sin duda alguna permanecerá durante mucho tiempo como una enana blanca y finalmente colisionará con algún agujero negro. Suceda lo que suceda, la actividad remanente será de naturaleza puramente gravitatoria: una lenta acumulación de agujeros negros es un espacio oscuro y frío.

Al expansionarse el Universo, bajará la temperatura de la radiación térmica primordial. Después de un trillón de años esta radiación tal vez se habrá enfriado incluso por debajo de la pequeñísima temperatura de los agujeros negros formados a partir de estrellas consumidas: alrededor de una diez millonésima de grado por encima del cero absoluto. Cuando esto suceda, ya existirá un nuevo tipo de actividad que iluminará la oscuridad. La causa de este pequeño rejuvenecimiento es el proceso de Hawking de evaporación de los agujeros negros, descrito en el capítulo 8. Se explicó que la teoría cuántica predice que un agujero negro radie energía como si estuviera en equilibrio térmico a una temperatura muy baja. Es importante recordar que la temperatura crece al disminuir el tamaño del agujero negro, por lo que éste, al evaporarse lentamente, se vuelve más caliente. En las condiciones actuales la radiación de fondo cósmico es mucho más caliente que la temperatura de los agujeros negros de masa parecida a la solar, y hay un flujo neto de calor hacia el interior de estos objetos desde el espacio que los rodea, aunque a un ritmo infinitesimal. En un futuro muy lejano, sin embargo, la radiación de fondo será tan fría que los agujeros negros empezarán a perder más energía a través del proceso de evaporación cuántica que la que ganarán absorbiendo calor de fondo. De esta forma, los agujeros empezarán a reducirse, lenta pero inexorablemente, y se volverán más calientes al hacerlo.

La velocidad de calentamiento de estos agujeros negros es increíblemente pequeña. Al cabo de por lo menos diez un decillones (un uno seguido de sesenta y siete ceros) años, habrán recuperado una pálida sombra de su esplendor pasado y brillarán con una temperatura comparable a la de las estrellas que fueron una vez. Sin embargo serán mucho más pequeños —con un tamaño de unas millonésimas de centímetro— pero con una masa equivalente a la de un gran asteroide. A causa de su diminuto tamaño, su luminosidad será también muy pequeña, menos que la de una luciérnaga. Brillarán de esta forma durante un quintillón de años hasta que, al subir su temperatura más rápidamente, desaparecerán en un brillante destello de radiación. Habrá desaparecido del Universo cualquier vestigio o señal de lo que antes había sido una gran estrella resplandeciente.

El tiempo que tardan los agujeros negros estelares en evaporarse es tan inmenso que la mayoría de ellos probablemente serán devorados antes por agujeros negros mayores. Si una fracción apreciable de la galaxia acaba como un gigantesco agujero negro con un diámetro aproximado de una décima de año luz, este objeto tardará 10100 (un uno seguido por cien ceros) años en evaporarse. Cuando estos también hayan desaparecido, no quedará nada, excepto la radiación, extremadamente tenue y decreciente, provocada por la evaporación. El Universo será entonces un espacio negro, vacío y en expansión para el resto de la eternidad. Se habrán agotado las últimas pequeñas reservas de energía libre, toda la máquina cósmica se habrá parado y la segunda ley de la termodinámica habrá reclamado sus últimas víctimas. Después de esto, prevalecerá el equilibrio y la entropía del Universo habrá alcanzado su punto máximo. Hay pocas predicciones del destino cósmico tan tenebrosas como esta lenta muerte del Universo.

Durante muchos años los astrónomos han teorizado sobre un final alternativo para el Universo, un destino menos catastrófico que esta lenta muerte, pero mucho más espectacular. Se sabe desde hace tiempo que las leyes del movimiento no distinguen el pasado del futuro; es decir, no operan con preferencia en una dirección temporal más que en la otra. Esto significa que cada movimiento de la materia puede en principio ser invertido, incluyendo el movimiento a gran escala del mismo Universo. La fuerza que controla el movimiento cosmológico es la gravedad y existen ejemplos de la inversión de movimientos bajo la acción de la gravedad por sí mismos; por ejemplo, el balanceo de un péndulo.

Si un cuerpo es propulsado hacia arriba con energía suficiente puede escaparse por completo de la gravedad de la Tierra y alejarse por el espacio, sin regresar nunca más. La llamada velocidad de escape de la Tierra es de unos cuarenta mil km/h y, en la práctica, se necesitan grandes cohetes para alcanzar esta velocidad. Si se lanza un cuerpo con una velocidad menor que la de escape, volverá a caer inevitablemente a la Tierra. Esto suscita la cuestión del movimiento cósmico, donde las galaxias se están separando unas de las otras a una velocidad considerable; pero la pregunta que debe plantearse es de si esta velocidad es suficiente para «escaparse» de la gravedad mutua. Si es así, el Universo continuará su expansión más o menos libre, a partir del momento en que la gravedad sea tan débil que ya no pueda frenar el movimiento. Si esto no sucede, la expansión cosmológica se irá frenando lentamente hasta que finalmente se detenga por completo. En ese caso, no hay poder en la naturaleza que pueda impedir el colapso total del Universo.

Una perspectiva tan horrible suscita profundas cuestiones acerca de la naturaleza del espacio y de la materia. La idea de que una estrella colapse y forme un especial agujero negro es muy singular, pero frente a la teoría catastrófica de todo el Universo hace que este agujero negro parezca insignificante. El factor decisivo que determina si la gravedad conseguirá arrastrar las galaxias hacia atrás es la cantidad total de materia del Universo. Si la densidad de materia es suficientemente alta, la fuerza de la gravedad frenará inmediatamente la expansión cosmológica hasta llegar a un punto en el que las galaxias ya no estarán separándose unas de otras. Entonces empezarán a caer sobre ellas mismas y el Universo empezará a contraerse, acelerándose así el colapso total.

Si, realmente, esto llega a suceder, la fase de contracción será parecida, a gran escala, a la inversa de la expansión actual. No se produciría una súbita implosión, como en el caso de una estrella en colapso, sino más bien una contracción gradual del espacio durante miles de millones de años. La razón de esta lentitud es que el Universo está mucho más distendido que una estrella, de forma que el efecto gravitatorio entre las galaxias lejanas es en la actualidad muy reducido. Durante millones de años la contracción no sería directamente observable, ya que se verían las galaxias lejanas tal como eran millones de años antes, cuando el Universo estaba aún en expansión, pero al cabo del tiempo, se notaría cómo las galaxias cercanas frenaban su expansión y empezaban a acercarse. Durante los miles de millones de años siguientes se observaría el movimiento hacia dentro de más y más galaxias, que, en lugar de aparecer de color rojo, debido a la expansión, su luz adquiriría una tonalidad azul y sería más energética. Al mismo tiempo empezaría a aumentar la temperatura de calor de fondo primordial.

Ninguno de los dos efectos sería muy significativo durante muchos miles de millones de años. En todo ese tiempo, nuestra galaxia no experimentaría ninguna variación. El Sol, por supuesto, habría desaparecido, pero habría gran cantidad de estrellas. La tenue luz de las demás galaxias y el calor casi nulo de la radiación cosmológica serían totalmente inapreciables, en comparación con estas estrellas brillantes. Sin embargo, gradualmente, al proseguir la contracción, desaparecería el espacio entre las galaxias y estas mismas empezarían a colisionar entre sí. Una de las primeras en alcanzar nuestra galaxia sería la Gran Nebulosa de Andrómeda. Durante un tiempo, este gran sistema estelar estaría superpuesto con la Vía Láctea y finalmente se fusionaría con ella. En la actualidad se observan colisiones entre galaxias, y no son tan serias como parecen, ya que las distancias entre las estrellas son tan grandes que hay pocos casos reales de contacto.

Mientras sigue la contracción, su velocidad aumenta aún más. Pronto, el movimiento de las estrellas individuales queda alterado por la lenta compresión de los cúmulos estelares. Al no ser ya distinguibles las galaxias, las estrellas llenarían todo el Universo más o menos uniformemente, y el espacio interestelar empezaría a con traerse de forma continua. El cielo nocturno sería mucho más brillante de lo que es ahora, debido a la alta densidad de estrellas y al incremento debido al corrimiento hacia el azul de la energía luminosa de las estrellas lejanas, al caer hacia dentro sobre sí mismas.

Este espectáculo durará unos millones de años, pero, antes de que las estrellas empiecen a colisionar unas con otras, surgirá un nuevo fenómeno. La radiación de fondo primordial, hasta ahora inapreciable, se vuelve cada vez más caliente y se verá aumentada por la luz acumulada de las estrellas de miles de millones de años. La contracción del espacio será entonces tan grande que la temperatura de esta radiación alcanzará pronto varios miles de grados, más caliente que la misma superficie de las estrellas. Cuando suceda esto, las estrellas ya no podrán desprenderse de la energía generada por los procesos nucleares, de forma que su temperatura interna aumentará para acomodarse a las elevadas temperaturas de su entorno. Seguramente se producirán inestabilidades explosivas, pero, en cualquier caso, la subida irremediable de la temperatura de la radiación que las rodee irá vaporizando continuamente las estrellas hasta su desaparición.

En este punto, el Universo habrá vuelto a una nueva era del plasma, y estará constituido por una distribución más o menos uniforme de materia opaca que llenará todo el espacio. El único vestigio del Universo que ahora conocemos será la presencia de algunos agujeros negros, que no pueden ser vaporizados de esa forma, y algunos núcleos pesados sintetizados en las estrellas. Pero al cabo de otros cien mil años, la temperatura estará creciendo apreciablemente en unos pocos minutos. Al alcanzar los mil millones de grados, se destruirán todos los núcleos; el colapso del Universo se hará entonces frenético. La densidad y la temperatura crecerán progresiva mente más deprisa: a diez mil millones de grados, se duplicarán en un segundo. Cuanto más elevada es la densidad, mayor es la gravedad y la velocidad de implosión. El Universo pasará por la misma secuencia de épocas del big bang pero en sentido inverso: la era del plasma dejará paso a la era leptónica, cada una de ellas con una duración menor que la anterior. Se crearán cantidades tremendas de materia a partir de la energía térmica. Sólo los agujeros negros sobrevivirán a este holocausto y permitirán distinguir el fin del Universo de su principio.

Aproximadamente un segundo después de que la temperatura alcance los diez mil millones de grados, los procesos cuánticos adquirirán importancia y el espacio-tiempo se empezará a romper bajo las tremendas fuerzas de marea. A partir de aquí deja de ser aplicable la física conocida, y ya no es posible decir nada de lo que sucede a continuación. Si se ignoran los efectos cuánticos, nuestro conocimiento actual de la gravedad predice que el espacio-tiempo se acabará en una singularidad, y probablemente toda la materia quedará comprimida con una densidad infinita. Si es así, dejará de existir el Universo. Este destino es bastante distinto de la oscuridad vacía que caracteriza el modelo en eterna expansión descrito anteriormente. En ese modelo, todo lo que quedaba era espacio vacío en expansión; aquí, ni siquiera el espacio ni el tiempo sobreviven al encuentro con la singularidad. El Universo tiene un extremo temporal en el futuro similar al que tenía en su pasado: un nacimiento, una vida y una muerte, en una relación simétrica. Desaparece en un horno que es más o menos un reflejo de aquel en que apareció. Nunca el Apocalipsis fue previsto de forma tan absoluta.

Estos dos escenarios distintos —el lento enfriamiento producido por la eterna expansión, o la cremación dramática y la desaparición completa del mundo físico— parecen ser los dos destinos alternativos e inevitables del Universo. Ambas opciones son catastróficas, en el sentido de que en ambas se destruye la organización del Universo tal como la conocemos. Cuál de las dos alternativas seguirá el Universo real debe ser decidido a partir de la observación. Sorprendentemente, es posible predecir de forma bastante directa el destino que nos aguarda.

Los astrónomos han abordado el análisis de la escatología cósmica de dos formas distintas. La primera es el método directo, consistente en determinar el ritmo de frenado de la expansión cosmológica con el tiempo. Esto puede hacerse observando la velocidad de expansión en las regiones muy remotas del Universo que, a causa del retraso en el tiempo de viaje de la luz, son observadas tal como eran hace mucho tiempo, típicamente cuando el Universo tenía la mitad de la edad de hoy. Se puede comparar la velocidad de expansión en aquella época con la actual, que se deduce a partir del alejamiento de las galaxias cercanas. Durante muchos años, este método ha dado el resultado de que la velocidad de expansión se está frenando lo suficientemente deprisa para provocar el colapso y la cremación finales. A pesar de ello, hay un escepticismo considerable acerca de esta conclusión, ya que las observaciones son difíciles de llevar a cabo y dependen, hasta cierto punto, de nuestra comprensión de la evolución temporal de la luminosidad de las galaxias, cuyas distancias verdaderas sólo pueden determinarse comparando su luminosidad intrínseca con la observada. La situación puede compararse con los faros de los automóviles: si se supiera que todos estos tienen faros igualmente potentes, se podría determinar la distancia a que se encuentra un automóvil midiendo el brillo aparente de sus luces. Las más brillantes corresponderían a los coches que estaban más cerca y las menos brillantes a los más lejanos. Sin embargo, si los conductores cambiaran la potencia de sus luces, alterando la tensión de la batería, de modo sistemático cuando se acercaban, entonces esa forma de estimar las distancias sería errónea. La comprensión de la potencia producida por una galaxia es, por supuesto, incomparablemente más complicada que la de los faros de un automóvil y existe el problema adicional de que en la búsqueda de galaxias muy alejadas, que son también muy débiles, los efectos de selección llevan al astrónomo a seleccionar sólo las excepcionalmente brillantes, en vez de las de brillo medio. En los últimos años, los astrónomos han dedicado considerable atención a éstos y otros problemas, y la conclusión de ello es que las incertidumbres a la hora de deducir que el Universo se contraerá son mucho mayores de lo que se había supuesto anteriormente.

El segundo método que han utilizado los astrónomos para determinar el destino del Universo se basa en la dinámica del movimiento cosmológico basado en la teoría general de la relatividad, que relaciona la geometría y el comportamiento del espacio y del tiempo con el estado de la materia y de la energía que contiene. Esta teoría predice el colapso gravitatorio y los agujeros negros, y es la descripción matemática de la gravedad aceptada actualmente. La relatividad general puede proporcionar un modelo matemático del movimiento a gran escala del Cosmos que relacione las características de la expansión (y tal vez de la contracción) con las características de la materia gravitante, tales como la cantidad de materia en las galaxias y la presión de radiación. La conexión entre la disposición geométrica del Cosmos y su contenido material viene dada por las llamadas ecuaciones de campo de Einstein, que, en la práctica, son muy difíciles de resolver, y sólo puede hacerse algún progreso a base de establecer grandes hipótesis simplificadoras acerca de la geometría y de la distribución de la materia en el Universo. Afortunadamente, el Universo real tiene una simetría notable, la cual permite tratarlo matemáticamente con gran facilidad. Como ya se mencionó en el capítulo 1, la distribución de galaxias a gran escala resulta ser sorprendentemente uniforme, tanto en cualquier dirección como a cualquier distancia de nosotros. Esta propiedad implica que la geometría del espacio puede describirse mediante una sola cantidad, la escala de distancia entre dos galaxias representativas cualesquiera. Al expansionarse el Universo, se mantiene la proporción entre esta distancia y cualquier otra representativa. Además, como las regiones alejadas de aquél parecen contener el mismo tipo de materia y en las mismas condiciones —galaxias separadas por la misma distancia media—, cabe suponer que el contenido material del Universo es, en promedio, el mismo en cualquier parte.

Con estas hipótesis simplificadoras se pueden llegar a resolver las ecuaciones de Einstein para determinar cómo cambia con el tiempo la escala de distancia del espacio. En la teoría convencional la gravedad de toda la materia en el Universo hace disminuir el movimiento de expansión, provocando la deceleración de ésta. La magnitud de tal deceleración depende de la cantidad de materia gravitante, es decir, de su densidad. En un Universo muy denso, la gravedad es suficiente para invertir la expansión y provocar la contracción del mismo, mientras que en un Universo poco denso, la expansión queda frenada, sin que llegue a detenerse. Los astrónomos usan la expresión «densidad crítica» para indicar la cantidad de materia en un volumen típico de espacio que es la justa y necesaria para provocar aquella contracción. Tal densidad crítica es muy baja, alrededor de un átomo por cada millón de centímetros cúbicos, como promedio.

En principio, es fácil utilizar telescopios para medir la cantidad de materia en un volumen suficientemente grande de espacio, pero esto sólo puede proporcionar un límite inferior a la densidad, ya que incluye únicamente la materia luminosa. Puede haber grandes cantidades de materia que no vemos, porque es oscura, transparente o indetectable. Además, según la teoría general de la relatividad, la materia no es la única fuente de gravedad: la energía y la presión —por ejemplo, de la radiación— también gravitan. Para determinar si la gravedad acumulada de todas las formas de materia, energía y presión es suficiente para detener la expansión es preciso hacer un estudio cuidadoso de las distintas contribuciones.

La cantidad de materia luminosa o visible, lo que significa todas las estrellas y nubes de gas de las galaxias, puede estimarse fácilmente y resulta que es de sólo un 2% de la densidad crítica. Sin embargo, las galaxias sólo ocupan una pequeña fracción del Universo, y parece evidente que debe de haber algo de materia en el espacio intergaláctico, como vestigios del hidrógeno primordial del big bang que quedó después de la formación de las galaxias a partir de los gases cosmológicos al final de la era del plasma. Muchas investigaciones han tratado de detectar ese medio intergaláctico, pero no han tenido éxito. No puede existir en forma de hidrógeno ordinario, ya que la luz de ciertos objetos muy lejanos, los llamados quásares, estaría fuertemente absorbida por esta materia, para una serie de longitudes de onda características, cosa que no sucede. Por otra parte, el hidrógeno ionizado es transparente a la luz, por lo que cualquier materia intergaláctica debe de estar en forma de plasma. Es posible que este plasma contribuya al fondo observado de rayos X procedentes de todas las direcciones del espacio, pero existen también otras fuentes de esos rayos X. Por el momento no existen razones para creer que hay la suficiente materia intergaláctica para que se alcance la densidad crítica y ocurra la contracción.

Todavía existe la posibilidad de que una gran cantidad de objetos no luminosos pueda proporcionar el 98% de materia que falta para que el Universo se vuelva a contraer. En el espacio pueden proliferar los agujeros negros, los planetas, las estrellas oscuras, las nubes de polvo, sin ser detectados. Sin embargo, algunos astrónomos encuentran que es difícil pensar que hay cincuenta veces más materia en los objetos oscuros que en los visibles, proporción que sería necesaria para alcanzar dicha densidad crítica. A partir del examen de los movimientos locales de los cúmulos galácticos hay alguna evidencia de que la materia luminosa sólo da cuenta del 20% de toda la materia de esos cúmulos, pero incluso cinco veces la densidad de la materia luminosa no es suficiente. Por otra parte, podría haber gran número de agujeros negros en el espacio galáctico e intergaláctico que fueran totalmente indetectables por nosotros. Una sugerencia es que durante la primera época de la bola de fuego primordial se formó una gran profusión de agujeros negros microscópicos a partir de la materia cosmológica extremadamente densa de la época, simplemente como resultado de las fluctuaciones aleatorias de la densidad de la materia. Algunos modelos de este proceso predicen que casi toda la masa del Universo podría estar oculta de esa forma, y, por supuesto, no podemos descartar la posibilidad de que esos vestigios del big bang que pasan desapercibidos hayan excedido de la densidad crítica.

Finalmente, se ha sugerido que puede haber grandes cantidades de energía {que gravita igual que la materia) por todo el Universo en forma de radiación difícil de percibir. De toda la radiación que podemos detectar, su energía total constituye una masa de menos del 1% de la materia cosmológica, el cual es un valor desdeñable. Por otra parte, algunas formas de radiación no son detectadas tan fácilmente, un ejemplo de las cuales podría ser el fondo de gravitones primordiales procedentes de las primeras épocas del big bang ya considerado en el capítulo 2. Según nuestros conocimientos actuales, la radiación de gravitones debería ser comparable, en cuanto a energía, con la radiación térmica, y por lo tanto sería igualmente desdeñable; pero si las estimaciones estuvieran equivocadas en un factor de unos cuantos miles —lo cual es bastante posible—, la gravedad de estos gravitones podría dominar la dinámica cósmica y provocar el colapso del Universo. Por otra parte, la existencia de toda esta energía de los gravitones sería prácticamente indetectable por nosotros. También pueden haber escapado a la detección ondas gravitatorias mucho más largas que los gravitones primordiales. Existen muchas fuentes de estas ondas: por ejemplo, la turbulencia del fluido primordial antes de la formación de las galaxias.

Otra fuente de masa oculta son los neutrinos. Ningún aparato de laboratorio disponible por ahora podría detectar neutrinos cósmicos en abundancia suficiente para superar la densidad de la materia ordinaria en un factor cien. Una vez más, los estudios teóricos sobre el big bang predicen un fondo de neutrinos primordiales, pero con una energía comparable a la de la radiación térmica.

Muy recientemente ha aparecido una pieza de evidencia completamente nueva respecto a la masa del Universo. En el capítulo 2 se ha descrito cómo la síntesis nuclear en la bola de fuego primordial produjo una gran cantidad de helio, a partir del hidrógeno primordial, en un proceso de dos etapas: primero, el hidrógeno ordinario formó deuterio y, luego, el deuterio se combinó para formar helio. El deuterio se conoce también con el nombre de hidrógeno pesado, porque, químicamente, es igual al hidrógeno, si bien pesa el doble debido a su estructura nuclear, que consiste en un protón combinado con un neutrón, en vez del único protón que existe en el hidrógeno ordinario. La parte más difícil de la síntesis del helio es la primera etapa; una vez se ha formado el deuterio, se combina rápidamente y forma helio. Por ello, el deuterio no dura mucho tiempo, y no se espera que exista en el Universo de modo abundante. Se le encuentra mezclado con el hidrógeno ordinario en el agua del mar, y los físicos tienen grandes esperanzas en poder utilizarlo para hacer funcionar un reactor de fusión controlada y obtener así energía nuclear.

Un grupo de científicos de la Universidad de Princeton estimaron la abundancia de deuterio en el medio interestelar y encontraron un átomo de ese elemento por cada cien mil de otras clases. Si este resultado es típico de la abundancia cósmica, puede ser utilizado del siguiente modo para determinar el destino del Universo. En la bola de fuego primordial, el ritmo de conversión del deuterio en helio depende directamente del ritmo de colisiones de los núcleos de aquél a alta energía. Esto, a su vez, queda determinado por la densidad de la materia: en la materia de elevada densidad ocurren más colisiones que en la de baja densidad. Así, se puede calcular la fracción de núcleos de deuterio que escapan a la fusión en helio para cualquier densidad de la materia primordial. Utilizando los resultados de Princeton, cabe determinar esa densidad de la materia primordial y deducir fácilmente la densidad actual, calculando de este modo lo que se ha expansionado el Universo desde que tuvo lugar la síntesis del helio. De esta forma se ha estimado que si existiera suficiente materia en el Universo para que finalmente se colapsara, entonces sólo debería haber alrededor de una décima parte del deuterio encontrado por los astrónomos de Princeton.

Actualmente, los astrónomos, por varias razones, parecen inclinados a creer que el Universo seguirá en expansión para siempre, pero todas las pruebas y estimaciones mencionadas anteriormente están sujetas a errores y objeciones y, por el momento, no es posible adoptar ninguna decisión definitiva. Hasta que tengamos una comprensión más detallada de los complicados procesos físicos que tienen lugar en el cosmos, permanecerá abierta la cuestión de la naturaleza de la catástrofe que nos depara el futuro.

A partir del estudio de las ecuaciones de campo de Einstein se puede deducir que el hecho de que haya o no una contracción cósmica está íntimamente ligado a la cuestión de si el Universo es finito o infinito. En el capítulo I vimos como un Universo finito fue descartado por Newton, ya que caería hacia su centro a causa de su propia gravedad. En aquel tiempo se consideraba el espacio como algo rígido y fijo, y, por lo tanto, la cuestión de la finitud del Universo residía en si el conjunto de estrellas o galaxias tenía o no un borde en alguna parte. No hay ningún borde visible, pero esto puede ser debido a que la Tierra esté situada cerca del centro, o a que el Universo sea tan grande que nuestros telescopios no alcancen hasta la periferia. Newton suponía que si había algún borde, más allá debía haber un vacío oscuro, sin límites ni fronteras. Era precisamente esta idea de una aglomeración finita de estrellas situada en un vacío infinito la que Newton rechazó basándose en razonamientos mecánicos.

Cuando Einstein descubrió que el espacio no es rígido ni fijo, el debate acerca del tamaño del Universo tomó un derrotero completamente distinto. Si se considera que el espacio es curvado, el Universo puede ser de tamaño finito sin que la distribución de estrellas tenga ningún borde ni límite. Esta concepción original se puede comprender mejor por analogía con una superficie curva bidimensional, como la membrana de un globo, moteada toda ella con puntos que representan las estrellas o las galaxias, idea que ya se ha expuesto en el capítulo I. Como la distribución de puntos se extiende por toda la superficie, no hay centro ni borde, aunque la superficie tiene claramente un tamaño finito. Visto desde cualquier lugar, un observador fijo en la superficie percibiría que su mundo no continúa para siempre, ya que si viajara en cualquier dirección podría circunnavegar toda la superficie y volver al punto de partida desde la dirección opuesta. Por otro lado, en ningún momento de su viaje encontraría una barrera o un borde, ni notaría cambios en el número o distribución de los puntos (estrellas) a su alrededor. De hecho, el aspecto de su Universo sería siempre más o menos el mismo en cualquier lugar. Resumiendo, describiría su mundo diciendo que no es plano, sino curvado en todas las direcciones, llegándose a juntar consigo mismo en el lado opuesto del Universo, respecto al sitio donde se encuentre.

Einstein propuso la extensión de esta idea simple acerca de la geometría de una superficie al espacio real tridimensional, y supuso que el Universo está curvado en todas las direcciones y se junta en el «lado opuesto». Por lo tanto, en este modelo del espacio sería posible viajar en línea recta por el Universo y volver al punto de partida desde la dirección opuesta, igual que una persona podía circunnavegar el globo. En principio, también sería posible verse la nuca con un telescopio suficientemente grande al recibir la luz que ha completado esta circunnavegación cósmica. De la misma forma que la superficie de una esfera tiene un tamaño finito, el Universo de Einstein tiene igualmente un volumen finito, de modo que el número de estrellas también es finito.

Los astrónomos han intentado comprobar el concepto de Einstein de un espacio cerrado y finito midiendo el tamaño y la cantidad de galaxias alejadas. La curvatura del espacio produce una distorsión de su tamaño a gran distancia, y esto debería poder verse. Por desgracia, tanto el tamaño como el número de galaxias están sujetos a todo tipo de efectos distintos, menos extraños, y aún no ha sido posible comprobar esa curvatura espacial del Universo. Sin embargo, hay una curiosa conexión entre la finitud del espacio y la del tiempo. La curvatura del espacio está directamente relacionada, con la densidad de materia del Universo, lo que determina a su vez si éste, finalmente, se colapsará.

Para imaginarse un Universo en expansión es útil volver a la analogía del globo moteado que se va hinchando lentamente. Cada punto se aleja de todos los demás puntos, pero ninguno es el centro del movimiento general de expansión. Es importante recordar que no hay una explosión de galaxias en un vacío preexistente, sino una expansión uniforme del mismo espacio. Por lo tanto, el cosmos en contracción, que termina como una singularidad del espacio tiempo en un tiempo finito en el futuro, tiene también un tamaño finito. A la inversa, el espacio de un Universo en expansión eterna sería de extensión finita, sin límites. Este hecho tiene implicaciones de gran alcance: unas matemáticas simples muestran que en un Universo infinito y con un número infinito de estrellas habrá un número infinito de criaturas inteligentes de qué preocuparse, por pequeña que sea la probabilidad de que aparezca la vida en cualquier parte. Aún más: habrá un número infinito de planetas, de sistemas estelares y de galaxias que sean casi copias idénticas de la Tierra, el Sistema Solar y la Vía Láctea. Cualquier lector de este libro tendrá un número infinito de copias casi idénticas, indistinguibles, de él mismo, excepto tal vez por la disposición de unos pocos átomos. Por lo tanto, en un Universo infinito no sólo habrá otros planetas habitados, sino que estamos seguros, sobre bases estadísticas, de que habrá un número ilimitado de ellos parecidos tanto como queramos a la Tierra tal como es ahora. Si viajáramos a uno de esos planetas, no podríamos diferenciarlo de la Tierra. Por supuesto, por cada planeta parecido a ésta hay incontables millones y millones que son totalmente distintos.

La organización a escala galáctica fue la primera en aparecer en el Universo, y también será la primera en desaparecer. La tecnología es el último nivel de organización surgido, y será probablemente la última en sucumbir al colapso inevitable. Resulta fascinante especular sobre cómo el empleo de la tecnología podrá aplazar tanto tiempo como sea posible la ejecución cósmica.

Si el Universo se vuelve a contraer al cabo de unos miles de millones de años, ninguna tecnología puede impedir el destino inevitable. La manipulación del entorno puede permitir a la civilización continuar hasta llegar a unos mil millones de años del fin, cuando la temperatura primordial haya ascendido tanto que desaparezca del todo el desequilibrio termodinámico del que depende la vida. Tal vez pueda resolverse este problema de alguna forma, pero no por mucho tiempo, ya que un millón de años antes del fin la temperatura del espacio habrá alcanzado varios miles de grados, y todos los cuerpos sólidos comenzarán a vaporizarse. Después de esto, la catástrofe se acelera rápidamente.

Por otra parte, si el Universo sigue expandiéndose, puede ser que transcurran cientos de miles de millones de años antes de que la vida se vuelva imposible en ningún planeta. Esta duración es tan intensa que, para la escala de la actividad humana, parece casi infinita. Si tiene sentido hablar de nuestros «descendientes» en un futuro tan lejano, no podemos hacernos ni siquiera una idea de su capacidad tecnológica. Como ya hemos dicho, con tiempo, dinero y motivación suficientes, cualquier cosa que sea posible dentro de las leyes de la física puede ser obtenido con una tecnología suficientemente avanzada. Tenemos todo el tiempo por delante, y no puede haber motivación más fuerte que la supervivencia, pero la super tecnología seguirá dependiendo en gran medida de la economía. La estructura económica de una sociedad basada en la inteligencia artificial está muy por encima de nuestra comprensión, pero es difícil imaginar cualquier límite de la tecnología en una comunidad como esta. Las únicas restricciones a nuestras especulaciones son las leyes de la física que creemos que son correctas. Puede que algunas sean incorrectas, pero si se hacen especulaciones fuera del marco de esas leyes, «todo está permitido», y todas las ideas carecen de valor porque no se basan en hechos conocidos.

Teniendo en cuenta estas reservas, no podemos esperar que ninguna tecnología, por sofisticada y desarrollada que sea, pueda escaparse de la segunda ley de la termodinámica. Se puede retrasar la catástrofe, pero nunca evitarla. Para los que viven en planetas, como los habitantes de la Tierra, el principio del fin empieza cuando la estrella se transforma en una gigante roja. Esto sucede muy lentamente y deja mucho tiempo, millones de años, para una evacuación ordenada de la comunidad. No hace falta que sea una evacuación física de individuos, sino más bien el establecimiento en otro planeta de una pequeña comunidad, a la que se permita crecer durante años mientras que la comunidad de origen va decayendo gradualmente, en el curso de cientos de generaciones. La operación en conjunto puede resultar traumática, pero la extinción final del planeta materno no sería ninguna amenaza para las tradiciones culturales y la experiencia tecnológica. La nueva colonia podría estar en un planeta más remoto en el sistema estelar posiblemente, uno de los satélites de Saturno o Urano podría servir para los habitantes de la Tierra— pero, a la vista de las condiciones inestables de las estrellas después de la etapa de gigante roja, sería mejor mudarse a otro sistema estelar. Si existe la vida por todo el Universo, tanto si es indígena como si es a través de una lenta colonización por un pequeño número de formas de vida inteligentes, habrá una competencia creciente entre las distintas comunidades por un lugar cerca de una de las estrellas apropiadas, cada vez en número más reducido. Estas serán las estrellas de masa pequeña cuya vida puede durar cien mil millones de años y permiten sustentar comunidades cercanas mucho tiempo después de que la mayoría de las demás estrellas se hayan consumido.

Un modo mejor de evitar el conflicto directo con civilizaciones rivales sería controlar una gran nube de gas y aplazar la formación de estrellas hasta que la estrella original se vuelva peligrosa. Se podría manipular entonces una masa pequeña para formar una nueva estrella enana que podría durar otros cien mil millones de años. Siguiendo de esta forma, la comunidad podría aumentar su duración un centenar o más de veces.

La inteligencia artificial tendría unas perspectivas de supervivencia mucho más elevadas que la inteligencia biológica. En primer lugar, la baja movilidad reduce drásticamente el suministro de energía libre necesario para sostener una comunidad de máquinas inteligentes, comparada con seres humanos, por ejemplo, de forma que una manipulación y un control cuidadoso de nubes de gas cósmico podría mantener a esta comunidad durante un trillón de años. Tampoco serían vulnerables a las incertidumbres de los estertores de la muerte de las estrellas; aparte de las explosiones de supernova, pocas cosas de las que suceden cerca de una estrella podrían borrar una comunidad de máquinas si éstas se hallaran suficientemente bien protegidas. Con el simple expediente de instalar la comunidad en la cara oscura de un planeta que tenga permanentemente una cara en dirección opuesta a la estrella, se evitarían todas las inestabilidades, excepto las más catastróficas. Quizá por entonces la ingeniería biológica habrá alcanzado una tal sofisticación que ya no tendrá sentido distinguir entre máquinas y formas biológicas. Sin duda, también será posible manipular la adaptación biológica para crear seres capaces de vivir en condiciones extremas de calor y frío, o de variaciones amplias de la gravedad, abriendo así la posibilidad de considerar la mayor parte del Universo como un hábitat potencial.

La conclusión general es que la tecnología podría alargar la duración de las organizaciones inteligentes miles de millones de veces más que la de la organización cósmica. Sin embargo, no podría seguir durante toda la eternidad. Por ingeniosos que sean los dispositivos inventados, por industriosa que sea una comunidad para controlar cúmulos estelares y nubes de gas, al final se acabarán las reservas de energía libre. Se inventarán muchas veces nuevas formas de duplicar el tiempo antes del desastre, de añadir unos miles de millones de años más, pero el crecimiento inevitable de la entropía debe continuar, y la organización tecnológica irá desapareciendo lentamente. Siempre habrá sitio en el Universo para un grupo lo bastante reducido de individuos inteligentes, si bien la cantidad y el nivel de la actividad irán disminuyendo lenta y seguramente. Toda la vida se enfrenta al final con la catástrofe.

Hasta qué punto se puede aliviar el desastre depende de dos factores clave: el derroche en el consumo de energía por la tecnología y la escala del entorno que llega a controlar. Cuando sea evidente que toda la actividad y la organización dependen de minimizar el aumento de entropía. Se detendrá el gasto incontrolado de los recursos energéticos. Esto ya está sucediendo en la Tierra, y su importancia crecerá con el tiempo. Una mejor utilización de los recursos y un crecimiento industrial cero permitirán alargar mucho la duración de la comunidad.

La adquisición y el control de nuevas fuentes de energía libre exigirán una tecnología más amplia y compresiva. Cada realización tendrá que ser evaluada en términos de energía para determinar cuáles son sus ventajas potenciales. Por ejemplo, una expansión de la comunidad tecnológica hasta un tamaño suficiente para construir y mantener una capa de Dyson podría aumentar tanto el consumo que la energía adicional ganada no valdría la pena. Por supuesto, frente a la catástrofe inminente, una comunidad podría adoptar una actividad totalmente distinta de la nuestra y considerar más deseable crecer en número en un momento dado que aumentar la duración de la comunidad. Sin embargo, es más probable que se utilicen adelantos tecnológicos para adquirir nuevos recursos, a lo que seguirá un período de crecimiento negativo para prolongar sus beneficios.

No conocemos límites a la escala sobre la cual la tecnología podrá actuar con eficacia. Durante los cortos años desde la Revolución Industrial se han reestructurado a nuestra conveniencia gran des áreas de la superficie de este planeta Tierra. Al cabo de unos miles de millones de años sería sorprendente que la tecnología no pudiera controlar áreas de dimensión estelar. La tecnología, al estar limitada por las leyes de la tísica, se ve impedida por la gravedad para hacer alguna gran reestructuración de la galaxia, pero podría ser posible una manipulación de estrellas individuales o incluso de cúmulos de estrellas. El objetivo final es reducir la fracción del aumento de entropía que se derrocha y «redirigirlo» mediante la tecnología. Por ejemplo, de toda la energía emitida por el Sol al espacio sin ninguna utilidad, sólo una trillonésima parte es utilizada por nuestro ineficiente sistema tecnológico. Para aplazar la catástrofe cósmica, es preciso detener este inmenso derroche y conservar las reservas de energía libre potencial.

La mayor fuente de energía libre es suministrada, con mucho, por la gravedad. Después de emitirse la energía producida por la lenta contracción de una estrella, el agujero negro que se forma al final puede suministrar aún enormes cantidades de energía en determinadas circunstancias. Si la tecnología puede llegar a controlar los agujeros negros, o incluso producirlos artificialmente, aparecen posibilidades nunca soñadas. Por ejemplo, cuando chocan dos agujeros negros sin rotación y se juntan, hasta un 29% de su masa puede convertirse en energía. Esta cifra debe compararse con el pobre 1% de la masa del Sol que es radiada en diez mil millones de años. En otras palabras, es posible extraer en un momento la misma energía de dos agujeros negros de masa parecida a la solar que la emitida por más de una veintena de estrellas durante toda su vida. Este resultado increíble se basa en el hecho de que la entropía de los agujeros negros está en proporción directa a su área superficial, pero su masa es proporcional a la raíz cuadrada de esa cantidad. Por lo tanto, su área total combinada (y por tanto la entropía) no necesita disminuir cuando se juntan, aunque disminuya la masa total. Por estas simples razones aritméticas, cabe calcular que no se viola la segunda ley de la termodinámica mientras la energía extraída sea menor que un 29% de la masa total. Para una cantidad de terminada de materia es claramente más ventajoso crear pequeños agujeros negros y hacerlos juntar en etapas sucesivas que formar simplemente dos de tales objetos, ya que, una vez que se han juntado dos de esos agujeros, nada puede volver a separarlos de nuevo; no hay forma de dividir un agujero negro sin que disminuya el área de su superficie. En cada etapa del proceso se puede extraer un 29% de la masa; la eficiencia del proceso crece con el número de etapas utilizadas. Por otra parte, la dificultad para hacer agujeros negros pequeños crece al disminuir su tamaño, por lo que de nuevo es preciso alcanzar un equilibrio entre la energía consumida en crear tales agujeros y la que se puede obtener de su unión. Idealmente, una super tecnología debería registrar el espacio en búsqueda de agujeros negros primordiales de masa muy pequeña y llegar a recogerlos, almacenarlos y unirlos.

La ventaja de esa tecnología de los agujeros negros es que, una vez que hay uno, aunque sea pequeño, es posible hacerlo crecer sin límites simplemente dejando caer cosas en él. Por lo tanto, es el almacén perfecto de energía, ya que su masa puede ser aumentada mediante la adición de cualquier material de desecho. A diferencia de todos los otros sistemas de almacenamiento de energía, los agujeros negros no tienen pérdidas, ya que nada puede escapar de su interior, y las pérdidas por la radiación de la evaporación cuántica son despreciables. De esta forma, es posible almacenar energía casi intacta durante un trillón de años, y un 29% de la masa del artículo gastado ayer puede ser extraído para su uso. Así, los agujeros negros no sólo pueden almacenar energía perfectamente, sino que funcionan con un combustible que puede ser cualquier cosa del Universo, pues cualquier materia, cualquiera que sea su constitución, puede en principio ser sacrificada y convertida en una inmensa cantidad de energía.

Si los agujeros negros se convierten en moneda corriente de las super tecnologías, pueden retrasar la detención del Universo durante un tiempo inimaginable. Ciertamente, nadie tiene la más ligera idea de cómo es posible combinar dos agujeros negros para proporcionar energía, y también es posible que ninguna tecnología, por avanzada que fuera, llegara a controlar el proceso. En cualquier caso, los agujeros negros controlados podrían ser considerados como tan preciosos que su unión, y, por lo tanto, la reducción de su número, sería una locura. Si sucediera esto, se podría usar una estrategia alternativa. Los agujeros negros pueden girar a velocidades muchísimo mayores que los objetos ordinarios; se podría decir que pueden girar casi tan deprisa como la luz. Por ello, se puede almacenar gran cantidad de energía —el 29% de la masa total, una vez más— en forma de energía rotacional, y Roger Penrose ha descubierto un mecanismo que permite extraer esa energía rotacional. La forma en que ello es posible se ha descrito en el capítulo VIII.

Usando agujeros negros en rotación, las super tecnologías podrían prolongar tanto su vida que fuera ésta la actividad dominante del Universo durante un período más largo que la vida de las estrellas. Incluso la época de éstas podría llegar a ser considerada por esos extraordinarios habitantes del futuro como una fase primitiva —un breve e incontrolado, pero necesario, interludio en el amanecer de la historia—, de la misma forma que ahora consideramos las actividades incontroladas de bajo nivel de las moléculas pre biológicas, como los aminoácidos que habitaban el caldo primordial en la Tierra hace mucho tiempo, como un breve, pero necesario, interludio en el camino hacia la vida.

Estamos acostumbrados a pensar en la gravedad, la física nuclear, los campos electromagnéticos, la química, etc., como las fuerzas dominantes que reestructuran y modifican el Universo. Sin embargo, la biología también desempeña un papel; la superficie de la Tierra ha cambiado mucho como consecuencia de la actividad biológica. Por ejemplo, el cambio de nuestra atmósfera desde el metano y el amoníaco hasta el oxígeno es uno de los resultados. La vida inteligente y la tecnología han producido transformaciones en el planeta aún más radicales: se han nivelado montañas, se han desviado o condenado ríos y mares, se ha destruido bosques y se han regado desiertos. Puede haber niveles aún más elevados de actividad organizada por encima de la tecnología, basados en organismos biológicos inteligentes que son capaces de disponerse de forma aún más sofisticada y compleja, pero en cualquier caso no sería inteligente hacer hipótesis sobre los límites del poder de las super tecnologías. Esto sugiere la perspectiva de un Universo en el que la fuerza dominante es, durante la mayor parte de su existencia, el control inteligente. La inteligencia, como actividad organizadora cósmica, puede ser considerada, finalmente, como natural, y tan fundamental como la gravedad, en las últimas etapas de la evolución cósmica.

Es interesante imaginarnos a nosotros mismos en el futuro lejano en el anochecer de la existencia, mirando hacia atrás la historia del cosmos. Sin duda, la veríamos sobre todo como la historia de la tecnología en un Universo frío y oscuro: un trillón o más de años de manipulación de agujeros negros después de sólo cien mil millones de años de actividad estelar incontrolada. Para esos individuos, máquinas o biológicos, el Universo y los procesos del mundo natural serán indistinguibles de la tecnología; el mundo será simplemente tecnología. La época en que los cielos resplandecían con millones de soles brillantes parecerá sólo como otra época del big bang primordial. El Universo que conocemos ahora se habrá perdido en las nieblas de la creación.

Capítulo XI
Mundos sin fin

Si el Universo se expansiona eternamente, la segunda ley de la termodinámica parece predecir que la entropía seguirá creciendo inevitablemente hasta que se alcance un equilibrio, cuando cesa toda la actividad organizada. En 1948, tres brillantes y jóvenes astrónomos británicos, Herman Bondi, Thomas Gold y Fred Hoyle, se dieron cuenta de que había un fallo en el argumento de que el crecimiento inexorable de la entropía, que lleva aparejado la desintegración del orden, implicaba necesariamente que todo el Universo se fuera parando lentamente hasta llegar a la muerte final. Ciertamente, el incremento de entropía significa que algunas regiones del Universo están decayendo, pero esto no significa necesariamente que el desorden total crezca de modo continuado. Si se pudiera encontrar un mecanismo que inyectara nueva información u orden en el Universo, entonces, a pesar de que la entropía total seguiría creciendo, esto podría ser equilibrado por la aparición de cada vez más orden nuevo.

Los astrónomos propusieron un modelo de Universo radical mente distinto de la imagen convencional de creación y evolución seguida de muerte, mediante desintegración lenta o colapso catastrófico. Está basado en un nuevo y llamativo principio que requiere que, a gran escala, el Universo permanezca más o menos igual a través de los tiempos. Para hacer que este principio sea coherente con la evolución irreversible que se observa de las estrellas y las galaxias, es necesario un suministro continuo de orden nuevo, ya que, si se quiere que el Universo tenga el mismo aspecto durante miles de millones de años, se han de formar nuevas galaxias para reemplazar las que se han consumido y envejecido. ¿De dónde proceden estas nuevas galaxias?

Bondi, Gold y Hoyle intentaron explicar el suministro ilimitado de nuevas galaxias de su modelo alterando todas las bases de la cosmología física moderna. Propusieron que la materia del Universo, en vez de aparecer de golpe, en un acto singular de creación, es creada en un proceso continuo que renueva la materia dispersa del Universo a un ritmo estacionario. Para producir las características de su nuevo principio, el ritmo de aparición de nueva materia debe ser ajustado cuidadosamente para que, en promedio, la densidad de galaxias permanezca aproximadamente constante durante la expansión del Universo. Esto requiere que el ritmo de formación de nuevas galaxias en un volumen fijo del espacio compense justamente la pérdida de ellas debido a la recesión cosmológica, de forma que, al alejarse las galaxias viejas, aparecen otras nuevas para llenar los vacíos que aquéllas han dejado. Si este proceso continúa indefinida mente, el Universo tendrá siempre el mismo aspecto: estará ligeramente poblado con galaxias viejas que se han alejado mucho unas de otras, y densamente poblado con las más jóvenes. Al aceptar la creación continua de materia, se elude tanto la creación del Universo por medio del big bang como la muerte posterior de aquél. Por el contrario, el Universo disfruta simultáneamente de evolución y cambio a un nivel local, al seguir su ciclo de vida las galaxias individuales, pero, en conjunto, todo permanece igual para siempre. Siempre habrá la misma densidad de galaxias nuevas que rejuvenecen el cosmos con actividad y orden.

El concepto de movimiento sin cambio global es llamado estado estacionario, y esta hipótesis de creación continua se conoció como la teoría cosmológica del estado estacionario. Durante muchos años rivalizó en popularidad con el modelo del big bang, sobre todo a causa de su novedad y atractivo filosófico. Una de las objeciones menos importantes a esa teoría, era el problema de dónde procedía la materia que aparece continuamente en el Universo. Este es un problema en cualquier teoría cosmológica; en el big bang se supone simplemente que aparece de golpe en la singularidad inicial. No es suficiente apelar a la creación de materia mediante un proceso de conversión de alguna otra forma de energía, como el considerado en el capítulo 2, en conexión con la bola de fuego primordial, ya que las reservas de energía, finalmente, se agotarían. Por el contrario, se necesita una inyección genuina de nueva materia y energía en el Universo. Hoyle elaboró la teoría en un intento de basar en fundamentos matemáticos y tísicos correctos este misterioso proceso de creación, e inventó un nuevo tipo de campo, el llamado campo de creación, o campo C, que tiene la propiedad poco común de contener energía negativa. Cuando ese campo se acopla con la materia ordinaria se vuelve inestable a la producción de nuevas partículas y se potencia el campo C de energía negativa. Ajustando la intensidad del acoplamiento entre el campo C y la materia, Hoyle pudo conseguir que tal campo hipotético creara materia al ritmo deseado. La energía se conservaba siempre en este proceso, ya que dicho campo C iba acumulando energía negativa mientras que la materia adquiría energía positiva.

El ritmo de creación de materia nueva es en realidad muy bajo; demasiado para que su acción pueda ser observada si está repartida por todo el espacio. Para reponer la densidad galáctica a un ritmo que compense la expansión cosmológica sólo es necesario crear un átomo por siglo en un volumen de un kilómetro cúbico, lo cual se halla muy por debajo de cualquier posibilidad de detección. Algunas veces se conjeturó que la materia no se creaba uniformemente por todo el espacio, sino concentrada densamente en cuerpos compactos, como los quásares. En la versión original de la teoría se suponía que la materia acabada de crear aparecía en forma de átomos de hidrógeno distribuidos uniformemente por el espacio, pero con el descubrimiento de objetos astronómicos densos y en explosión algunos de los seguidores prefirieron la idea de unos centros creadores especiales, donde inmensas cantidades de materia energética se derraman violentamente en el Universo. La característica más importante es la inyección de materia de baja entropía en el Universo, de forma que, aunque la entropía total de cualquier volumen de espacio en expansión crezca con el tiempo, la de un volumen fijo de espacio permanezca siempre igual.

Sin duda, un modelo de Universo que no tenga principio ni fin es muy atractivo emocionalmente, tanto para los científicos como para las personas en general. El problema de ese modelo es que hace predicciones muy precisas sobre las características a gran escala del cosmos que no parecen estar de acuerdo con las observaciones. En primer lugar, según el principio básico de la teoría, el aspecto global del Universo habría de ser siempre el mismo, lo cual implica que si miramos a lo lejos en el espacio, y por lo tanto hacia atrás en el tiempo, los objetos de estas regiones remotas tendrían que ser parecidos a nuestros vecinos galácticos. A comienzos de los años 60 los astrónomos empezaron una serie de observaciones sistemáticas de objetos lejanos para comprobar si, realmente, el Universo se halla en un estado estacionario o evoluciona con el tiempo. Las observaciones consistían en el recuento del número de radio- fuentes en función de la época, retrocediendo en el tiempo (es decir, en el espacio) hasta los límites del equipo científico. Los resultados supusieron un golpe para la idea del estado estacionario, ya que demostraron de forma inequívoca que había más radiofuentes en el pasado lejano que ahora, lo cual contradice el principio de que las características a gran escala del Universo deberían permanecer invariables con el tiempo.

Además de los recuentos de radiofuentes, empezaron a aparecer otras evidencias contra la teoría del estado estacionario. El descubrimiento de los quásares (del inglés quasi-stellar radio sources, o radiofuentes quasiestelares) —objetos extremadamente compactos y energéticos cuyo origen y propiedades precisos no se conocen aún— proporcionó otra prueba observacional. Al ser los quásares unos de los objetos más distantes conocidos, proporcionan información acerca de épocas muy primitivas del Universo y la observación revela que eran mucho más numerosos en el pasado que ahora. Sin embargo, el golpe realmente decisivo a la teoría del estado estacionario fue el descubrimiento por Penzias y Wilson de la radiación térmica universal de fondo, que generalmente se supone es un vestigio del big bang. No parece que haya lugar en la teoría del estado estacionario para la presencia de esa radiación de fondo.

Aparte de estas objeciones basadas en las observaciones, la teoría del estado estacionario llevaría a algunas posibilidades muy peculiares. Si no hubo principio del Universo, pueden existir civilizaciones inteligentes arbitrariamente viejas. Si estas comunidades permanecen en una galaxia, deben ser muy escasas, ya que las galaxias viejas se habrán alejado tanto que sólo pueden poblar el Universo de forma muy tenue. En este caso, la comunidad está condenada cuando la galaxia madre se queda sin energía libre de la forma usual.

Es difícil imaginar que estas civilizaciones antiguas no abandonen la galaxia moribunda y no se extiendan por el Universo, mudándose a otras galaxias nuevas tan pronto como éstas se formen y produzcan sistemas estelares estables. Aunque según el modelo del big bang del Universo tal hecho tecnológico estaría seguramente muy por encima de las posibilidades de cualquier civilización en el momento actual, la infinitud del tiempo disponible en la teoría del estado estacionario obliga a tomar en serio la existencia de civilizaciones en algún lugar del Universo con unos conocimientos tecnológicos ilimitados. ¿Hay pruebas de la existencia de estas comunidades increíblemente avanzadas en nuestra galaxia? ¿Debemos suponer que el progreso de ellas ha sido tanto que no podemos distinguir su actividad de la misma naturaleza? Con la existencia de comunidades técnicas de edad ilimitada, es difícil ver cómo el Universo puede evitar volverse un producto de su propia tecnología.

El efecto acumulado de estas objeciones ha provocado el abandono de la idea del estado estacionario por la mayoría de los astrónomos y cosmólogos. A pesar de ello, los conceptos fundamentales de creación continua y aparición espontánea de nuevo orden como forma de evitar la muerte, y tal vez el nacimiento, del Universo siguen siendo contribuciones importantes al debate acerca de la naturaleza del mundo que habitamos.

Se ha propuesto una teoría completamente distinta basada en una extensión extraordinariamente sencilla del modelo convencional del big bang. El punto débil de dicha teoría convencional reside en la presencia de una singularidad del espacio-tiempo en el acontecimiento de la creación. Vimos en el capítulo 2 que la singularidad inicial ha sido considerada por algunos como indicación de que el Universo no había existido nunca «antes» de ese momento. De modo análogo, si el Universo se vuelve a contraer, se colapsará hacia una singularidad final en el futuro, la catástrofe cósmica última, en la que el espacio, el tiempo y la materia dejarán de existir sin que quede absolutamente nada, ni siquiera el espacio vacío. Tanto si estas ideas sobre las singularidades del espacio-tiempo son correctas como si no lo son, es claro que las leyes conocidas de la física dejan de ser aplicables y no es posible hacer ninguna predicción más allá de esos extremos temporales.

Algunos astrónomos y cosmólogos han conjeturado que un Universo en contracción puede sobrevivir a su encuentro con la singularidad del futuro, emerger, como el ave fénix, desde otra bola de fuego primordial y volver a expansionarse en un nuevo ciclo de actividad. Además, este proceso de expansión y contracción podría repetirse ad infinitus, lo que daría inmortalidad al Universo. Según esta imagen, el big bang de nuestro pasado queda relegado a ser simplemente el inicio más reciente de una cadena sin fin de universos, en los que el Cosmos oscila de modo cíclico entre un cierto tamaño máximo muy distendido y unas bolas de fuego calientes y muy densas.

El problema más importante de este modelo cíclico estriba en cómo se evitan las singularidades. Se han sugerido varias posibilidades, a nivel de simples conjeturas. La primera es suponer que los efectos cuánticos son importantes a una densidad suficientemente alta, idea que fue expuesta brevemente en el capítulo 2, en conexión con el big bang. La consideración cuántica de la gravedad, si dispusiéramos de la teoría adecuada, permitiría describir el mismo espacio-tiempo cuántico, en el que ocurren fluctuaciones de geometría. Cuando la densidad de la materia es tan alta que todo el Universo que es dado observar se halla comprimido en un volumen comparable al de un núcleo atómico, las fluctuaciones de espacio tiempo bien pueden ser tan violentas que llegan a romper toda la dinámica del Universo, con lo que se evita la aparición de una singularidad y se permite que el espacio-tiempo siga existiendo. Una segunda propuesta es que la gravedad podría convertirse en una fuerza de repulsión, en vez de ser de atracción, para densidades muy altas, a causa de haber aparecido una gran energía o presión negativas en el Universo. La energía y la presión negativas pueden surgir en los procesos cuánticos y se comportan como si su gravedad fuese una fuerza de repulsión, lo que tal vez provocaría que el Universo «rebotara» al alcanzar una densidad muy alta, en lugar de precipitarse con una aceleración cada vez mayor hacia la extinción catastrófica. Finalmente, existe también la posibilidad de que, a pesar de la formación de una singularidad en alguna parte, esto no implique la desaparición de todo el Universo. Este sería el caso si hubiera movimientos altamente asimétricos cerca de la singularidad y el espacio-tiempo pudiera «pasar de lado» esta barrera singular evitando de ese modo la aniquilación.

Aunque sólo son conjeturas, se conoce tan poco de los últimos límites de la gravedad y de la estructura del espacio-tiempo que, como mínimo, algunos científicos han considerado seriamente la posibilidad del modelo de cosmos oscilante. Si existen otros ciclos del Universo, surge inmediatamente la cuestión de cómo son. ¿Se parecen al nuestro, con galaxias, estrellas y criaturas inteligentes que reflexionan acerca de ellas, o podría el Universo rebotar de cada bola de fuego con una estructura totalmente distinta? Según un punto de vista, cada ciclo estaría provisto de un nuevo conjunto de condiciones físicas —e incluso tal vez nuevas leyes físicas— de una forma más o menos aleatoria, y, si éste fuera el caso, ciclos como el nuestro serían extremadamente poco frecuentes.

Una de las cuestiones más profundas acerca de la naturaleza del Universo en que vivimos es la de por qué es de la forma que es: por qué tienen las galaxias y las estrellas el tamaño que tienen, por qué hay noventa y dos elementos naturales, por qué el protón es 1.836 veces más pesado que el electrón y no cualquier otro número, por qué la radiación térmica del big bang tiene actualmente un valor de tres grados, y no trescientos, etc. Las leyes de la física no determinan el valor de las cantidades físicas, ni el tamaño o el número de los objetos; tampoco determinan la organización del mundo. Aparentemente, estas características están impuestas por encima de las leyes de la física con unos valores que no parecen tener algún significado particular. Un intento de explicación del conjunto asombroso de las características y la disposición aparentemente arbitraria del mundo físico consiste en situar el Universo dentro del contexto de una cosmología cíclica, de forma que los valores reales que observamos y la disposición y la organización del Universo en nuestro ciclo particular son tratados como una selección hecha puramente al azar.

Se supone que al inicio de cada ciclo el Universo emerge de la bola de fuego con un nuevo conjunto de valores fundamentales, y los números concretos que observamos ahora son justamente los que aparecieron esta vez. Sin embargo, es evidente que no podríamos observar valores muy distintos de los actuales, porque la existencia de vida en el Universo depende de esos números. Por ejemplo, si la fuerza eléctrica de atracción entre los electrones y los protones de un átomo fuera demasiado intensa, las órbitas electrónicas quedarían atrapadas dentro del núcleo en una disposición muy complicada y confusa, que impediría la formación de enlaces moleculares estables. Si la química resulta imposible, es difícil pensar cómo podría existir la vida. De forma parecida, si las fuerzas nucleares fueran sólo un poco más intensas, sería posible que dos protones se combinaran, a pesar de su repulsión eléctrica. Si fuera así, uno de ellos se convertiría rápidamente en un neutrón, emitiendo un positrón y un neutrino y dando lugar a un núcleo de deuterio. Esta transformación haría que la nucleosíntesis del helio por combustión del hidrógeno fuera un trillón de veces más eficiente, con la consecuencia de que todo el hidrógeno del Universo se habría quemado en la bola de fuego primordial, sin que quedara nada para las estrellas. Sin estrellas estables quemando hidrógeno de modo estacionario durante miles de millones de años, es casi seguro que la vida sería imposible. A escala cósmica, la disposición global de la materia y la energía no puede ser arbitraria. Si, por ejemplo, el calor primordial fuera mucho mayor, no podría haber planetas con agua líquida porque esta radiación de fondo sería comparable al calor del Sol. En ausencia de agua libre, es dudoso que se hubiera llegado a formar la vida.

Si la existencia de vida depende de que se cumplan determinadas condiciones naturales, no deberíamos esperar observar un Universo muy distinto del que habitamos; dicho en pocas palabras, el mundo en el que vivimos es aquel mundo en el que podemos vivir. Esto no es una explicación de las características naturales de nuestro alrededor, tan sólo se la observación de que no podría haber aquí seres inteligentes para especular acerca de ellos si las cosas fueran muy distintas. Según este punto de vista, casi todos los demás ciclos del Universo deben de haber estado deshabitados, ya que los números y las condiciones no habrán sido los correctos. Esta coherencia entre la física fundamental y la cosmología, por una parte, y la biología y la observación por seres inteligentes, por otra, es el llamado principio antrópico, que establece que nuestra propia existencia restringe la estructura y la evolución del Universo, incluso a escala muy grande.

Algunas personas encuentran muy atractiva la idea de un Universo cíclico. Continúa, por supuesto, la cuestión de la entropía y el problema del Universo que se detiene, pero esto queda un poco de lado debido a la naturaleza peculiar de la gravedad. Mientras dura el movimiento cíclico, el Universo no puede alcanzar el equilibrio: la expansión y la contracción cósmica siguen «dando cuerda» al sistema, y la entropía sigue creciendo.

Sin embargo, un Universo en contracción es de tamaño finito y, como Newton hizo notar hace tiempo, hay una inestabilidad intrínseca que impide a un Universo gravitante finito permanecer estático: siempre debe expansionarse o contraerse. Por lo tanto, el movimiento cósmico debe continuar y, aparentemente, la entropía crecerá sin límite, lo que provocaría que las bolas de fuego fueran progresivamente más calientes y los ciclos más largos. Esto implica una difícil paradoja, ya que si ha habido un núcleo infinito de ciclos antes del nuestro, cabría esperar que el Universo fuera mucho más caliente de lo que es. La energía térmica de la bola de fuego primordial es aproximadamente igual a todo el calor emitido por las estrellas durante un ciclo. Tal vez se pueda resolver la paradoja suponiendo que hay un reproceso real del Cosmos en alguna clase de singularidad en la fase de bola de fuego que, simplemente, modifica los valores de la entropía y de la radiación térmica. Desgraciadamente, en todo este tema hay pocas restricciones a las conjeturas, y es tan escaso lo comprendido respecto a las consecuencias implicadas que todas estas ideas deben ser consideradas como extremadamente especulativas.

Vamos a apartarnos aún más radicalmente de la física convencional y a cuestionar los mismos fundamentos de la degeneración cósmica: la segunda ley de la termodinámica. Cuando se formuló esta ley en el siglo XIX aún no estaba bien desarrollada la teoría atómica de la materia. Los principios termodinámicos se deducían experimentando con fluidos y máquinas térmicas; en todos los casos se encontró que la entropía crecía con el tiempo. A mediados de ese siglo, el físico británico James Clerk Maxwell estaba intentando comprender las bases atómicas de las propiedades de la energía térmica y la transmisión del calor. Se sabía, a partir de investigaciones químicas, que los átomos eran muy pequeños y estaban en movimiento rápido, de forma que Maxwell examinó el comportamiento físico que resultaría de los movimientos acumulados de un gran número de ellos. Consideró como modelo un recipiente de gas y supuso que todos que todos los átomos se mueven siguiendo las leyes de Newton. Los átomos, al ser muy pequeños, se mueven libremente la mayor parte del tiempo, hasta que se encuentran con otro átomo y entonces, al colisionar, cambian de dirección. Supuso que toda la colección de átomos, que en un recipiente real serían del orden de un cuatrillón, se estaban moviendo caóticamente. Cuando los átomos del gas colisionan con las paredes del recipiente ejercen en ella una pequeña tuerza; el efecto medio de un número inmenso de estas colisiones es la producción de una presión considerable contra la superficie de ese recipiente.

Con este simple modelo, Maxwell pudo explicar todas las leyes comunes de los gases. El calor era considerado, simplemente, como la energía de los movimientos atómicos. Cuando se calienta el gas, los átomos se mueven más deprisa, hecho que permitió explicar por qué crece la presión de un gas cuando se le añade calor; los átomos chocan con mayor fuerza contra las paredes del recipiente. La temperatura se interpreta como una medida de la velocidad media de los átomos, por lo que también crece al añadir calor. Además, promediando los movimientos atómicos, Maxwell pudo calcular las relaciones matemáticas precisas que existen entre cantidades como la temperatura y la presión conocidas como ciertas para los gases reales.

Más avanzado el siglo XIX, el físico austríaco Ludwig Boltzmann buscó una teoría atómica de la entropía en un esfuerzo por explicar la segunda ley de la termodinámica. Boltzmann descubrió que el crecimiento del desorden en un gas estaba íntimamente ligado a las colisiones entre los átomos, por lo que analizó matemáticamente el efecto de esas colisiones en un modelo de gas confinado dentro de un recipiente rígido e impermeable. El resultado fue uno de los grandes logros de la física matemática. Descubrió una cantidad que designó H, definida matemáticamente en términos de las posiciones y los movimientos de los átomos, la cual, bajo los efectos de las colisiones interatómicas, aumentaba siempre de magnitud. Claramente, H es la contrapartida atómica de la entropía termodinámica, lo que abrió el camino de la explicación microscópica de la enigmática segunda ley.

La forma en que un gas pasa espontáneamente desde un estado ordenado a otro caótico se puede visualizar con facilidad. Imaginemos, por ejemplo, un frasco de perfume situado en un extremo de una habitación al cual se quita el tapón. En ese momento, el perfume se halla en un estado muy ordenado, al estar confinado en el frasco. Sin embargo, las moléculas de ese perfume se van difundiendo gradualmente fuera del frasco, hacia el aire circundante, y finalmente llegan a toda la habitación. El perfume, evaporado por completo, se halla en un estado totalmente desordenado. Además, ésta es la situación de equilibrio, ya que no esperamos ningún otro cambio: el máximo de entropía corresponde al equilibrio termodinámico.

Decimos que el cambio que ha sufrido el perfume es irreversible: parece que no hay forma de devolver el perfume al frasco sin ninguna interferencia drástica con el contenido de la habitación. La causa del cambio irreversible reside en los movimientos moleculares caóticos. Las moléculas de aire que rodean el frasco están moviéndose continuamente, chocando a, azar con las moléculas de perfume en cualquier dirección. Es fácil comprender por qué, bajo el impacto de este bombardeo caótico, el perfume, finalmente, queda dispersado por toda la habitación. Es como barajar naipes, y cada conjunto de colisiones actúa como si se barajara de nuevo; barajar un juego de naipes es un procedimiento deliberado para desintegrar la organización ordenada de las cartas, y, del mismo modo, las colisiones moleculares destruyen el orden del vapor del perfume. Se puede aplicar la misma clase de razonamiento a todos los incrementos de entropía, incluso a la difusión de gotas de tinta en un volumen de agua que se consideró en el capítulo 6, proceso explicado fácilmente por el impacto de las moléculas de agua. El flujo de calor desde un cuerpo caliente a otro frío —enunciando original de la segunda ley de la termodinámica— puede imaginarse como la comunicación progresiva de los vigorosos movimientos atómicos del cuerpo caliente a los átomos menos energéticos y de movimiento más lento del cuerpo frío, mediante la acción de millones de impactos individuales.

Tan pronto como Boltzmann descubrió su famoso teorema H del cambio irreversible bajo los efectos de las colisiones al azar, surgió una objeción devastadora y muy profunda que provocó dudas y controversias durante todo un siglo de debates. La objeción básica es tan simple como paradójica. Las leyes del movimiento que aplicaron tanto Maxwell como Boltzmann a sus modelos de gases se basaban en las leyes de la mecánica newtoniana para describir el movimiento de las moléculas. Estas leyes no distinguen entre pasado y futuro, es decir, entre una dirección del tiempo y la otra; son igualmente válidas en ambos sentidos. Entonces, ¿cómo es posible que Boltzmann, basándose en movimientos de moléculas que eran individualmente reversibles, probara que un conjunto de moléculas se movía de forma irreversible? Cada conjunto de colisiones, cada vez que se barajan las configuraciones moleculares, debe ser, según los principios newtonianos, reversible. ¿Por qué entonces los sistemas reales sólo evolucionan en un sentido? ¿Por qué las moléculas del perfume no encuentran el camino para regresar espontánea mente al frasco?

La naturaleza de la paradoja se comprende más fácilmente mediante un simple experimento mental. Si concentramos la atención en un átomo en particular que se mueve en línea recta en el espacio entre los demás átomos, veremos que finalmente se encuentra con otro átomo que obstruye su camino, y la colisión resultante hace que los átomos salgan en direcciones distintas a las anteriores. Si miramos con más atención, veremos que los átomos no son bolas macizas, sino que entre ellos se ejercen fuerzas a distancia; en realidad, los dos átomos no se interpenetran ni se tocan en el sentido normal de la palabra, y en cualquier caso el toque es irreal. Verdaderamente, sus trayectorias se curvan de modo gradual al irse acercando uno a otro, y la dirección de su movimiento respectivo se altera sin que lleguen a entrar en contacto real.

Imaginemos ahora que aparecen dos duendes microscópicos con dos bates de cricket y se sitúan sobre las trayectorias de los átomos desviados. En un momento preestablecido golpean ambos los átomos hacia la dirección de la que éstos procedían, invirtiendo exactamente su movimiento. El resultado es que los dos átomos vuelven a chocar, pero en la dirección contraria, y viajan hacia atrás siguiendo las trayectorias curvadas que habían descrito durante el impacto original, para acabar en su situación de partida. Si aparece una gran cantidad de duendes en la habitación llena de aire perfumado y dan unos cuantos trillones de golpes simultáneamente, todas las moléculas de perfume irán hacia atrás, en una secuencia inversa de los miles de millones de colisiones individuales que las habían dispersado de los alrededores del fresco, ya que, si se invierte cada movimiento atómico, se ha de invertir completamente el comportamiento del aire y de los gases del perfume. Por lo tanto, el perfume acaba volviendo dentro del frasco. Entonces, ¿por qué siempre nos encontramos con cambios en un sólo sentido del tiempo, si sus inversos son también posibles?

Puede hallarse la solución a la paradoja considerando la analogía de la baraja. Si se coloca un juego de naipes ordenado por palos y luego se baraja al azar, no esperamos que al final esté ordenado por palos, ni en ninguna disposición altamente ordenada, como, se ría la numérica. Por el contrario, esperamos que, al barajar, se destruya la disposición ordenada y se produzca una secuencia caótica, de acuerdo con el principio general de crecimiento de la entropía. Sin embargo, un instante de reflexión nos revelará que la probabilidad de obtener una ordenación por palos barajando al azar no es exactamente cero. Si se baraja un grupo de cinco cartas consecutivas durante unos minutos, se obtendrá casi inevitablemente en algún momento una secuencia numérica. Al crecer el número de cartas, también aumentará el tiempo necesario antes de que al barajar se obtenga una secuencia ordenada. Para un juego completo de naipes, se podría estar barajando durante toda la vida sin llegar a conseguir nunca la ordenación por palos, pero, al final, se llegaría a conseguir y, si se sigue barajando, cualquier disposición que se desee llegaría a producirse infinitas veces, siempre que se baraje de forma totalmente aleatoria. Durante la mayor parte del tiempo, el paquete estaría muy desordenado, con ninguna disposición de conjunto especial. Se producirían ocasionalmente pequeñas fluctuaciones con tres o cuatro cartas en secuencia numérica, aunque esta disposición desaparecería rápidamente otra vez. Las fluctuaciones mayores serían mucho menos frecuentes y una disposición muy poco probable, como una ordenación completa por palos, sería astronómicamente rara, aunque no imposible. Las fluctuaciones muy poco frecuentes las consideramos como milagrosas y si barajando un juego de naipes obtuviéramos una ordenación por palos, consideraríamos esto como un milagro, aunque, de hecho, tan sólo es extremadamente improbable.

Las características esenciales del experimento de barajar cartas son que todas las secuencias de forma recurrente al cabo de un tiempo enorme; y que las secuencias altamente ordenadas son muchísimo menos frecuentes que las menos ordenadas. Podríamos considerar que la situación desordenada del paquete que ocurre casi siempre es la situación de equilibrio, ya que, a menos que precisáramos con mucho detalle, cabría pensar que nunca más conseguiremos, barajando, volver a tener las cartas ordenadas. No obstante, un examen más cuidadoso pondría de manifiesto muchas fluctuaciones pequeñas, que provocan algunas cortas ordenaciones parciales, así como ciertas disposiciones altamente ordenadas muy poco frecuentes.

Si aplicamos este análisis a las moléculas de un gas e identificamos la entropía con el desorden y esas moléculas con los naipes, es evidente que hay una probabilidad pequeña, pero finita, de que la entropía disminuya y de que se viole o se invierta la segunda ley de la termodinámica, dado un tiempo suficiente. Sin embargo, con un cuatrillón de moléculas, la probabilidad de este suceso es increíble mente más pequeña que con una baraja de cincuenta y dos naipes. Incluso si esperáramos durante toda la edad del Universo, tendríamos una probabilidad despreciable de ver que el perfume regresaba al frasco. Pero ello sucedería al cabo de un tiempo tan largo, que no podría escribirse el número ni cubriendo toda la Tierra con ceros y midiendo el tiempo en milenios. Pueden ocurrir milagros en física, pero son mucho menos frecuentes de lo que jamás llegaríamos a imaginar.

A pesar de todo, es posible ver pequeñas fluctuaciones espontáneas del orden en un gas real. Un fenómeno interesante, llamado movimiento browniano, permite observar con un microscopio el alineamiento al azar de los movimientos de algunas moléculas. Si se coloca una pequeña partícula de polvo dentro de un gas, puede suceder que la disposición casual de los movimientos de las moléculas vecinas a ella cause un bombardeo ligeramente desigual sobre las distintas caras de su superficie. Este efecto provoca un movimiento errático y zigzagueante de la partícula en el gas. Pero el efecto disminuye rápidamente con el número de moléculas que intervienen (es decir, el tamaño de la partícula). No debemos esperar que un ladrillo se mueva por efecto del bombardeo de las moléculas, aunque la energía combinada del impacto de las moléculas de aire que lo rodean es más que suficiente para lanzarlo a través de una habitación, porque es muy improbable que una organización casual de las moléculas provoque que se retiren todas a la vez de un lado del ladrillo, mientras que el otro lado de éste continúe recibiendo el bombardeo de moléculas.

El hecho de que todos los sistemas vuelvan finalmente una y otra vez a estar ordenados resuelve la paradoja que rodea al teorema de Boltzmann. En termodinámica hay una completa simetría temporal si esperamos un tiempo suficiente. Todavía queda el problema de por qué observamos siempre que todo cambia en la misma dirección del tiempo; por ejemplo, por qué el perfume se evapora siempre y nunca vemos lo contrario. Este problema se resuelve preguntando cómo llegó inicialmente el perfume al interior del frasco. No llegó por alguna fluctuación milagrosa del equilibrio, sino que alguien lo puso allí. Es decir, la disposición ordenada del principio es creada de alguna forma por una interferencia exterior. En un sistema verdaderamente aislado, el perfume sólo podría volver a estar dentro del frasco gracias a una de esas fluctuaciones extremadamente poco probables.

En cosmología también podemos buscar el origen de la interferencia exterior. Como no podemos ir fuera del Universo para buscar una explicación del orden inicial, debemos considerar la creación de ese Universo. En el capítulo 6 vimos que la organización cósmica actual fue producida en el proceso de «dar cuerda» causado por la expansión cosmológica en la fase primordial. Este movimiento cósmico es la fuente última de «interferencia» que produce todo el orden y la estructura observable en la actualidad, y cuya descomposición marcará el colapso del Cosmos.

La base atómica de la ley de la entropía sugiere algunas formas posibles de evitar la desintegración cósmica. Examinemos primero una idea errónea que fue sugerida realmente por el mismo Boltzmann. Como ya se ha expuesto antes, es posible que un sistema aislado experimente fluctuaciones espontáneas de auto organización en algunas ocasiones muy poco frecuentes. ¿Podría ser —especuló Boltzmann— que el orden que observamos en el Universo sea simplemente el resultado de uno de estos milagros inimaginablemente escasos en un estado caótico duradero? Una explicación de esta clase presupone que el Universo es infinitamente viejo y que durante la mayor parte del tiempo existe en un estado de equilibrio termodinámico, con una temperatura uniforme y ninguna disposición estructurada ni organización macroscópica de la energía.

El tiempo que necesitan las reordenaciones al azar para producir el orden cósmico observado en la actualidad es inconcebiblemente largo; no podría ser escrito como un número en una hoja de papel tan grande como todo el Universo observable. Sin embargo, Boltzmann supuso que, al final, ocurriría que todo al calor, la luz y la materia repartidos por todo el espacio convergerían espontáneamente para formar estrellas calientes. El Universo que vemos actualmente es considerado simplemente como esa fluctuación gigantesca que va camino de acabar. La razón de que seamos testigos privilegiados de un suceso tan poco frecuente es que, precisamente, necesitamos el desequilibrio termodinámico producido para existir; es el principio antrópico de nuevo. Pero esto no es todo; cuando haya desaparecido la organización actual y el cosmos haya vuelto a su estado de equilibrio más probable de caos, no será en realidad el fin de toda actividad, porque después de otra espera de enorme duración, ocurrirá otra redisposición casual que creará otro Universo ordenado, y así sucesivamente, ad infinitum.

En este razonamiento se halla implícita la expectativa de que después de producirse de esta forma, al azar, un número colosal de universos distintos llegaría finalmente el momento en que la fluctuación siguiente produciría una copia casi idéntica del Universo que vemos hoy día, completo con el Sol, la Tierra, el Empire State Building y ¡el mismo lector! Por supuesto, antes de que se recreara un mundo indistinguible del nuestro, ocurrirían primero un número casi ilimitado de «casi aciertos», algunos sin el Empire State Building, aún más sin África y muchísimos más incluso sin la Tierra. La razón es que las fluctuaciones que producen condiciones sólo aproximadamente iguales a las de ahora, aunque extremadamente caras, son, sin embargo, muchísimo más frecuentes que las copias más precisas. Por cada mota de polvo adicional que se ha de reconstituir de modo correcto, tienen que haber ocurrido millones y millones de fluctuaciones increíblemente poco frecuentes. Pero, a pesar de las enormes cifras manejadas, estamos seguros, basados en la física y la probabilidad elemental, de que seremos reencarnados una infinidad de veces.

Cuando Boltzmann llegó a estas conclusiones notables, los científicos creían que el Universo era globalmente estático y de duración ilimitada. Actualmente se sabe que hay una expansión cosmológica y un big bang. Si se considera la bola de fuego primordial como la creación del Universo, no ha habido tiempo suficiente para que ocurrieran esas fluctuaciones milagrosas. Aparte de esto, hay una objeción muy seria a la explicación del orden del mundo en términos de disposición casual. La probabilidad elemental muestra que es muchísimo más fácil que se produzca de esta forma una sola galaxia en lugar de dos, o dos en lugar de, por ejemplo, diez. Por consiguiente, cada vez que se incrementa la potencia de nuestros telescopios, la teoría de Boltzmann predeciría que, con toda probabilidad, no se verían más galaxias.

Nadie cree en la actualidad que el orden del mundo haya aparecido al azar, y tampoco está nada claro el tema de las repeticiones en un Universo que se expansiona, las cuales permiten que la materia desaparezca por las buenas en los agujeros negros. Es más pro bable que un grupo de átomos suficientemente grande fluctúe, sólo debido a movimientos colectivos al azar, y dé lugar a un agujero negro que, por ejemplo, a un cúmulo estelar. Una vez dentro del horizonte de acontecimientos, todo lo que se devuelve al mundo exterior es la radiación de evaporación descubierta por Hawking.

Una de las hipótesis centrales de la segunda ley de la termodinámica y de la existencia de las repeticiones «milagrosas» de estados ordenados, es la aleatoriedad de los movimientos de los átomos. Barajando al azar, el orden se desintegra en caos, el desequilibrio acaba en equilibrio y se destruye la estructura organizada. Es la aleatoriedad lo que asegura también que una vez se han alcanzado el equilibrio y el caos, éstos se perpetuarán casi indefinidamente. Fue también esta aleatoriedad la que indujo a Boltzmann a predecir que los rearreglos microscópicos podían llegar a reconstituir finalmente el Universo, pero aseguró que esto no sucederá antes de un tiempo «casi infinito».

La aleatoriedad de los movimientos microscópicos es la base de la segunda ley y por lo tanto de la desintegración cósmica. ¿Es correcta? En la vida diaria, muchas veces las cosas no parecen tener forma ni disposición especial cuando se miran de una manera, pero si se miran con mayor atención, se descubre un «orden oculto». En la página 104 se expuso un ejemplo, el de un mensaje codificado: un aparente revoltijo al azar de letras, es una señal inteligente para el iniciado, con un alto contenido de información y baja entropía. Otro ejemplo es el holograma: lo que a primera vista parece ser una placa de cristal sin estructura se reorganiza en una imagen detallada cuando un haz de rayos láser se refleja sobre ella.

Cuando la información está mezclada con algo más, puede ser extremadamente difícil de ver. El físico David Bohm ha analizado un experimento en el que se colocan manchas de tinta dentro de melaza (podrían estar dispuestas de forma que contuvieran un mensaje sencillo). La melaza es estirada unas cuantas veces con una cuchara metálica montada de modo rígido, de forma que esas manchas quedan estiradas en hilos delgados, arrollados de forma aparentemente aleatoria, y al cabo de poco tiempo todo el material aparece de color uniforme. En ese estado, no podemos ver el contenido de información de la tinta, pero aún está allí, mezclada con la melaza, ya que si se gira la cuchara a la inversa, los hilos delgados se comprimen y vuelven a dar lugar a las gotas originales de las que se formaron.

Para nosotros es imposible asegurar que no hay un orden o una información mezclada en el Universo. No podemos decir si éste empezó en el big bang con unos movimientos microscópicos al azar o si, por el contrario, hay una disposición oculta de los átomos, un movimiento cooperativo de todas las pequeñas partículas y ondas demasiado complicado para que lo notemos. Si una disposición como ésta fuera real y todos los átomos del Universo se movieran de una forma preestablecida hacia un fin común, no sería necesario que ocurriera el colapso cósmico.

Hace algunos años, el astrónomo Thomas Gold, cuya fértil imaginación ayudó a inventar la teoría del estado estacionario, propuso que esta disposición cósmica podía existir. Si los movimientos microscópicos no son al azar, la segunda ley de la termodinámica puede ser violada, no al cabo de las habituales largas esperas, sino en cualquier momento. No tenemos que esperar que ocurra una fluctuación extremadamente poco probable, pues la mezcla ya no es aleatoria, sino organizada. El orden puede aparecer de modo directo a partir del caos, simplemente porque los movimientos atómicos han sido dispuestos según un comportamiento colectivo, cooperativo y auto organizado. Para muchas personas el Universo de Gold aparece como realmente milagroso, aunque no contenga nada que contradiga las leyes de la física.

Gold supone que vivimos en un Universo de big bang que, finalmente, se volverá a contraer, organizando de tal forma a nivel microscópico, que al principio de la fase de recontracción empiezan a ocurrir los «milagros» mencionados. Cuando las galaxias empiezan a acercarse entre sí, en vez de alejarse, se invierte la segunda ley de la termodinámica. En lugar de orden que da lugar a caos, los estados de equilibrio desordenado empiezan a ordenarse ellos mismos y dan lugar a disposiciones estructuradas. Por ejemplo, el calor y la luz dispersos en las frías profundidades del espacio empezarían a dirigirse por su propia voluntad hacia las estrellas. El calor iría de los objetos fríos a los calientes, de forma que aquéllos se harían aún más fríos, y los calientes, aún más calientes. Las estrellas serían como pequeños puntos negros en el cielo, ya que, en vez de radiar esa luz y ese calor, tomarían éstos de sus entornos más fríos. Dentro de las estrellas, tal suministro de luz y calor migraría lentamente hacia los núcleos, combinándose durante el camino con más calor y luz, y éstos combinados, al alcanzar las regiones centrales empezarían a reconvertir el helio otra vez en hidrógeno.

En un planeta como la Tierra, todo sería muy extraño. En vez de mezclarse con el agua caliente, los bloques de hielo crecerían y emitirían calor, que haría hervir el agua restante. Las personas, en lugar de hacerse viejas, se harían más jóvenes, al invertirse el metabolismo de sus cuerpos, y sus células emitirían energía, que viajaría por un circuito preestablecido para volver al Sol. Cada año, las montañas se harían un poco menos abruptas, ya que los ríos, al correr corriente arriba desde el mar, se dispersarían por el Banco de las montañas, depositando partículas microscópicas de polvo en las rocas erosionadas, y se elevarían en forma de gotas hacia las nubes. Los edificios caídos se volverían a disponer en un estado ordenado, al tener todos los átomos de los ladrillos movimientos colectivos hacia arriba para transportar los distintos materiales hacia los lugares correctos.

Todo esto parece a primera vista una extraordinaria fantasía científica, pero lo que se ha descrito no es en realidad más notable que lo que observamos a nuestro alrededor. Ciertamente, es lo que observamos, pero descrito con un lenguaje en el que se ha invertido el tiempo. Lo que Gold propone es que, en cierto sentido, el tiempo se invierte durante la contracción cósmica. Hablando con propiedad, el tiempo no se puede invertir, ya que no se está moviendo: es, en realidad, sólo una medida del cambio y del movimiento. La elección de las palabras es sólo una conveniencia lingüística; lo que sucede verdaderamente es que todos los procesos tísicos se invierten en comparación con el orden temporal original. Como estos procesos incluyen al cerebro humano, es evidente que en la fase de contracción del Universo un observador no notará que suceda nada anormal. Estará pensando «hacia atrás». Incluso considerará que nosotros —en vez de él mismo— estamos en una fase de contracción, y que son nuestros procesos los que están transcurriendo «hacia atrás» en el tiempo. Lo que nosotros llamamos la creación del Universo por el big bang, él lo llamaría el fin, el colapso final; y lo que nosotros llamamos fin, él lo consideraría el principio. Considerar que esta disposición simétrica en el tiempo permite evitar la catástrofe cósmica es en realidad una cuestión de gustos. La duración del Universo sigue siendo finita, pero no hay final: ¡sólo dos principios!

Es necesario decir que la mayoría de los científicos no creen que exista esta simetría peculiar, aunque algunos cosmólogos y astrónomos eminentes han apoyado activamente tal idea. Hay quien ha preguntado si en la actualidad somos capaces de notar en el Universo algo que sugiera una probabilidad de invertirse en algún momento del futuro. Una consecuencia de la existencia de habitantes con el tiempo invertido en nuestro futuro es que podrían mandarnos mensajes. El problema es que su información es nuestra entropía (y viceversa), por lo que no podríamos comunicarnos bien unos con otros. Cualquier mensaje que recibamos, deberíamos considerarlo como nuestro mensaje mandado a ellos —la recepción se vuelve transmisión— y esto, por supuesto, provoca todo tipo de paradojas acerca del libre albedrío.

No sólo los mensajes pueden cruzar de una mitad a otra, sino que también puede hacerlo la luz. Por lo que a nosotros concierne, sus átomos absorben energía cuando están excitados, pero nuestros átomos la emiten. En su mitad del Universo, las radioondas convergen hacia los transmisores y la fuente de alimentación, mientras que en nuestra mitad la fuente de alimentación suministra la energía que fluye del transmisor hacia el espacio. ¿Qué sucede a esta energía cuando alcanza la fase de inversión temporal? ¿Es absorbida o estimulada? Son preguntas difíciles, pero por lo menos se ha realizado un experimento para intentar comprobar esas ideas. El razonamiento básico del experimento es, en forma aproximada, que si el electromagnetismo queda invertido en un futuro lejano, su efecto sobre la potencia extraída de un radiotransmisor podría ser detectable ahora. Esto podría interpretarse de otra forma como la recepción de radioondas del futuro invertidas temporalmente. De cualquier modo, el efecto tendría que ser detectable en un transmisor enfocado hacia el espacio exterior. El experimento fue realizado por el astrónomo americano R. B. Partridge en 1973, pero los resultados fueron negativos.

Algunos de los profundos problemas de consistencia en un Universo con inversión temporal pueden ser paliados si se impide que las señales coherentes viajen entre las dos mitades temporales. Este sería el caso en un Universo cíclico, que separaría las dos fases temporales con una etapa de densa bola de fuego. En este modelo, el Universo se expansiona y colapsa, con todos los procesos continuando en la misma dirección temporal, con la entropía creciendo, etc., y entonces emerge en otro ciclo de expansión y contracción desde la bola de fuego divisoria con la dirección de todos los procesos invertida en comparación con el primer ciclo. Se podría hacer la conjetura de que en cada nuevo ciclo habría una nueva dirección del tiempo.

Un modelo de dos ciclos con inversión temporal sugiere una nueva posibilidad intrigante; lo que consideramos como el final del ciclo siguiente (con inversión temporal), es considerado por los observadores de ese ciclo como el principio. Si este principio resultara idéntico a la inversión temporal de nuestro propio big bang, se podrían identificar ambos acontecimientos. En otras palabras, en vez de proseguir indefinidamente o hasta encontrar una singularidad, podemos conjeturar que el tiempo está cerrado en un bucle. Si el tiempo es «circular», entonces el Universo se halla forzado a volver a la situación inicial cada vez. En un mundo así, no hay principio ni fin, aunque el tiempo tiene una extensión finita.

Una víctima del tiempo circular es el libre albedrío, ya que nuestro futuro es también nuestro pasado, no podemos cambiar el mundo que nos rodea de una forma arbitraria. La causa y el efecto quedan entremezclados de modo inextricable, y sólo son permitidos tipos de actividad auto consecuentes. Sin embargo, a causa de la complejidad del mundo, y de la mezcla que ocurre durante las fases de bola de fuego, es dudoso que nunca llegáramos a notar esta falta de libre albedrío.

La ciencia evoluciona con rapidez, y la concepción científica del cosmos ha cambiado radicalmente en los últimos siglos. Y puede volver a cambiar. Sin duda, nuevas leyes de la física aguardan ser descubiertas, nuevos conceptos e ideas que podrían remodelar todos los fundamentos intelectuales en que hoy se basan nuestros juicios sobre la creación, la evolución y el colapso del Cosmos. El papel del hombre como observador inteligente y como fuerza activa para reestructurar el mundo por medio de la tecnología podría cambiar la perspectiva de los próximos siglos.

¿Cuál es, entonces, nuestra perspectiva actual? Muy pocos científicos aceptan la propuesta exótica de la inversión temporal. La teoría del estado estacionario, con su atrayente propiedad de evolución sin fin, ha caído bajo la presión de las observaciones astronómicas. El mundo cíclico de muerte y renacer es sólo una especulación fruto de nuestra ignorancia acerca de la naturaleza de las singularidades del espacio-tiempo. La verdad inapelable parece ser que la desintegración inexorable del Universo, tal como lo conocemos, está asegurada; la organización que sustenta toda la actividad ordenada, desde los hombres hasta las galaxias, se está viniendo abajo de modo lento, pero inevitable, y puede ser incluso dominada por el colapso gravitatorio total hacia el olvido.

F I N


Notas:
[1] El término inglés «big bang» es de uso corriente en castellano para designar la gran explosión inicial en cosmología, por lo que se le ha utilizado sin traducción. (N. del T.)