Universos paralelos - Michio Kaku

Agradecimientos

Quiero expresar mi agradecimiento a los siguientes científicos, que me cedieron generosamente su tiempo para ser entrevistados. Sus comentarios, observaciones e ideas han enriquecido mucho este libro y le han añadido profundidad y nuevos enfoques: Quiero agradecer a los siguientes científicos las estimulantes discusiones sobre física mantenidas a lo largo de los años, que han contribuido a agilizar el contenido de este libro:

Prefacio

La cosmología es el estudio del universo como un todo, incluyendo su nacimiento y quizá su destino final. No es sorprendente que haya sufrido muchas transformaciones en su lenta y dolorosa evolución, una evolución a menudo eclipsada por el dogma religioso y la superstición.
La introducción del telescopio en el siglo XVII marcó la primera revolución en la cosmología. Con la ayuda del telescopio, Galileo Galilei, a partir de la obra de los grandes astrónomos Nicolás Copérnico y Johannes Kepler, pudo abrir los cielos por primera vez a la investigación científica seria. La primera fase de la cosmología culminó con la obra de Isaac Newton, que finalmente estableció las leyes fundamentales que gobiernan el movimiento de los cuerpos celestes. En lugar de depender de la magia y el misticismo, se vio que las leyes de los cuerpos celestes estaban sometidas a fuerzas computables y reproducibles.
Una segunda revolución en la cosmología fue iniciada con la introducción de los grandes telescopios del siglo XX, como el del Mount Wilson, con su inmenso espejo reflector de 100 pulgadas (2,54 m). En la década de 1920, el astrónomo Edwin Hubble utilizó este telescopio gigante para derribar el dogma secular que establecía que el universo era estático y eterno, al demostrar que las galaxias de los cielos se alejan de la Tierra a velocidades terribles, es decir, que el universo se expande. Esto confirmó los resultados de la teoría de la relatividad general de Einstein, en la que la arquitectura del espacio-tiempo no es plana y lineal, sino dinámica y curvada. Así se obtuvo la primera explicación plausible del origen del universo: el universo empezó con una explosión cataclísmica llamada «big bang», que lanzó las estrellas y las galaxias hacia el exterior en el espacio. Con la obra pionera de George Gamow y sus colegas sobre la teoría del big bang y la de Fred Hoyle sobre el origen de los elementos, se erigió un andamio que establecía las líneas generales de la evolución del universo.
En estos momentos se está produciendo una tercera revolución que apenas tiene cinco años. Ha sido iniciada por una batería de instrumentos nuevos de alta tecnología, como los satélites espaciales, láseres, detectores de ondas de gravedad, telescopios de rayos X y superordenadores de alta velocidad. Contamos actualmente con los datos más fidedignos hasta el momento sobre la naturaleza del universo, incluyendo su edad, su composición y quizás incluso su futuro y su muerte final.
Los astrónomos se dan cuenta ahora de que el universo se expande de manera desenfrenada, que esta expansión se acelera sin límite y que se enfría con el tiempo. Si eso sigue así, nos enfrentamos a la perspectiva de la «gran congelación», cuando el universo se hundirá en la oscuridad y el frío y morirá toda la vida inteligente.
El presente libro trata de esta tercera gran revolución. Es bastante distinto de mis libros anteriores sobre física, El universo de Einstein: cómo la visión de Albert Einstein transformó nuestra comprensión del espacio y el tiempo, e Hiperespacio: una odisea científica a través de universos paralelos, distorsiones del tiempo y la décima dimensión, que contribuyeron a la introducción de los nuevos conceptos de dimensiones superiores y de la teoría de las supercuerdas. En Mundos paralelos, en lugar de centrarme en el espacio-tiempo, me refiero a los revolucionarios avances de la cosmología que se han desplegado en los últimos años, basados en las nuevas pruebas de los laboratorios del mundo y de los límites más exteriores del espacio, y en los nuevos avances en física teórica. Mi intención es que pueda leerse y entenderse sin ninguna introducción previa a la física o la cosmología.
En la primera parte del libro, me centro en el estudio del universo, con un resumen de los progresos realizados en las primeras fases de la cosmología, que culminan en la teoría llamada de la «inflación», que nos brinda la formulación más avanzada hasta la fecha de la teoría del big bang. En la segunda parte, me centro específicamente en la teoría emergente del multiverso —un mundo formado por múltiples universos, de los cuales el nuestro es sólo uno— y abordo la posibilidad de los agujeros de gusano, la curvatura del espacio y el tiempo y cómo las dimensiones superiores podrían conectarlos. La teoría de las supercuerdas y la teoría M nos han permitido dar un primer paso importante más allá de la teoría original de Einstein; nos dan más pruebas de que nuestro universo puede ser uno entre muchos. Finalmente, en la tercera parte, comento la gran congelación y lo que los científicos consideran ahora el fin de nuestro universo. También planteo con seriedad, aunque de manera especulativa, cómo podría utilizar las leyes de la física una civilización avanzada en el remoto futuro para abandonar nuestro universo dentro de billones de años, a fin de entrar en otro universo más hospitalario y empezar el proceso de renacimiento o regresar al tiempo en que el universo era más cálido.
Con el flujo de nuevos datos que estamos recibiendo hoy, con nuevas herramientas como los satélites espaciales que pueden explorar los cielos, con los nuevos detectores de ondas de gravedad y los nuevos colisionadores de átomos a punto de ser terminados, los físicos tenemos la sensación de estar entrando en lo que podría ser la edad de oro de la cosmología. Es, en resumen, un gran momento para ser físico y emprender este viaje cuyo objetivo es entender nuestros orígenes y el destino del universo.



LIBRO I
EL UNIVERSO

Capítulo 1
Imágenes del mundo recién nacido

El poeta sólo pide meter la cabeza en el cielo. Es el lógico el que intenta meter el cielo en su cabeza. Y es su cabeza la que se parte.
G. K. Chesterton

Contenido:
  1. El satélite WMAP
  2. La edad del universo
  3. Inflación
  4. El multiverso
  5. La teoría M y la undécima dimensión
  6. El fin del universo
  7. Fuga hacia el hiperespacio
Cuando era pequeño, tenía un conflicto personal con mis creencias. Mis padres habían sido educados según la tradición budista, pero yo asistía todas las semanas a la escuela dominical y me encantaban las historias bíblicas que me contaban sobre ballenas, arcas, estatuas de sal, costillas y manzanas. Me fascinaban aquellas parábolas del Antiguo Testamento, que eran lo que más me gustaba de la escuela dominical. Me parecía que las parábolas sobre grandes inundaciones, zarzas ardientes y separación de aguas eran mucho más emocionantes que los cantos y la meditación budista. En realidad, aquellas historias antiguas de heroísmo y tragedia ilustraban vívidamente profundas lecciones morales y éticas que he tenido presentes toda la vida.
Un día, en la escuela dominical, estudiamos el Génesis. Leer que Dios bramó desde los cielos «Hágase la luz» sonaba mucho más dramático que meditar en silencio sobre el Nirvana. Por pura curiosidad, pregunté: « ¿Dios tenía madre?». La profesora solía responder con agilidad y siempre ofrecía en sus respuestas una profunda lección moral. Sin embargo, esta vez se quedó desconcertada. No, respondió dubitativa, seguramente Dios no tenía madre. «Pero entonces, ¿de dónde vino?», pregunté yo. Me contestó murmurando que tendría que consultar la cuestión con el sacerdote.
No me di cuenta de que accidentalmente había tropezado con una de las grandes preguntas de la teología. Estaba confundido, porque en el budismo no hay Dios en absoluto, sino un universo intemporal sin principio ni final. Más tarde, cuando empecé a estudiar las grandes mitologías del mundo, aprendí que había dos tipos de cosmologías en la religión: la primera basada en un momento único en el que Dios creó el universo y la segunda basada en la idea de que el universo siempre existió y siempre existirá.
Pensé que las dos no podían ser ciertas.
Más adelante, empecé a descubrir que estos temas comunes aparecían en muchas culturas. En la mitología china, por ejemplo, en el principio había el huevo cósmico. El dios niño P'an Ku residió durante casi una eternidad dentro del huevo, que flotaba en un mar informe de caos. Cuando por fin salió del cascarón, P'an Ku se puso a crecer desaforadamente, más de tres metros por día, hasta que la mitad superior del cascarón se convirtió en el cielo y la inferior en la tierra. Después de 18.000 años, murió para que naciera nuestro mundo: su sangre se convirtió en los ríos, sus ojos en el Sol y la Luna, y su voz en el trueno.
En muchos aspectos, el mito de P'an Ku refleja un tema que se encuentra en muchas religiones y mitologías antiguas, y es que el universo inició su existencia con una creatio ex nihilo (creación a partir de la nada). En la mitología griega, el universo empezó en un estado de caos (en realidad, la palabra «caos» viene de la palabra griega que significa «abismo»). Este vacío sin características precisas se describe a menudo como un océano, por ejemplo en la mitología babilónica y japonesa. El tema se encuentra en la mitología egipcia antigua, donde Ra, el dios del sol, surgió de un huevo flotante. En la mitología polinesia, el huevo cósmico es reemplazado por una cáscara de coco. Los mayas creían en una variación de esta historia según la cual el universo nace pero muere después de cinco mil años, sólo para volver a resucitar una y otra vez y repetir el interminable ciclo de nacimiento y destrucción.
Estos mitos de creatio ex nihilo ofrecen un claro contraste con la cosmología según el budismo y determinadas formas de hinduismo. En esas mitologías, el universo es intemporal, sin principio ni fin. Hay muchos niveles de existencia, pero el más alto es el Nirvana, que es eterno y puede alcanzarse sólo a través de la meditación más pura. En el Mahapurana hindú, está escrito: «Si Dios creó el mundo, ¿dónde estaba Él antes de la Creación? […] Has de saber que el mundo no fue creado, como el propio tiempo, que no tiene principio ni final».
Estas mitologías están en clara contradicción unas con otras, sin posibilidades de solución entre ellas. Son mutuamente exclusivas: o el universo tuvo un principio o no lo tuvo. Según parece, no hay término medio.
Sin embargo, hoy en día parece estar surgiendo una solución en una dirección totalmente nueva —el mundo de la ciencia—, como resultado de una nueva generación de poderosos instrumentos científicos que vuelan por el espacio exterior. La antigua mitología se basaba en la sabiduría de los narradores de historias para exponer los orígenes del mundo. Hoy en día, los científicos sueltan una batería de satélites espaciales, láseres, detectores de ondas de gravedad, interferómetros, superordenadores de alta velocidad e Internet, y en el proceso revolucionan nuestra comprensión del universo y nos brindan la descripción más convincente hasta el momento de su creación.
Lo que va surgiendo gradualmente de los datos es una gran síntesis de esas dos mitologías opuestas. Quizás, especulan los científicos, el Génesis ocurre repetidamente en un océano intemporal de Nirvana. En esta nueva imagen, nuestro universo puede compararse a una burbuja que flota en un «océano» mucho mayor con nuevas burbujas formándose todo el tiempo. Según esta teoría, los universos, como burbujas que se forman en el agua hirviendo, están en creación continua y flotan en una zona mucho mayor, el Nirvana del hiperespacio de once dimensiones. Un número cada vez mayor de físicos sugiere que nuestro universo surgió realmente de un cataclismo abrasador, el big bang, pero que también coexiste en un océano eterno de otros universos. Si tenemos razón, se están produciendo big bangs incluso ahora, mientras el lector lee esta frase.
Físicos y astrónomos de todo el mundo especulan ahora sobre cómo pueden ser estos mundos paralelos, qué leyes pueden obedecer, cómo nacen y cómo mueren finalmente. Quizás estos mundos paralelos sean estériles y carezcan de los ingredientes básicos de la vida. O quizá tengan el mismo aspecto que nuestro universo, separados por un único acontecimiento cuántico que hace que difieran del nuestro. Y algunos físicos especulan que quizás un día, si la vida se vuelve insostenible cuando nuestro universo presente envejezca y se enfríe, podamos vernos obligados a abandonarlo y huir a otro universo.
El motor que guía estas nuevas teorías es el flujo masivo de datos que nos llegan de los satélites espaciales que fotografían restos de la propia creación. Es de destacar que los científicos se centran ahora en lo que ocurrió sólo 380.000 años después del big bang, cuando la «luminiscencia» de la creación llenó por primera vez el universo. Quizá la imagen más convincente de esta radiación de la creación procede de un nuevo instrumento llamado «satélite WMAP».

1. El satélite WMAP
« ¡Increíble!» y « ¡Un hito!» eran las expresiones que emitían en febrero de 2003 unos astrofísicos, que normalmente son personas reservadas, para describir los valiosos datos cosechados por su último satélite. El WMAP (Sonda Anisotrópica de Microondas Wilkinson), que toma su nombre del pionero de la cosmología David Wilkinson y fue lanzado en 2001, ha dado a los científicos una imagen detallada, con una precisión sin precedentes, del universo cuando tenía sólo 380.000 años de edad. La colosal energía derramada por la bola de fuego original que dio nacimiento a las estrellas y galaxias ha estado circulando por nuestro universo durante miles de millones de años. Por fin, actualmente ha sido captada en película con detalles exquisitos por el satélite WMAP, que nos ofrece un mapa nunca visto antes, una foto del cielo que muestra con asombrosa minuciosidad la radiación de microondas creada por el propio big bang, lo que la revista Time ha llamado el «eco de la creación». Los astrónomos no volverán a mirar nunca más el cielo de la misma manera.
Los descubrimientos del satélite WMAP representan «para la cosmología un rito de paso de una ciencia de la especulación a una ciencia de la precisión», [1] declaró John Bahcall, del Instituto de Estudios Avanzados de Princeton. Por primera vez, este diluvio de datos del primer periodo de la historia del universo ha permitido a los cosmólogos responder de forma precisa a la más antigua de todas las preguntas que han confundido e intrigado a los humanos desde que contemplaron por primera vez la resplandeciente belleza celestial del cielo nocturno. ¿Qué edad tiene el universo? ¿De qué está hecho? ¿Cuál es el destino del universo?
(En 1992, un satélite anterior, el COBE [Explorador del Fondo Cósmico] nos dio las primeras imágenes borrosas de esta radiación de fondo que llena el cielo. Aunque se trataba de un resultado revolucionario, no dejaba de ser decepcionante porque daba una imagen desenfocada del universo primigenio, lo que no impidió que la prensa, emocionada, titulara la fotografía como «la cara de Dios». Sin embargo, una descripción más precisa de las imágenes borrosas del COBE sería que representaban una «imagen de recién nacido» del universo en su infancia. Si hoy en día el universo es un hombre de ochenta años, las imágenes del COBE, y más tarde las del WMAP, lo mostraban como un recién nacido, con menos de un día de edad).
La razón por la que el satélite WMAP puede darnos unas imágenes sin precedentes del universo en su infancia es que el cielo nocturno es como una máquina del tiempo. Como la luz viaja a una velocidad finita, las estrellas que vemos por la noche se ven como fueron en el pasado, no como son hoy. La luz de la Luna tarda poco más de un segundo en llegar a la Tierra, por lo que, cuando miramos a la Luna, la vemos en realidad tal como era un segundo antes. La luz del Sol tarda unos ocho minutos en llegar a la Tierra. Del mismo modo, muchas de las estrellas conocidas que vemos en el cielo están tan lejos que su luz tarda de 10 a 100 años en llegar a nuestros ojos. (Dicho de otro modo, están de 10 a 100 años luz de la Tierra. Un año luz equivale a la distancia que la luz recorre en un año, aproximadamente 10 billones de kilómetros). La luz de las galaxias lejanas puede estar de cientos a miles de millones de años luz. Como resultado, representan una luz «fósil», parte de ella emitida incluso antes de la aparición de los dinosaurios. Algunos de los objetos más lejanos que podemos ver con nuestros telescopios se llaman quásares, grandes máquinas galácticas que generan cantidades increíbles de energía cerca del borde del universo visible, que pueden estar a una distancia de 12 a 13.000 millones de años luz de la Tierra, y, ahora, el satélite WMAP ha detectado una radiación emitida incluso antes, la de la bola de fuego original que creó el universo.
Para describir el universo, los cosmólogos utilizan a veces el ejemplo de mirar hacia abajo desde lo alto del Empire State Building, que se eleva más de cien pisos sobre Manhattan. Cuando se mira hacia abajo desde lo alto, apenas puede verse la calle. Si la base del Empire State Building representa el big bang, entonces, mirando desde arriba, las galaxias lejanas estarían en la décima planta. Los quásares distantes vistos desde los telescopios de la Tierra estarían en la séptima planta. El fondo cósmico medido por el satélite WMAP estaría apenas una pulgada por encima de la calle. Y ahora el satélite WMAP nos ha dado la medición precisa de la edad del universo con una asombrosa exactitud del 1%: 13.700 millones de años.
La misión del WMAP es la culminación de más de una década de trabajo de los astrofísicos. El concepto del satélite WMAP se propuso a la NASA por primera vez en 1995 y fue aprobado dos años después. El 20 de junio de 2001, la NASA envió el satélite WMAP, a bordo de un cohete espacial Delta II, a una órbita solar entre la Tierra y el Sol. El destino, cuidadosamente elegido, era el punto 2 de Lagrange (o L2, un punto especial de estabilidad relativa cerca de la Tierra). Desde esta posición estratégica, el Satélite siempre apunta lejos del Sol, la Tierra y la Luna y, por tanto, tiene una visión totalmente despejada del universo. Explora totalmente todo el firmamento cada seis meses.
Su instrumentación es de tecnología punta. Con sus potentes sensores, puede detectar la débil radiación de microondas dejada por el big bang y que baña el universo, si bien es absorbida en gran parte por nuestra atmósfera. El satélite, compuesto de aluminio, mide 3,8 por 5 metros y pesa 840 kg. Tiene dos telescopios opuestos que enfocan la radiación de microondas presente en el cielo circundante y, cada cierto tiempo, transmite por radio los datos a la Tierra. Tiene sólo 419 vatios de potencia eléctrica (la potencia de cinco bombillas ordinarias). Situado a 1,6 millones de kilómetros de la Tierra, el satélite WMAP está muy por encima de las perturbaciones atmosféricas de la Tierra, que pueden enmascarar el tenue fondo de microondas, y está en condiciones de hacer lecturas continuas de todo el firmamento.
El satélite completó su primera observación de todo el cielo en abril de 2002. Seis meses después, se hizo la segunda observación completa del cielo. Hoy, el satélite WMAP nos ha proporcionado el mapa más completo y detallado de esta radiación que hemos tenido nunca. La radiación de fondo de microondas que detectó el WMAP fue predicha por primera vez por George Gamow y su grupo de investigación en 1948, que también señalaron que esta radiación era térmica. El WMAP midió su temperatura, que está un poco por encima del cero absoluto, entre 2,7249 y 2,7251° Kelvin.

01-01.jpg
Imagen tomada por el satélite WMAP del universo «recién nacido», tal como era cuando tenía sólo 380.000 años de edad. Seguramente cada punto representa una pequeña fluctuación cuántica en la luminiscencia de la creación que se ha expandido para crear las galaxias y los grupos galácticos que vemos hoy.

A simple vista, el mapa del cielo del WMAP parece poco interesante; no es más que una colección de puntos aleatorios. Sin embargo, esta colección de puntos ha hecho derramar lágrimas a algunos astrónomos porque representan fluctuaciones o irregularidades en el abrasador cataclismo original del big bang poco después de que fuera creado el universo. Estas pequeñas fluctuaciones son como «semillas» que desde entonces se han expandido enormemente al explotar hacia fuera el propio universo. En la actualidad, estas pequeñas semillas han florecido en los grupos galácticos y galaxias que vemos encenderse en los cielos. En otras palabras, nuestra propia galaxia de la Vía Láctea y todos los grupos galácticos que vemos a nuestro alrededor fueron una de estas pequeñas fluctuaciones. Midiendo la distribución de dichas fluctuaciones, vemos el origen de los grupos galácticos como puntos marcados en el tapiz cósmico que cuelga sobre el cielo nocturno.
Hoy en día, el volumen de datos astronómicos deja atrás las teorías de los científicos. En realidad, yo diría que estamos entrando en una edad de oro de la cosmología. (A pesar de ser tan impresionante, es muy probable que el satélite WMAP se vea empequeñecido por el satélite Planck, que los europeos tienen previsto lanzar en julio de 2008; el Planck brindará a los astrónomos imágenes todavía más detalladas de la radiación de fondo de microondas). Por fin la cosmología llega a la mayoría de edad y, después de languidecer durante años en una ciénaga de especulación y conjeturas, emerge de las sombras de la ciencia. Históricamente, los cosmólogos han sido víctimas de una reputación un tanto desagradable. La pasión con la que proponían grandiosas teorías del universo sólo era comparable a la asombrosa pobreza de sus datos. Como solía bromear el premio Nobel Lev Landau: «Los cosmólogos se equivocan a menudo pero nunca dudan». La ciencia tiene un viejo dicho: «Hay especulación, después más especulación, y después está la cosmología».
Como estudiante de último curso de Física en Harvard a finales de 1960, acaricié brevemente la posibilidad de estudiar cosmología. Desde la infancia me fascinaba el origen del universo. Sin embargo, una rápida mirada a la especialidad me dejó claro que era de un primitivismo embarazoso. No se trataba en absoluto de una ciencia experimental, en la que uno puede comprobar hipótesis con instrumentos precisos, sino más bien de una colección de teorías sueltas altamente especulativas. Los cosmólogos entablaban acalorados debates sobre si el universo nació a consecuencia de una explosión cósmica o si siempre ha existido en estado constante. Pero, con tan pocos datos, las teorías rápidamente dejaban atrás los datos. En realidad, cuantos menos datos, más feroz era el debate.
A lo largo de la historia de la cosmología, esta escasez de datos fiables fue motivo de amargas enemistades entre astrónomos, que a menudo duraban décadas. (Por ejemplo, justo antes de que el astrónomo Allan Sandage del Observatorio de Mount Wilson, tuviera previsto ofrecer una conferencia sobre la edad del universo, el orador anterior anunció sarcásticamente: «: «Lo que oirán a continuación es una sarta de errores» [2] y Sandage, sabedor de que un grupo rival había generado mucha publicidad, gritó: «Todo eso son sandeces. ¡Es la guerra… es la guerra!». [3]

2. La edad del universo
Los astrónomos han tenido un interés especial por conocer la edad del universo. Durante siglos, académicos, sacerdotes y teólogos han intentado estimar la edad del universo utilizando el único método que tenían a su disposición: la genealogía de la humanidad desde Adán y Eva. En el último siglo, los geólogos han utilizado la radiación residual depositada en las rocas para conseguir la mejor estimación de la edad de la Tierra. En comparación, el satélite WMAP ha medido hoy el eco del propio big bang para proporcionarnos la edad más fidedigna del universo. Los datos del WMAP revelan que el universo tuvo su inicio en una explosión cósmica que se produjo hace 13.700 millones de años.
(A lo largo de los años, uno de los hechos más embarazosos que asediaban a la cosmología era que a menudo, debido a datos incorrectos, el cálculo revelaba que la edad del universo era inferior a la de los planetas y las estrellas. Las estimaciones previas de la edad del universo eran de sólo 1.000 a 2.000 millones de años, lo que contradecía la edad de la Tierra [4.500 millones de años] y de las estrellas más viejas [12.000 millones de años]. Estas contradicciones han sido superadas).
El WMAP ha añadido un nuevo y extraño giro al debate sobre la composición del universo, una cuestión que ya se plantearon los griegos hace dos mil años. Durante el siglo pasado, los científicos creían conocer la respuesta a esta pregunta. Después de miles de experimentos concienzudos, habían llegado a la conclusión de que el universo estaba hecho básicamente de cien tipos diferentes de átomos, dispuestos en un gráfico periódico ordenado que empezaba por el hidrógeno elemental. Esto forma la base de la química moderna y es, en realidad, lo que se enseña en la clase de ciencia de todos los institutos. El WMAP ha destruido esta creencia.
El satélite WMAP, confirmando experimentos previos, demostró que la materia visible de nuestro alrededor (incluyendo las montañas, los planetas, las estrellas y las galaxias) constituye un mísero 4% del contenido de materia y energía del universo. (De este 4%, la mayor parte se encuentra en forma de hidrógeno y helio, y probablemente sólo el 0,03% adopta la forma de elementos pesados). La mayor parte del universo está constituida, en realidad, por un material misterioso e invisible, de origen totalmente desconocido. Los elementos familiares que forman nuestro mundo constituyen sólo el 0,03% del universo. En cierto sentido, ahora que los físicos se enfrentan al hecho de que el universo está dominado por formas totalmente nuevas y desconocidas de materia y energía, la ciencia está retrocediendo varios siglos para situarse antes de la aparición de la hipótesis atómica.
Según el WMAP, el 23% del universo está constituido por una sustancia extraña e indeterminada llamada «materia oscura», que tiene peso, rodea las galaxias con un halo gigantesco, pero es totalmente invisible. La materia oscura es tan dominante y abundante que, en nuestra galaxia de la Vía Láctea, supera a todas las estrellas por un factor de 10. Aunque es invisible, esta extraña materia oscura puede ser observada indirectamente por los científicos porque refracta la luz de las estrellas, como el vidrio, y de ese modo puede ser localizada por la cantidad de distorsión óptica que genera.
Refiriéndose a los extraños resultados obtenidos por el satélite WMAP, John Bahcall, astrónomo de Princeton, dijo: «Vivimos en un universo inverosímil y loco, pero ya conocemos las características que lo definen». [4]
Pero quizá la mayor sorpresa de los datos del WMAP, los cuales hicieron tambalearse a la comunidad científica, fue que el 73% del universo, la mayor parte con diferencia, está constituido por una forma totalmente desconocida de energía llamada «energía oscura» que es la energía invisible oculta en el vacío del espacio. Concebida por el propio Einstein en 1917 y descartada más adelante por él mismo (la calificó como su «mayor disparate»), la energía oscura, o la energía de la nada o del espacio vacío, está resurgiendo como la fuerza motora de todo el universo. Ahora se cree que la energía oscura crea un nuevo campo de antigravedad que separa a las galaxias. El destino final del universo estará determinado por la energía oscura.
En la actualidad nadie sabe de dónde procede esta «energía de la nada». «Francamente, no lo entendemos. Sabemos cuáles son sus efectos [pero] no tenemos clave alguna […] nadie la tiene», [5] admite Craig Hagan, astrónomo de la Universidad de Washington, en Seattle.
Si tomamos la última teoría de las partículas subatómicas e intentamos calcular el valor de esta energía oscura, encontramos una discrepancia de una magnitud de 10120(es decir, un 1 seguido de 120 ceros). Esta discrepancia entre teoría y experimento es, sin lugar a dudas, el mayor abismo jamás encontrado en la historia de la ciencia. Es una de las cosas que más nos avergüenza: nuestra mejor teoría no puede calcular el valor de la mayor fuente de energía de todo el universo. Desde luego, hay un estante lleno de premios Nobel a la espera de que algún individuo emprendedor pueda desentrañar el misterio de la materia oscura y de la energía oscura.

3. Inflación
Los astrónomos todavía intentan desenmarañar la avalancha de datos del WMAP que, al tiempo que erradica concepciones más antiguas del universo, va dando lugar a una nueva imagen del cosmos. «Hemos puesto la piedra angular de una teoría coherente unificada del cosmos», [6] declara Charles L. Bennett, director de un equipo internacional que colaboró en la construcción y análisis del satélite WMAP. Hasta ahora, la teoría principal era la «teoría inflacionaria del universo», un gran refinamiento de la teoría del big bang, propuesta por primera vez por el físico Alan Guth, del MIT. En el panorama inflacionario, en la primera billonésima de una billonésima de segundo, una misteriosa fuerza antigravitatoria hizo que el universo se expandiera con más rapidez de lo que se pensaba en un principio. El periodo inflacionario fue inimaginablemente explosivo y el universo se expandió con mucha más rapidez que la velocidad de la luz. (Eso no viola el principio de Einstein de que nada puede viajar más rápido que la luz, porque es el espacio vacío el que se expande. Los objetos materiales no pueden romper la barrera de la luz). En una fracción de segundo, el universo se expandió por un factor inimaginable de 1010.
Para visualizar la potencia de este periodo inflacionario, imaginemos un globo que se infla rápidamente, con las galaxias pintadas en la superficie. El universo que vemos poblado de estrellas y galaxias se encuentra en la superficie de este globo, más que en su interior. Ahora dibujemos un círculo microscópico en la superficie del globo. Este pequeño círculo representa el universo visible, todo lo que podemos ver con nuestros telescopios. (En comparación, si todo el universo visible fuera tan pequeño como una partícula subatómica, el universo real sería mucho más grande que el universo visible que vemos a nuestro alrededor). Dicho de otro modo, la expansión inflacionaria fue tan intensa que hay regiones enteras del universo más allá de nuestro universo visible que siempre estarán fuera de nuestro alcance.
En realidad, la inflación fue tan enorme que cerca de nosotros el globo parece plano, un hecho que ha sido verificado experimentalmente por el satélite WMAP. Del mismo modo que la Tierra nos parece plana debido a nuestra pequeñez comparados con el radio de la Tierra, el universo parece plano sólo porque está curvado a una escala mucho más grande. Partiendo de la base de que el universo se vio sometido a este proceso de inflación, casi podemos explicar sin esfuerzo muchos de los enigmas del universo, como por qué parece ser plano y uniforme. Hablando de la teoría de la inflación, el físico Joel Primack ha dicho: «Ninguna teoría tan bella como ésta ha sido nunca errónea». [7]

4. El multiverso
El universo inflacionario, aunque coherente con los datos del satélite WMAP, no responde todavía a la pregunta de qué causó la inflación. ¿Qué puso en marcha esta fuerza antigravitatoria que infló el universo? Hay más de cincuenta propuestas para explicar qué puso en marcha la inflación y qué fue lo que le puso fin, creando el universo que vemos a nuestro alrededor. Pero no hay un consenso universal. La mayoría de los físicos coinciden en la idea central de un rápido periodo inflacionario, pero no hay propuestas definitivas sobre cuál es el motor de la inflación.
Como nadie sabe exactamente cómo empezó la inflación, siempre existe la posibilidad de que pueda producirse otra vez el mismo mecanismo, que las explosiones inflacionarias puedan ocurrir repetidamente. Ésta es la idea que propone el físico ruso Andrei Linde, de la Universidad de Stanford: fuera cual fuese el mecanismo que hizo que parte del universo se inflara súbitamente, sigue en funcionamiento, causando quizás aleatoriamente que también se inflen otras regiones distantes del universo.
Según esta teoría, un pequeño pedazo de universo puede inflarse súbitamente y «echar brotes», haciendo que surja un universo «hijo» o «bebé», que a su vez puede hacer que brote otro universo recién nacido, y así sucesivamente. Imaginemos que soplamos burbujas de jabón en el aire. Si soplamos con la fuerza suficiente, vemos que algunas de las burbujas se parten por la mitad y generan nuevas burbujas. Del mismo modo, los universos pueden estar dando a luz continuamente nuevos universos. En este panorama, pueden estar ocurriendo big bangs continuamente. Si es así, puede ser que vivamos en un mar de universos, en una especie de burbuja flotando en un océano de otras burbujas. En realidad, una palabra mejor que «universo» sería «multiverso» o «megaverso».
Linde da a esta teoría el nombre de inflación eterna autorreproducida o «inflación caótica», porque prevé un proceso interminable de inflación continua de universos paralelos. «La inflación viene a imponernos la idea de múltiples universos», [8] declara Alan Guth, que fue el primero que propuso la teoría de la inflación.
Esta teoría también implica que, en algún momento, nuestro universo puede generar su propio universo. Quizá nuestro propio universo tuvo su principio al surgir de un universo anterior más antiguo.
Como dijo el astrónomo real de Gran Bretaña, Sir Martin Rees: «Lo que se llama convencionalmente "el universo" podría ser sólo un elemento de un conjunto. Pueden existir otras formas incontables donde las leyes sean diferentes. El universo del que hemos emergido pertenece al subconjunto inusual que permite que se desarrolle la complejidad y la conciencia». [9]

01-02.jpg
Cada vez hay más pruebas teóricas para sostener la existencia de un multiverso del que siguen brotando o saliendo otros universos como retoños. Si es así, se unificarían dos de las grandes mitologías religiosas, el Génesis y el Nirvana. El Génesis tendría lugar continuamente dentro de la estructura del Nirvana intemporal.

Toda esta actividad de investigación sobre el tema del multiverso ha dado pie a especular sobre qué aspecto pueden tener esos otros universos, si albergan vida e incluso si es posible llegar a establecer contacto con ellos. Científicos de Cal Tech, MIT, Princeton, y otros centros de conocimiento han realizado cálculos para determinar si la presentación de un universo paralelo es coherente con las leyes de la física.

5. La teoría M y la undécima dimensión
En otros tiempos, la simple idea de universos paralelos era vista con sospecha por parte de los científicos, que la consideraban propia de místicos, charlatanes y chiflados. Cualquier científico que se atreviese a trabajar sobre universos paralelos se exponía al ridículo y ponía en riesgo su carrera, ya que ni siquiera hoy hay ninguna prueba experimental que demuestre su existencia.
Pero recientemente se ha producido un cambio espectacular y las mejores mentes del planeta trabajan frenéticamente sobre el tema. La razón de este cambio súbito es la aparición de una nueva teoría, la teoría de cuerdas, y su versión posterior, la teoría M, que prometen no sólo desentrañar la naturaleza del multiverso, sino también permitirnos «leer la Mente de Dios», como dijo Einstein con elocuencia en una ocasión. Si se demostrase que es correcta, representaría el logro supremo de los últimos dos mil años de investigación en física, desde que los griegos empezaron la búsqueda de una única teoría coherente y comprensiva del universo.
El número de trabajos publicados sobre la teoría de cuerdas y la teoría M es extraordinario y alcanza las decenas de miles. Se han celebrado cientos de conferencias internacionales sobre el tema. En todas las universidades importantes del mundo hay algún grupo que trabaja sobre la teoría de cuerdas o que intenta aprenderla desesperadamente. Aunque la teoría no puede probarse con los débiles instrumentos que tenemos hoy en día, ha despertado un interés enorme entre físicos, matemáticos e incluso experimentalistas, que en el futuro esperan demostrar la periferia de la teoría mediante poderosos detectores de ondas gravitatorias en el espacio exterior y grandes colisionadores de átomos.
A la larga, esta teoría puede responder a la pregunta que ha perseguido a los cosmólogos desde que se propuso por primera vez la teoría del big bang: ¿qué pasó antes del big bang?
Esto nos exige movilizar toda la fuerza de nuestro conocimiento físico, de todos los descubrimientos de la física acumulados a lo largo de los siglos. Dicho de otro modo, necesitamos una «teoría del todo», una teoría de todas las fuerzas físicas que mueven el universo. Einstein pasó los últimos treinta años de su vida buscando esta teoría, pero no lo consiguió.
En el presente, la principal (y única) teoría que puede explicar la diversidad de las fuerzas que guían el universo es la teoría de cuerdas o, en su última encarnación, la teoría M. (M quiere decir «membrana», pero también puede querer decir «misterio», «magia» e, incluso, «madre». Aunque la teoría de cuerdas y la teoría M son esencialmente idénticas, la teoría M es un marco más misterioso y sofisticado que unifica varias teorías de cuerdas).
Desde la época de los griegos, los filósofos han especulado con que los bloques fundamentales que constituyen la materia podrían estar hechos de pequeñas partículas llamadas «átomos». Hoy en día, con nuestros poderosos colisionadores de átomos y aceleradores de partículas, podemos dividir al propio átomo en electrones y núcleo, que a su vez pueden ser divididos en partículas subatómicas más pequeñas todavía. Pero lo descorazonador fue que, en lugar de un marco elegante y sencillo, se vio que de nuestros aceleradores salían cientos de partículas con nombres extraños como neutrinos, quarks, mesones, leptones, hadrones, gluones, bosones W, etcétera. Es difícil creer que la naturaleza, en su nivel más fundamental, pueda crear una confusa jungla de extrañas partículas subatómicas.
La teoría de cuerdas y la teoría M se basan en la idea sencilla y elegante de que la desconcertante variedad de partículas subatómicas que forman el universo es similar a las notas que pueden tocarse en la cuerda de un violín o sobre una membrana como la del parche del tambor. (No se trata de cuerdas y membranas ordinarias; existen en el hiperespacio de diez y once dimensiones).
Tradicionalmente, los físicos veían los electrones como partículas puntuales infinitesimalmente pequeñas. Ello significaba que los físicos tenían que introducir una partícula puntual diferente para cada una de los cientos de partículas subatómicas que encontraban, lo cual resultaba muy confuso. Pero según la teoría de cuerdas, si tuviéramos un supermicroscopio que pudiera ver el corazón de un electrón, veríamos que no se trata en absoluto de una partícula puntual, sino de una pequeña cuerda vibrante. Sólo parecía ser una partícula puntual porque nuestros instrumentos son demasiado rudimentarios.
Esta pequeña cuerda, a su vez, vibra a diferentes frecuencias y resonancias. Si punteáramos esta cuerda vibradora, cambiaría de forma y se convertiría en otra partícula subatómica, como un quark. Si la volvemos a puntear, se convierte en un neutrino. De este modo, podemos explicar la tormenta de partículas subatómicas como algo parecido a diferentes notas musicales en la cuerda. Ahora podemos reemplazar los cientos de partículas subatómicas vistas en el laboratorio por un solo objeto, la cuerda.


Analogía Musical Contrapartida de Cuerdas
Notación musicalMatemáticas
Cuerdas de violínSupercuerdas
NotasPartículas subatómicas
Leyes de la armoníaFísica
MelodíasQuímica
UniversoSinfonía de cuerdas
«Mente de Dios»Música que resuena por el hiperespacio
Compositor?

En este nuevo vocabulario, las leyes de la física, cuidadosamente construidas después de miles de años de experimentación, no son más que las leyes de la armonía que pueden escribirse para cuerdas y membranas. Las leyes de la química son las melodías que uno puede tocar con estas cuerdas. El universo es una sinfonía de cuerdas. Y la «Mente de Dios», de la que Einstein escribió con tanta elocuencia, es la música cósmica que resuena en todo el hiperespacio. (Lo que plantea otra pregunta: si el universo es una sinfonía de cuerdas, ¿hay un compositor? Respondo a esta pregunta en el capítulo 12).

6. El fin del universo
El WMAP no sólo nos permite apreciar con exactitud el universo primigenio sino que también nos da la imagen más detallada de cómo morirá nuestro universo. De la misma manera que al principio de los tiempos la misteriosa fuerza antigravitatoria empujó a las galaxias y las separó, esta misma fuerza antigravitatoria está ahora empujando el universo hacia su destino final. Anteriormente, los astrónomos pensaban que la expansión del universo se iba reduciendo gradualmente. Ahora somos conscientes de que en realidad el universo se está acelerando y las galaxias se van alejando de nosotros a una velocidad cada vez mayor. La misma energía oscura que constituye el 73% de la materia y energía del universo está acelerando su expansión, empujando y separando las galaxias a velocidades cada vez mayores. «El universo se está comportando como un conductor que desacelera al acercarse al semáforo en rojo y pulsa el acelerador cuando la luz se pone verde», [10]dice Adam Riess, del Space Telescope Institute.
A no ser que ocurra algo que invierta esta expansión, en 150.000 millones de años nuestra galaxia de la Vía Láctea puede volverse bastante solitaria, con el 99,99999% de todas las galaxias cercanas precipitándose hacia el borde del universo visible. Las galaxias que nos son familiares en el cielo nocturno se alejarán de nosotros con tanta rapidez que su luz no nos alcanzará nunca. Las galaxias en sí no desaparecerán, pero estarán demasiado lejos para que nuestros telescopios puedan observarlas. Aunque el universo visible contiene aproximadamente 100.000 millones de galaxias, en 150.000 millones de años sólo unos miles de galaxias del supergrupo local de galaxias serán visibles. Más allá en el tiempo, sólo nuestro grupo local, que consiste en unas treinta y seis galaxias, comprenderá todo el universo visible, mientras que miles de millones de galaxias superarán el límite del horizonte. (Eso se debe a que la gravedad dentro del grupo local es suficiente para superar esta expansión. Irónicamente, a medida que las galaxias lejanas desaparecen de nuestra vista, cualquier astrónomo que viva en esta era oscura puede fracasar por completo en la detección de una expansión en el universo, ya que el grupo local de galaxias no se expande internamente. En un futuro lejano, puede que los astrónomos que analicen el cielo nocturno por primera vez no se den cuenta de que hay una expansión y concluyan que el universo es estático y está formado por sólo treinta y seis galaxias).
Si esta fuerza antigravitatoria continúa, a la larga el universo morirá en una gran congelación. Toda la vida inteligente del universo acabará congelándose y agonizará cuando la temperatura del espacio profundo caiga hasta el cero absoluto, estado en que las moléculas apenas pueden moverse. En algún momento, dentro de billones y billones de años, las estrellas dejarán de brillar, sus fuegos nucleares se extinguirán cuando se les agote el combustible y el cielo nocturno se oscurecerá para siempre. La expansión cósmica sólo dejará un universo frío y muerto de estrellas enanas negras, estrellas de neutrones y agujeros negros. Y en un futuro todavía más lejano, los propios agujeros negros evaporarán su energía, dejando una niebla fría y sin vida de partículas elementales a la deriva. En un universo inhóspito y frío, la vida inteligente es físicamente imposible según cualquier definición concebible. Las férreas leyes de la termodinámica prohíben la transferencia de toda información en un entorno congelado de este tipo, y toda vida cesará necesariamente.
La primera toma de conciencia de que a la larga el universo puede morir en el hielo se hizo en el siglo XVIII. Comentando el depresivo concepto de que las leyes de la física aparentemente condenan toda la vida inteligente, Charles Darwin escribió: «Creyendo como creo que en un futuro lejano el hombre será una criatura mucho más perfecta que ahora, es intolerable la idea de que él y todos los demás seres sensibles estén condenados a la completa aniquilación después de un progreso continuado tan lento». [11]Desgraciadamente, los últimos datos del satélite WMAP parecen confirmar los peores temores de Darwin.

7. Fuga hacia el hiperespacio
Es una ley de la física que la vida inteligente del universo se enfrentará necesariamente a su muerte. Pero también es una ley de la evolución que, cuando el entorno cambia, la vida tiene que abandonarlo, adaptarse a él o morir. Como es imposible adaptarse a un universo que se congela hasta morir, las únicas opciones son o morir o abandonar el universo. Cuando pensamos en la muerte final del universo, ¿es posible que dentro de billones de años haya civilizaciones con la tecnología necesaria para abandonar nuestro universo en un «salvavidas» dimensional y dirigirse hacia otro planeta mucho más joven y caliente? ¿O utilizarán su tecnología superior para construir una «urdimbre de tiempo» y viajar hacia su propio pasado, cuando las temperaturas eran mucho más cálidas?
Algunos físicos han propuesto una serie de planes plausibles, aunque extremadamente especulativos, que utilizando la física más avanzada disponible, proporcionan una mirada más realista a los portales o entradas dimensionales a otro universo. Las pizarras de los laboratorios de física de todo el mundo están llenas de ecuaciones abstractas con cálculos sobre si podría usarse o no la «energía exótica» y los agujeros negros para encontrar un pasadizo hacia otro universo. ¿Puede una civilización avanzada, quizás unos millones o miles de millones más avanzada que nosotros en tecnología, explotar las conocidas leyes de la física para entrar en otros universos?
El cosmólogo Stephen Hawking, de la Universidad de Cambridge, bromeó al respecto en una ocasión: «Los agujeros de gusano, si existen, serían ideales para un rápido viaje espacial. Uno podría atravesar el agujero hasta el otro lado de la galaxia y estar de vuelta a la hora de la cena». [12]
Y si los agujeros de gusano y los portales dimensionales son demasiado pequeños para permitir el éxodo definitivo del universo, hay otra opción definitiva: reducir el contenido total de información de una civilización avanzada inteligente al nivel molecular e inyectarla a través de la entrada, para que se reensamble ella misma al otro lado. De este modo, toda una civilización puede inyectar su semilla a través de la entrada dimensional y restablecerse en toda su gloria. El hiperespacio, en lugar de ser un juguete para físicos teóricos, podría convertirse potencialmente en la salvación definitiva de la vida inteligente en un universo al borde de la muerte.
Pero para entender del todo las implicaciones de este acontecimiento, debemos entender primero cómo los cosmólogos y físicos han llegado concienzudamente a estas asombrosas conclusiones. En el curso de Mundos paralelos, revisaremos la historia de la cosmología, subrayando las paradojas que han infestado este campo durante siglos, y concluiremos con la teoría de la inflación, que, aunque coherente con todos los datos experimentales, nos obliga a considerar el concepto de múltiples universos.

Capítulo 2
El universo paradójico

Si Dios me hubiere consultado sobre el sistema del universo, le habría dado unas cuantas ideas.
Alfonso X el Sabio

Maldito sea el sistema solar. Mala luz; planetas demasiado distantes; cometas molestos; articulación débil; podría hacer uno mejor yo mismo.
Lord Jeffrey

Contenido:
  1. La paradoja de Bentley
  2. La paradoja de Olbers
  3. Einstein el rebelde
  4. Paradojas de la relatividad
  5. La fuerza, vista como una curvatura del espacio
  6. El nacimiento de la cosmología
  7. El futuro del universo
En la obra de teatro Como gustéis, Shakespeare escribió las inmortales palabras:
El mundo entero es un gran escenario,
y los hombres y mujeres son sólo actores
que entran en escena y salen de ella.
Durante la Edad Media, el mundo era realmente un escenario, aunque pequeño y estático, que consistía en una Tierra diminuta y plana alrededor de la cual se movían misteriosamente los cuerpos celestes en sus perfectas órbitas celestiales. Los cometas se consideraban augurios que presagiaban la muerte de los reyes. Cuando el gran cometa de 1066 sobrevoló Inglaterra, los soldados sajones del rey Harold se sintieron aterrorizados y fueron pronto derrotados por las victoriosas tropas de Guillermo el Conquistador, preparando así el escenario para la formación de la Inglaterra moderna.
Este mismo cometa volvió a sobrevolar Inglaterra en 1682 e inspiró nuevamente respeto y temor en toda Europa. Parecía que todo el mundo, desde los campesinos a los reyes, estaba hechizado por aquel visitante inesperado que recorría los cielos. ¿De dónde venía el cometa? ¿Hacia dónde iba y qué significaba?
Un caballero rico, Edmund Halley, astrónomo aficionado, estaba tan intrigado por el cometa que recabó la opinión de uno de los grandes científicos de su época, Isaac Newton. Cuando preguntó a Newton qué fuerza podía controlar el movimiento del cometa, éste le respondió tranquilamente que el cometa se movía en elipse a consecuencia de una ley de fuerza del cuadrado inverso (es decir, la fuerza que impulsa al cometa disminuye con el cuadrado de su distancia al Sol). En realidad, dijo Newton, había explorado el cometa con un telescopio inventado por él mismo (el telescopio reflector utilizado hoy en día por astrónomos de todo el mundo) y su recorrido seguía la ley de gravitación que él había desarrollado veinte años antes.
Halley le escuchó perplejo e incrédulo. « ¿Cómo lo sabe?», [13] le preguntó. «Bueno, lo he calculado», le contestó Newton. Ni en sus sueños más atrevidos podía Halley haber esperado descubrir que el secreto de los cuerpos celestiales, que había confundido a la humanidad desde que los primeros humanos contemplaron el firmamento, podía explicarse mediante una nueva ley de la gravedad.
Asombrado por la importancia de aquel avance monumental, Halley se ofreció generosamente a financiar la publicación de esta nueva teoría. En 1687, con el estímulo y la financiación de Halley, Newton publicó su obra épica Philosophiae Naturalis Principia Mathematica ( Principios matemáticos de la filosofía natural), aclamada como una de las obras más importantes jamás publicadas. De pronto, científicos que ignoraban las leyes más grandes del sistema solar fueron capaces de predecir, con una precisión absoluta, el movimiento de los cuerpos celestes.
Fue tan grande el impacto de los Principia en los salones y cortes de Europa que el poeta Alexander Pope escribió:
La naturaleza y sus leyes yacían ocultas en la noche,
dijo Dios: « ¡Hágase Newton!». Y todo fue luz.
(Halley se dio cuenta de que, si la órbita del cometa era una elipse, podía calcularse cuándo podría volver a sobrevolar Londres. Buscando antiguos registros, descubrió que los cometas de 1531, 1607 Y 1682 eran en realidad el mismo. El cometa que fue tan crucial para la creación de la Inglaterra moderna en 1066 había sido visto por otras personas a lo largo de la historia, entre ellas Julio César. Halley predijo que el cometa volvería en 1758, mucho después de la muerte de Newton y de él mismo. Cuando, efectivamente, el cometa volvió realmente el día de Navidad de aquel año, en el momento previsto, se le bautizó como cometa Halley).
Newton había descubierto la ley universal de la gravedad veinte años antes, cuando la peste negra hizo cerrar la Universidad de Cambridge y se vio obligado a retirarse a su propiedad rural en Woolsthorpe. Recordaba con afecto que, mientras recorría su finca, vio caer una manzana y se planteó una pregunta que cambiaría el curso de la historia humana: si una manzana cae, ¿cae también la Luna? En un brillante golpe de genio, Newton se dio cuenta de que las manzanas, la Luna y los planetas obedecían a la misma ley de gravitación, que todos caían sometidos a una ley del cuadrado inverso. Cuando Newton descubrió que las matemáticas del siglo XVII eran demasiado primitivas para resolver esta ley de fuerza, inventó una nueva rama de las matemáticas, el cálculo, para determinar el movimiento de caída de manzanas y lunas.
En los Principia, Newton también había descrito las leyes de la mecánica, las leyes que determinan las trayectorias de todos los cuerpos terrestres y celestes. Estas leyes sentaron la base para diseñar máquinas, aprovechar la energía del vapor y crear locomotoras, que a su vez allanaron el camino de la Revolución Industrial y la civilización moderna. Hoy en día, todo rascacielos, puente o cohete se construye basándose en las leyes del movimiento de Newton.
Newton no sólo nos dio las leyes eternas del movimiento; también dio un vuelco a nuestra visión del mundo procurándonos una imagen radicalmente nueva del universo, en la que las misteriosas leyes que gobiernan los cuerpos celestes eran idénticas a las que gobiernan la Tierra. El escenario de la vida ya no estaba rodeado de terribles augurios de los cielos; las mismas leyes que se aplicaban a los actores también eran aplicables al decorado.

1. La paradoja de Bentley
Con enorme ambición, los Principia plantearon las primeras paradojas sobre la construcción del universo. Si el mundo es un escenario, ¿cómo es de grande? ¿Es infinito o finito? Es una pregunta con una antigüedad de siglos; el filósofo romano Lucrecio ya estaba fascinado por ella. «El Universo no está limitado en ninguna dirección», [14] escribió. «Si lo estuviera, necesariamente tendría que tener un límite en alguna parte. Pero está claro que una cosa no puede tener un límite a no ser que haya algo fuera de ella que la limite. […] En todas las dimensiones, a un lado u otro, hacia arriba o hacia abajo en todo el universo, no hay fin».
Pero la teoría de Newton también revelaba las paradojas inherentes a cualquier teoría de un universo finito o infinito. Las preguntas más sencillas llevan a un barrizal de contradicciones. Cuando aún se regocijaba en la fama que le había brindado la publicación de sus Principia, Newton descubrió que su teoría de la gravedad estaba necesariamente plagada de paradojas. En 1692, un clérigo, el reverendo Richard Bentley, le escribió una carta de una sencillez que desarmaba pero que preocupó a Newton. Dado que la gravedad era siempre atractiva y no repulsiva, le escribió Bentley, eso significaba que cualquier grupo de estrellas colapsaría naturalmente hacia su centro. Si el universo era finito, el cielo nocturno, en lugar de ser eterno y estático, sería escenario de un exterminio increíble en el que las estrellas se precipitarían unas sobre otras y se fusionarían en una superestrella ardiente. Pero Bentley también apuntaba que, si el universo era infinito, la fuerza de cualquier objeto que lo empujara a derecha o izquierda también sería infinita y, por tanto, las estrellas quedarían hechas trizas en cataclismos abrasadores.
Al principio, parecía que Bentley le había dado jaque mate a Newton. O bien el universo era finito (y se colapsaba en una bola de fuego), o bien era infinito (en cuyo caso las estrellas explotarían). Ambas posibilidades eran un desastre para la joven teoría propuesta por Newton. Este problema, por primera vez en la historia, reveló las paradojas sutiles pero inherentes que acosan a cualquier teoría de la gravedad cuando se aplica a todo el universo.
Tras pensarlo minuciosamente, Newton le contestó diciendo que había encontrado una escapatoria a su argumentación. Él prefería un universo infinito pero que fuera totalmente uniforme. Así, si una estrella es arrastrada hacia la derecha por un número infinito de estrellas, este tirón queda anulado por uno igual de otra secuencia infinita de estrellas en la otra dirección. Todas las fuerzas están equilibradas en todas direcciones, creando un universo estático. Por tanto, si la gravedad siempre es atractiva, la única solución a la paradoja de Bentley es tener un universo uniforme infinito.
Sin duda, Newton había encontrado una escapatoria a la argumentación de Bentley, pero era lo bastante inteligente para darse cuenta de la debilidad de su propia respuesta. Admitía en una carta que su solución, aunque técnicamente correcta, era inherentemente inestable. El universo uniforme pero infinito de Newton era como un castillo de naipes: aparentemente estable, pero propenso a derrumbarse a la mínima perturbación. Podía calcularse que, si una sola estrella vibraba mínimamente, desencadenaría una reacción en cadena y los grupos de estrellas empezarían a desintegrarse inmediatamente. La débil respuesta de Newton fue apelar a «un poder divino» que impedía que su castillo de naipes se desmoronara. «Se necesita un milagro continuo para impedir que el Sol y las estrellas fijas se precipiten a través de la gravedad», [15] escribió.
Para Newton, el universo era como un reloj gigante al que Dios había dado cuerda al principio de los tiempos y que desde entonces había funcionado según las tres leyes del movimiento, sin interferencia divina. Pero, de vez en cuando, Dios tenía que intervenir y retocar un poco el universo para impedir que se desmoronara. (Dicho de otro modo, de vez en cuando Dios tiene que intervenir para impedir que los decorados del escenario de la vida se derrumben y caigan sobre los actores).

2. La paradoja de Olbers
Además de la paradoja de Bentley, había una paradoja más profunda inherente a cualquier universo infinito. La paradoja de Olbers empieza preguntando por qué el cielo nocturno es negro. Astrónomos tan antiguos como Johannes Kepler ya vieron que si el universo fuera uniforme e infinito, dondequiera que se mirase, se vería la luz de un número infinito de estrellas. Mirando a cualquier punto en el cielo nocturno, nuestra línea de visión cruzaría un número incontable de estrellas y, por tanto, recibiría una cantidad infinita de luz de las estrellas. Así pues, ¡el cielo nocturno debería estar ardiendo! El hecho de que el cielo nocturno sea negro, no blanco, ha planteado una paradoja cósmica sutil pero profunda durante siglos.
La paradoja de Olbers, como la paradoja de Bentley, es engañosamente sencilla, pero ha atormentado a muchas generaciones de filósofos y astrónomos. Tanto la paradoja de Bentley como la de Olbers dependen de la observación de que, en un universo infinito, las fuerzas gravitacionales y los rayos de luz pueden sumarse para dar resultados infinitos y sin sentido. A lo largo de los siglos, se han propuesto decenas de respuestas incorrectas. La preocupación de Kepler por esta paradoja le llevó al extremo de postular que el universo era finito y estaba encerrado en una cáscara, y que por tanto, sólo podía llegar a nuestros ojos una cantidad finita de luz de las estrellas.
La confusión creada por esta paradoja es tal que un estudio de 1987 demostró que el setenta por ciento de los libros de texto de astronomía daban la respuesta incorrecta.
En principio, uno podría intentar resolver la paradoja de Olbers estableciendo que la luz de las estrellas es absorbida por las nubes de polvo. Ésta es la respuesta que dio el propio Heinrich Wilhelm Olbers en 1823, cuando por primera vez estableció claramente la paradoja. Olbers escribió: « ¡Qué suerte que la Tierra no reciba luz de las estrellas desde todos los puntos de la bóveda celeste! Sin embargo, con un brillo y calor tan inimaginable, equivalente a 90.000 veces más del que experimentamos ahora, el Todopoderoso podría haber diseñado fácilmente organismos capaces de adaptarse a estas condiciones extremas». [16]A fin de que la Tierra no estuviera inmersa en un firmamento «tan brillante como el disco del Sol», Olbers sugirió que las nubes de polvo debían absorber el calor intenso para hacer posible la vida en la Tierra. Por ejemplo, el centro abrasador de nuestra propia galaxia, la Vía Láctea, que debería dominar el cielo nocturno, en realidad está oculto tras las nubes de polvo. Si miramos en dirección a la constelación de Sagitario, donde se encuentra el centro de la Vía Láctea, no vemos una bola ardiente de fuego, sino una mancha oscura.
Pero las nubes de polvo no pueden explicar realmente la paradoja de Olbers. Durante un periodo de tiempo infinito, esas nubes absorberán la luz del Sol de un número infinito de estrellas y finalmente resplandecerán como la superficie de una estrella. Por tanto, incluso las nubes de polvo deberían estar ardiendo en el cielo nocturno.
De manera similar, podríamos suponer que, cuanto más lejos está una estrella, más débil es, lo cual es cierto pero no puede ser la respuesta. Si miramos una porción del cielo nocturno, las estrellas más distantes son realmente débiles, pero también hay más estrellas cuanto más lejos se mira. Estos dos efectos se anularían exactamente en un universo uniforme, dejando el cielo nocturno blanco. (Eso se debe a que la intensidad de la luz de las estrellas disminuye con el cuadrado de la distancia, que es compensado por el hecho de que el número de estrellas aumenta con el cuadrado de la distancia).
Curiosamente, la primera persona de la historia que resolvió la paradoja fue el escritor norteamericano Edgar Allan Poe, que se interesó durante mucho tiempo por la astronomía. Justo antes de morir, publicó muchas de sus observaciones en un poema de divagación filosófica llamado Eureka: un poema en prosa. En un pasaje notable, escribió:
Si la sucesión de estrellas fuera ilimitada, el fondo del cielo nos presentaría una luminosidad uniforme, como la desplegada por la Galaxia, porque no habría ni un solo punto, en todo el fondo, donde no hubiese una estrella. La única manera, por tanto, de explicar en estas condiciones los vacíos que encuentran nuestros telescopios en incontables direcciones, es suponer que la distancia de este fondo invisible [es] tan prodigiosa que ningún rayo ha podido nunca llegar hasta nosotros. [17]
Terminaba apuntando que la idea «es demasiado bella para no poseer Verdad en su esencia».
Ésta es la clave de la respuesta correcta. El universo no es infinitamente viejo. Hubo un Génesis. Hay un límite finito a la luz que nos llega a los ojos. La luz de las estrellas más distantes todavía no ha tenido tiempo de llegar hasta nosotros. El cosmólogo Edward Harrison, que fue quien descubrió que Poe había resuelto la paradoja de Olbers, ha escrito: «Cuando leí por primera vez las palabras de Poe, me quedé perplejo: ¿cómo podía un poeta, en el mejor de los casos un científico aficionado, haber percibido la explicación correcta hace 140 años cuando en nuestras escuelas todavía se enseña […] la explicación errónea?». [18]
En 1901, el físico escocés Lord Kelvin también descubrió la respuesta correcta. Constató que cuando miramos al cielo nocturno, lo vemos como era en el pasado, no como es ahora, porque la velocidad de la luz, aunque enorme según los estándares de la Tierra (300.000 km por segundo), no deja de ser finita, y hace falta tiempo para que llegue a nuestro planeta desde las estrellas lejanas. Kelvin calculó que, para que el cielo nocturno fuera blanco, el universo tendría que durar cientos de billones de años luz, pero, como el universo no tiene billones de años de antigüedad, el cielo es necesariamente negro. (También hay una segunda razón para que el cielo nocturno sea negro y es el tiempo de vida finito de las estrellas, que se mide en miles de millones de años).
Recientemente se ha podido verificar de manera experimental la corrección de la solución de Poe, mediante satélites como el telescopio espacial Hubble. Estos potentes telescopios, a su vez, nos permiten responder a una pregunta que se formulan incluso los niños: ¿dónde está la estrella más lejana?, y ¿qué hay más allá de la estrella más lejana? Con el fin de responder a estas preguntas, los astrónomos programaron el telescopio espacial Hubble para llevar a cabo una tarea histórica: tomar una fotografía del punto más lejano del universo.
Para captar emisiones extremadamente débiles de los rincones más lejanos del espacio, el telescopio tuvo que ejecutar una tarea sin precedentes: enfocar precisamente al mismo punto del cielo cerca de la constelación de Orión, durante un total de varios cientos de horas, lo que requería que el telescopio estuviera perfectamente alineado durante cuatrocientas órbitas de la Tierra. El proyecto era tan difícil que tuvo que prolongarse durante cuatro meses.
En 2004 se hizo pública una fotografía asombrosa que apareció en las portadas de todos los periódicos del mundo. Mostraba una serie de diez mil galaxias recién nacidas que se condensaban a partir del caos del propio big bang. «Podríamos haber visto el final del principio», [19] declaró Anton Koekemoer, del Space Telescope Science Institute. La fotografía mostraba un revoltijo de galaxias débiles a más de 13.000 millones de años luz de la Tierra, es decir, que su luz tardó más de 13.000 millones de años en llegar a nuestro planeta. Como el propio universo tiene sólo 13.700 millones de años de antigüedad, eso significa que estas galaxias se formaron sólo unos cientos de millones de años después de la creación, cuando las primeras estrellas y galaxias se condensaban a partir de la «sopa» de gases dejada por el big bang. «Hubble nos lleva a un tiro de piedra del big bang», [20] dijo el astrónomo Massimo Stivavelli, del mencionado instituto.
Pero esto plantea una pregunta: ¿qué hay más allá de la galaxia más lejana? Cuando observamos esta notable fotografía, lo que se ve enseguida es que sólo hay oscuridad entre estas galaxias. Esta oscuridad es lo que hace que el cielo nocturno sea negro. Es el límite final para la luz de las estrellas lejanas. Sin embargo, esta oscuridad, a su vez, es en realidad la radiación de fondo de microondas. Por tanto, la respuesta definitiva a la cuestión de por qué el cielo nocturno es negro es que el cielo nocturno no es negro en absoluto. (Si nuestros ojos pudieran ver de algún modo la radiación de microondas, y no sólo la luz visible, veríamos que la radiación del propio big bang inunda el cielo nocturno. En cierto sentido, la radiación del big bang llega todas las noches. Si tuviésemos ojos capaces de ver las microondas, podríamos ver que más allá de la estrella más lejana se encuentra la propia creación).

3. Einstein el rebelde
Las leyes de Newton tuvieron tanto éxito que hicieron falta doscientos años para que la ciencia diera el siguiente paso, que fue la obra de Albert Einstein. Los comienzos de la carrera de Einstein no auguraban su papel revolucionario. Después de licenciarse por el Instituto Politécnico de Zúrich en 1900, se encontró sin trabajo. Sus profesores, descontentos con aquel alumno insolente y creído que a menudo interrumpía en clase, sabotearon su carrera. Las depresivas cartas que envió suplicando trabajo dan cuenta de las profundidades a las que descendió. Se consideraba un fracasado y una dolorosa carga económica para sus padres. En una carta conmovedora, confesó que incluso se había planteado la idea de poner fin a su vida: «La desgracia de mis pobres padres, que durante tantos años no han tenido un momento de felicidad, pesa abrumadoramente sobre mí. […] No soy más que una carga para mis parientes. […] Seguramente sería mejor que no viviera», [21]escribió con el ánimo por los suelos.
Desesperado, pensó en cambiar de profesión y entrar a trabajar en una compañía de seguros. Llegó incluso a hacer de tutor de niños, pero se peleó con su patrón y lo echaron. Cuando su novia, Mileva Maric, se quedó inesperadamente embarazada, Einstein reconoció con tristeza que su hijo tendría que ser ilegítimo porque no tenía recursos para casarse. (Nadie sabe qué ocurrió finalmente con esta hija ilegítima, Lieseral). Y el profundo trauma personal que sufrió cuando su padre murió súbitamente le dejó una cicatriz emocional de la que nunca llegaría a recuperarse del todo. Su padre murió pensando que su hijo era un fracaso.
Aunque seguramente los años 1901 y 1902 fueron el peor periodo de la vida de Einstein, lo que salvó su carrera del olvido fue la recomendación de un compañero de clase, Marcel Grossman, que tiró de algunos hilos y le consiguió un trabajo como empleado de la Oficina de Patentes de Suiza en Berna.

4. Paradojas de la relatividad
En principio, la Oficina de Patentes era un lugar poco propicio para que se iniciase en él la mayor revolución de la física desde Newton. Pero tenía sus ventajas. Después de despachar rápidamente las solicitudes de patentes que se apilaban sobre su mesa, Einstein se arrellanaba en su silla y regresaba a un sueño que había tenido de pequeño. En su juventud, había leído un libro de Aaron Bernstein, People's Book on Natural Science, «una obra que leí atentamente casi sin aliento», recordaba. Bernstein pedía al lector que se imaginase viajando con la electricidad en su recorrido por un cable de telégrafo. Cuando tenía dieciséis años, Einstein se planteó una pregunta similar: ¿qué aspecto tendría un rayo de luz si se pudiese alcanzar? Lo recordaba de este modo: «Un principio así derivaba de una paradoja que ya había encontrado a los dieciséis años: si sigo a un rayo de luz con la velocidad c (velocidad de la luz en el vacío), debo observar este rayo de luz como un campo electromagnético espacialmente oscilatorio en reposo. Sin embargo, parece que eso no existe, ni según la experiencia ni según las ecuaciones de Maxwell». [22] De pequeño, Einstein pensaba que si uno pudiera correr junto a un rayo de luz, éste tendría que aparecer congelado, como una onda sin movimiento. No obstante, nadie había visto nunca esta luz congelada, por lo tanto había algo que no funcionaba.
A finales de siglo, había dos grandes pilares de la física sobre los que descansaba todo lo demás: la teoría de la mecánica y de la gravedad de Newton y la teoría de la luz de Maxwell. En la década de 1860, el físico escocés James Clerk Maxwell había demostrado que la luz consistía en campos vibratorios eléctricos y magnéticos que cambiaban constantemente de uno a otro. Lo que Einstein descubrió, con gran sorpresa, era que estos dos pilares se contradecían uno a otro y que uno de los dos tenía que caer.
En las ecuaciones de Maxwell encontró la solución al enigma que lo había perseguido durante diez años. Encontró algo que el propio Maxwell había pasado por alto: sus ecuaciones demostraban que la luz viajaba a una velocidad constante, por muy rápido que uno intentara alcanzarla. La velocidad de la luz c era la misma en todos los marcos inerciales (es decir, a velocidad constante). Tanto si uno estaba quieto y de pie como viajando en tren o sentado sobre un cometa veloz, vería pasar un rayo de luz delante de él a la misma velocidad. Por muy rápido que uno se moviera, nunca podría adelantar a la luz.
Esto llevaba inmediatamente a un sinfín de paradojas. Imaginemos, por un instante, a un astronauta intentando alcanzar a un rayo a la velocidad de la luz. El astronauta despega con su cohete hasta que corre codo a codo con el rayo de luz. Un espectador en la Tierra que fuese testigo de esta persecución hipotética diría que el astronauta y el rayo de luz avanzan lado a lado. Sin embargo, el astronauta diría algo completamente diferente: que el rayo de luz se aleja de él como si su nave espacial estuviera parada.
La cuestión que se planteaba Einstein era: ¿cómo pueden dos personas hacer interpretaciones tan diferentes de un mismo acontecimiento? En la teoría de Newton, uno siempre podía alcanzar a un rayo de luz; en el mundo de Einstein, esto era imposible. De pronto se dio cuenta de que había un defecto fundamental en los propios fundamentos de la física. En la primavera de 1905, recordaba Einstein, «se desató una tormenta en mi mente». De golpe, encontró por fin la solución: el tiempo transcurre a distintos ritmos según lo deprisa que se mueve uno. En realidad, cuanto más deprisa se mueve uno, más despacio progresa el tiempo. El tiempo no es un absoluto, como había creído Newton. Según él, el tiempo transcurría de manera uniforme en todo el universo, de modo que un segundo en la Tierra era idéntico a un segundo en Júpiter o en Marte. Los relojes marchaban en sincronización absoluta en todo el universo. En cambio, para Einstein, diferentes relojes latían a ritmos diferentes en todo el universo.
Einstein se dio cuenta de que, si el tiempo podía cambiar según la velocidad, otras cantidades, como la longitud, la materia y la energía también tenían que cambiar. [23] Descubrió que cuanto más rápido se mueve uno, más se contraen las distancias (que es lo que se llama a veces «contracción de Lorentz-FitzGerald»). De manera similar, cuanto más rápido se mueve uno, más pesado es. (En realidad, al acercarse a la velocidad de la luz, el tiempo se reduciría hasta detenerse, las distancias se contraerían hasta hacerse nulas y su masa se volvería infinita, lo cual es absurdo. Ésta es la razón por la que no se puede romper la barrera de la luz, que es el límite de velocidad definitivo en el universo).
Esta extraña distorsión de espacio-tiempo llevó a un poeta a escribir:
Un joven llamado Francisco
tan diestro era con la espada
y tan rápida su estocada,
que la contracción de FitzGerald
convertía su esgrima en un disco
De la misma manera que el descubrimiento de Newton unificó la física de la Tierra con la física celeste, Einstein unificó el espacio con el tiempo. Pero también demostró que la materia y la energía están unificadas y, por tanto, pueden convertirse la una en la otra. Si un objeto se hace más pesado cuanto más rápido se mueve, quiere decir que la energía del movimiento se está transformando en materia. Lo contrario también es cierto: la materia puede convertirse en energía. Einstein calculó cuánta energía se convertiría en materia y acuñó la fórmula

E = mc2

es decir, incluso una diminuta cantidad de materia m se multiplica por un número enorme (el cuadrado de la velocidad de la luz) cuando se convierte en energía E. Así, se reveló que la fuente de energía secreta de las estrellas era la conversión de materia en energía a través de esta ecuación, que ilumina el universo. El secreto de las estrellas puede derivarse de la simple afirmación de que la velocidad de la luz es la misma en todos los marcos inerciales.
Como Newton antes que él, Einstein cambió nuestra visión del escenario de la vida. En el mundo de Newton, todos los actores sabían exactamente qué era el tiempo y cómo se medían las distancias. El transcurso del tiempo y las dimensiones del escenario nunca cambiaban. Pero la relatividad nos dio una manera extraña de entender el espacio y el tiempo. En el universo de Einstein, todos los actores tienen relojes que leen tiempos diferentes. Eso significa que es imposible sincronizar todos los relojes del escenario. Establecer el tiempo de ensayo al mediodía significa cosas diferentes para los diferentes actores. En realidad, pasan cosas extrañas cuando los actores corren a través del escenario. Cuanto más rápido se mueven, más despacio laten sus relojes y más pesados y planos se vuelven sus cuerpos.
Tendrían que pasar muchos años antes de que la percepción de Einstein fuera reconocida por la comunidad científica en general. Pero Einstein no se quedó con los brazos cruzados: quería aplicar su nueva teoría de la relatividad a la propia gravedad. Era consciente de lo difícil que le resultaría; tendría que alterar la teoría más exitosa de su época. Max Planck, fundador de la teoría cuántica, le advirtió: «Como viejo amigo tuyo, me veo en la obligación de aconsejarte que no lo hagas, en primer lugar porque no lo conseguirás y, aunque lo consigas, nadie te creerá». [24]
Einstein era consciente de que su nueva teoría de la relatividad desobedecía la teoría de la gravedad de Newton. Según éste, la gravedad viajaba instantáneamente por todo el universo. Pero esto planteaba una pregunta que incluso un niño formula alguna vez: « ¿Qué pasa si el Sol desaparece?». Para Newton, todo el universo sería testigo de la desaparición del Sol instantáneamente, al mismo tiempo. Sin embargo, según la relatividad especial, era imposible, porque la desaparición de una estrella estaba limitada por la velocidad de la luz. Según la relatividad, la súbita desaparición del Sol pondría en marcha una onda de choque esférica de gravedad que se extendería hacia el exterior a la velocidad de la luz. Fuera de la onda de choque, los observadores dirían que el Sol sigue resplandeciendo, porque la gravedad no habría tenido tiempo de alcanzarlos. Pero, dentro de la onda, un observador diría que el Sol ha desaparecido. Para resolver este problema, Einstein introdujo una imagen totalmente diferente del espacio y el tiempo.

5. La fuerza, vista como una curvatura del espacio
Newton consideraba el espacio y el tiempo como un ámbito vasto y vacío en el que podían ocurrir acontecimientos, según sus leyes del movimiento. El escenario estaba lleno de maravillas y misterio, pero era esencialmente inerte e inmóvil, un testigo pasivo de la danza de la naturaleza. Sin embargo, Einstein dio un vuelco a esta idea. Para Einstein, el propio escenario se convertiría en una parte importante de la vida. En el universo de Einstein, el espacio y el tiempo no eran un ámbito estático como había asumido Newton, sino que eran dinámicos, se torcían y curvaban de maneras extrañas. Supongamos que el escenario de la vida es reemplazado por una cama elástica sobre la que los actores se mecen suavemente por su propio peso. En este caso, vemos que el escenario se vuelve tan importante como los propios actores.
Pensemos en una bola de bolos colocada sobre una cama. El colchón se hunde suavemente. A continuación disparemos una canica por la superficie alabeada del colchón. Recorrerá un camino curvado, orbitando alrededor de la bola de bolos. Un newtoniano, al ver la canica girando alrededor desde la distancia, podría llegar a la conclusión de que la bola ejerce una fuerza misteriosa sobre la canica. Un newtoniano podría decir que la bola ejerce un tirón que lleva la canica hacia el centro.
Para un relativista, que puede observar de cerca el movimiento de la canica sobre la cama, es evidente que no hay ninguna fuerza en absoluto. Sólo hay la curva de la cama, que obliga a la canica a dibujar una línea curvada. Para el relativista no hay tirón, sólo hay el empuje ejercido por la cama curvada sobre la canica. Sustituyamos la canica por la Tierra, la bola de bolos por el Sol y la cama por el espacio-tiempo vacío, y veremos que la Tierra se mueve alrededor del Sol no por el tirón de la gravedad, sino porque el Sol curva el espacio alrededor de la Tierra, creando un empuje que obliga a la Tierra a moverse en círculo.
Einstein llegó de este modo a creer que la gravedad era más como una tela que como una fuerza invisible que actuaba instantáneamente en todo el universo. Si uno sacude rápidamente esta tela, se forman unas ondas que viajan por la superficie a una velocidad definida. Esto resuelve la paradoja de la desaparición del Sol. Si la gravedad es un producto secundario de la curvatura de la tela del propio espacio-tiempo, la desaparición del Sol puede compararse a la acción de levantar súbitamente la bola de bolos de la cama. Cuando la cama vuelve a su forma original, envía unas ondas que recorren la sábana a una velocidad definida. Así, reduciendo la gravedad de la curvatura del espacio y el tiempo, Einstein pudo reconciliar la gravedad y la relatividad.
Imaginemos una hormiga que intenta avanzar por una hoja de papel arrugada. Avanzará como un marinero borracho, balanceándose de izquierda a derecha, para atravesar el accidentado terreno. La hormiga asegurará que no está borracha y que una fuerza misteriosa tira de ella llevándola a la izquierda y a la derecha. Para la hormiga, el espacio vacío está lleno de fuerzas misteriosas que le impiden seguir un camino recto. Sin embargo, si miramos a la hormiga de cerca, vemos que no hay fuerza alguna que tire de ella. Es empujada por los pliegues de la hoja de papel. Las fuerzas que actúan sobre la hormiga son una ilusión causada por la curvatura del propio espacio. El «tirón» de la fuerza es en realidad el «empuje» creado cuando avanza por un pliegue del papel. Dicho de otro modo, la gravedad no tira; el espacio empuja.
En 1915, Einstein pudo finalmente completar lo que llamó «teoría general de la relatividad», que desde entonces se ha convertido en la arquitectura sobre la que se basa toda la cosmología. En esta asombrosa nueva imagen, la gravedad no era una fuerza independiente que llenaba el universo, sino el efecto aparente de la curvatura de la tela del espacio-tiempo. Su teoría era tan potente que podía resumirse en una ecuación de menos de tres centímetros de longitud. En esta brillante nueva teoría, la cantidad de curvatura de espacio y tiempo estaba determinada por la cantidad de materia y energía que contenía. Pensemos en cuando tiramos una piedra a un lago, que crea una serie de ondas que emanan del impacto. Cuanto más grande es la piedra, más se alabea la superficie del lago. De manera similar, cuanto mayor es la estrella, mayor es el alabeo del espacio-tiempo que rodea a la estrella.

6. El nacimiento de la cosmología
Einstein intentó utilizar esta imagen para describir el universo como un todo. Sin saberlo, tuvo que enfrentarse a la paradoja de Bentley, formulada siglos antes. En la década de 1920, la mayoría de los astrónomos creían que el universo era uniforme y estático. Así pues, Einstein empezó con la presunción de que el universo estaba uniformemente lleno de polvo y estrellas. En un modelo, el universo podía compararse a un gran globo o burbuja. Vivimos sobre la piel de la burbuja. Las estrellas y galaxias que vemos rodeándonos pueden compararse a puntos pintados en la superficie del globo.
Para su sorpresa, siempre que intentaba resolver sus ecuaciones, se encontraba con que el universo se volvía dinámico. Einstein se enfrentaba al mismo problema identificado por Bentley más de cien años antes. Como la gravedad siempre es atractiva, nunca repulsiva, una colección finita de estrellas debería colapsar en un cataclismo abrasador. Sin embargo, esto contradecía la idea prevaleciente de principios del siglo XX, que establecía que el universo era estático y uniforme.
A pesar de lo revolucionario que era, Einstein no podía creer que el universo pudiera estar en movimiento. Como Newton y muchísimos más, creía en un universo estático. Así, en 1917, se vio obligado a introducir un nuevo término en sus ecuaciones, un factor que introducía una nueva fuerza en su teoría, una fuerza de «antigravedad» que separaba las estrellas. Einstein lo llamó «constante cosmológica», un patito feo que parecía un apéndice de la teoría de Einstein. Eligió arbitrariamente esta antigravedad para anular precisamente la atracción de la gravedad, creando un universo estático. Dicho de otro modo, el universo se volvió estático por decreto: la contracción hacia el interior del universo debida a la gravedad era anulada por la fuerza hacia el exterior de una energía oscura. (Durante setenta años, esta fuerza antigravedad se consideró como una especie de huérfana, hasta los descubrimientos de los últimos años).
En 1917, el físico holandés Willem de Sitter proporcionó otra solución a la teoría de Einstein, una solución en la que el universo era infinito pero totalmente carente de materia; en realidad, consistía sólo en energía contenida en el vacío, la constante cosmológica. Esta fuerza de antigravedad pura era suficiente para impulsar una rápida expansión exponencial del universo. Incluso sin materia, esta energía oscura podría crear un universo en expansión.
Los físicos se enfrentaban ahora a un dilema. El universo de Einstein tenía materia, pero no movimiento. El universo de De Sitter tenía movimiento, pero no materia. En el universo de Einstein, la constante cosmológica era necesaria para neutralizar la atracción de la gravedad y crear un universo estático. En el universo de De Sitter, la constante cosmológica por sí sola era suficiente para crear un universo en expansión.
Finalmente, en 1919, cuando Europa intentaba abrirse paso entre los escombros y la carnicería de la Primera Guerra Mundial, se enviaron equipos de astrónomos a todo el mundo para contrastar la nueva teoría de Einstein. Este ya había propuesto que la curvatura de espacio-tiempo causada por el Sol sería suficiente para desviar la luz de las estrellas que pasa por su vecindad. La luz de las estrellas debía curvarse alrededor del Sol de una manera precisa y calculable, similar a como el vidrio refracta la luz. Pero como el resplandor de la luz del Sol enmascara las estrellas durante el día, los científicos tendrían que esperar un eclipse del Sol para poder llevar a cabo el experimento decisivo.
Un grupo de investigación dirigido por el astrofísico británico Arthur Eddington zarpó hacia la Isla Príncipe, en el golfo de Guinea, para registrar la curvatura de la luz de las estrellas alrededor del Sol durante el siguiente eclipse solar. Otro equipo, dirigido por Andrew Crommelin, zarpó hacia Sobral, en el norte de Brasil.

02-01.jpg
En 1919, dos grupos de investigación confirmaron la predicción de Einstein de que la luz de una estrella distante se curvaría al pasar junto al Sol. Así, la posición de la estrella parecía moverse de su posición normal en presencia del Sol. Eso ocurre porque el Sol ha curvado el espacio-tiempo que lo rodea. Así, la gravedad no «tira», sino que el espacio «empuja».

Los datos que reunieron indicaban que la desviación media de la luz de las estrellas era de 1,79 segundos de arco, lo que confirmó la predicción de Einstein de 1,74 segundos de arco dentro de un margen de error experimental aceptable. Dicho de otro modo, la luz se curvaba cerca del Sol. Eddington declaró más tarde que la verificación de la teoría de Einstein fue el mejor momento de su vida.
El 6 de noviembre de 1919, en una reunión conjunta de la Royal Society y la Royal Astronomical Society de Londres, el premio Nobel y presidente de la Royal Society J. J. Thompson dijo solemnemente que se trataba de «uno de los mayores logros de la historia del pensamiento humano. No es el descubrimiento de una isla distante, sino de todo un continente de nuevas ideas científicas. Es el mayor descubrimiento en relación con la gravitación desde que Newton enunció sus principios». [25]
(Según la leyenda, un periodista le preguntó más tarde a Eddington: «Corre el rumor de que sólo tres personas en todo el mundo entienden la teoría de Einstein. Usted debe de ser una de ellas». Eddington se quedó callado y el periodista le dijo: «No sea modesto, Eddington». Éste se encogió de hombros y dijo: «No, no lo soy. Estaba pensando en quién podía ser el tercero»). [26]
Al día siguiente, el Times de Londres publicó en la portada: «Revolución en la ciencia. Nueva teoría del universo. Derrocadas las ideas de Newton». A partir de aquel momento Einstein se convirtió en una figura reconocida mundialmente y en mensajero de las estrellas.
El anuncio era tan importante, y el alejamiento de Newton por parte de Einstein tan radical, que también provocó que distinguidos físicos y astrónomos denunciasen la teoría. En la Universidad de Columbia, Charles Lane Poor, profesor de mecánica celeste, encabezó las críticas a la relatividad diciendo: «Me siento como si hubiera salido de paseo con Alicia en el País de las Maravillas y hubiera tomado el té con el Sombrerero Loco». [27]
La razón por la que la relatividad perturba nuestro sentido común no es que sea equivocada, sino que nuestro sentido común no representa la realidad. Somos nosotros los bichos raros del universo. Vivimos en una parcela poco habitual, donde las temperaturas, las densidades y las velocidades son bastante suaves. Sin embargo, en el «universo real», las temperaturas pueden ser abrasadoramente calientes en el centro de las estrellas o espantosamente frías en el espacio exterior, y las partículas subatómicas que vuelan en el espacio suelen viajar a la velocidad de la luz. En otras palabras, nuestro sentido común ha evolucionado en una parte modesta y muy poco habitual del universo, la Tierra; no es sorprendente que no nos permita entender el verdadero universo. El problema no radica en la relatividad, sino en presumir que nuestro sentido común representa la realidad.

7. El futuro del universo
Aunque la teoría de Einstein podía explicar con éxito fenómenos como la curvatura de la luz de las estrellas alrededor del Sol o la ligera irregularidad de la órbita del planeta Mercurio, sus predicciones cosmológicas seguían siendo bastante confusas. El físico ruso Aleksandr Friedmann, que encontró las soluciones más generales y realistas de las ecuaciones de Einstein, lo clarificó todo en gran medida. Aún hoy se enseñan en cualquier curso universitario sobre la relatividad general. (Las descubrió en 1922, pero murió en 1925 y su obra quedó prácticamente olvidada hasta años después).
Normalmente, la teoría de Einstein consiste en una serie de ecuaciones extraordinariamente difíciles, y para resolverlas a menudo se necesita un ordenador. Sin embargo, Friedmann partió de la base de que el universo era dinámico y propuso dos presupuestos simplificadores (llamados «el principio cosmológico»): que el universo es isotrópico (se ve igual desde cualquier punto de observación) y que es homogéneo (es uniforme sin importar dónde esté uno situado en él).
Con estos dos presupuestos simplificadores, encontramos que las ecuaciones se desmoronan. (De hecho, tanto las soluciones de Einstein como las de De Sitter eran casos especiales de la solución más general de Friedmann). Es de destacar que sus soluciones dependen sólo de tres parámetros:
  1. H , que determina la tasa de expansión del universo. (Hoy en día se le llama «constante de Hubble», por el astrónomo que realmente midió la expansión del universo).
  2. Omega (Ω), que mide la densidad media de la materia en el universo.
  3. Lambda (λ), la energía asociada con el espacio vacío, o energía oscura.
Muchos cosmólogos han dedicado toda su carrera profesional a intentar establecer el valor exacto de estos tres parámetros. La sutil interacción entre estas tres constantes determina la futura evolución de todo el universo. Por ejemplo, dado que la gravedad atrae, la densidad Omega del universo actúa como una especie de freno para aminorar la expansión del universo, invirtiendo algunos de los efectos de la tasa de expansión del big bang. Pensemos en cuando lanzamos una piedra al aire. Normalmente, la gravedad es lo bastante fuerte como para invertir la dirección de la piedra, que vuelve a caer a la Tierra. Sin embargo, si lanzamos la piedra dotándola de una velocidad suficiente, puede escapar de la gravedad de la Tierra y elevarse hacia el espacio exterior para siempre. Como una piedra, el universo se expandió originariamente por el big bang, pero la materia, u Omega, actúa como freno en la expansión del universo, del mismo modo que la gravedad de la Tierra actúa como freno en la piedra.
De momento, supongamos que Lambda, la energía asociada con el espacio vacío, es igual a cero. Y que Omega es la densidad del universo dividida por la densidad crítica. (La densidad crítica del universo es aproximadamente de 10 átomos de hidrógeno por metro cúbico. La densidad crítica del universo corresponde a encontrar un solo átomo de hidrógeno dentro del volumen de tres balones de baloncesto, como promedio).
Si Omega es menor que 1, los científicos concluyen que no hay bastante materia en el universo para invertir la expansión original del big bang. (Como al lanzar la piedra al aire, si la masa de la Tierra no es lo bastante grande, la piedra acabará abandonando la Tierra). Como resultado, el universo se expandirá siempre, sumergiéndose finalmente en una gran congelación en la que las temperaturas se acercarán al cero absoluto. (Éste es el principio que hay detrás de un frigorífico o acondicionador de aire. Cuando el gas se expande, se enfría. En el acondicionador de aire, por ejemplo, el gas que circula por una tubería se expande, enfriando la tubería y la habitación). [28]
Si Omega es mayor que 1, entonces hay suficiente materia y gravedad en el universo para invertir definitivamente la expansión cósmica. Como resultado, la expansión del universo se detendrá y el universo empezará a contraerse. (Como la piedra lanzada al aire: si la masa de la Tierra es lo bastante grande, la piedra alcanzará finalmente una altura máxima y después se precipitará contra el suelo). Las temperaturas empezarán a elevarse cuando las estrellas y galaxias se precipiten unas hacia otras. (Cualquier persona que haya inflado alguna vez una rueda de bicicleta sabe que la compresión de gas crea calor. El trabajo mecánico del bombeo de aire se convierte en energía calorífica.

02-02.jpg
La evolución del universo tiene tres historias posibles. Si Omega es menor que 1 (y Lambda es 0), el universo se expandirá siempre hasta llegar a la gran congelación. Si Omega es mayor que 1, el universo volverá a colapsarse en una gran implosión. Si Omega es igual a 1, el universo es plano y se expandirá para siempre. (Los datos del satélite WMAP muestran que Omega más Lambda es igual a 1, lo que significa que el universo es plano. Esto concuerda con la teoría inflacionaria).

Del mismo modo, la compresión del universo convierte la energía gravitacional en energía calorífica). Con el tiempo, las temperaturas se volverían tan altas que se extinguiría toda vida, mientras el universo se dirigiría hacia un «big crunch» abrasador. (El astrónomo Ken Croswell denomina a este proceso «de la Creación a la Cremación»).

02-03.jpg
Si Omega es menor que 1 (y Lambda es 0), el universo es abierto y su curvatura es negativa, como en una silla de montar. Las líneas paralelas no se encuentran nunca y los ángulos interiores de los triángulos suman menos de 180°.

Una tercera posibilidad es que Omega valga precisamente 1; es decir la densidad del universo iguala la densidad crítica, en cuyo caso el universo se sostiene entre los dos extremos pero seguirá expandiéndose siempre. (Esta perspectiva, como se verá, se ve favorecida por la hipótesis inflacionaria).
Finalmente, existe la posibilidad de que el universo, después del big crunch, pueda resurgir en un nuevo big bang. Esta teoría recibe el nombre de «universo oscilante».
Friedmann demostró que cada una de estas perspectivas, a su vez, determina la curvatura del espacio-tiempo. Si Omega es inferior a 1 y el universo se expande siempre, Friedmann demostró que no sólo el tiempo es infinito, sino también el espacio. Se dice entonces que el universo es «abierto», es decir, infinito tanto en espacio como en tiempo.
02-04.jpg
Si Omega es mayor que 1, el universo es cerrado y su curvatura positiva como en una esfera. Las líneas paralelas siempre se encuentran y la suma de los ángulos de un triángulo es superior a 180°.
Cuando Friedmann calculó la curvatura de este universo, encontró que era negativa. (Esto es como la superficie de una silla de montar o el pabellón de una trompeta. Si un bicho viviera en la superficie de esta superficie, vería que las líneas paralelas nunca se encuentran y que los ángulos interiores de un triángulo suman menos de 180°).
Si Omega es mayor que 1, el universo acabará contrayéndose en una gran implosión. El tiempo y el espacio son finitos. Friedmann encontró que la curvatura de este universo es positiva (como una esfera). Finalmente, si Omega es igual a 1, el espacio es plano y tanto el tiempo como el espacio son ilimitados.
Friedmann no sólo proporcionó la primera aproximación comprensiva a las ecuaciones cosmológicas de Einstein, sino que también hizo la conjetura más realista sobre el día del juicio final, el destino final del universo: si perecerá en una gran congelación, se freirá en una gran implosión u oscilará para siempre. La respuesta depende de los parámetros cruciales: la densidad del universo y la energía del vacío.
Pero la imagen de Friedmann deja un agujero enorme. Si el universo se expande, quiere decir que podría haber tenido un principio. La teoría de Einstein no decía nada del instante de este comienzo. Lo que faltaba era el momento de la creación, el big bang. Y tres científicos nos darían con el tiempo una imagen del big bang de lo más convincente.

Capítulo 3
El Big Bang

El universo no sólo es más raro de lo que suponemos, sino que es más raro de lo que podemos suponer.
J. B. S. Haldane

Lo que los humanos buscamos en la historia de la creación es una manera de experimentar el mundo que nos abra a lo trascendente, que nos informe y al mismo tiempo nos forme dentro de ella. Esto es lo que quiere la gente. Esto es lo que nos pide el alma.
Joseph Campbell

Contenido:
  1. Edwin Hubble, astrónomo patricio
  2. El efecto Doppler y el universo en expansión
  3. La ley de Hubble
  4. El big bang
  5. George Gamow, bufón cósmico
  6. La cocina nuclear del universo
  7. Radiación de fondo de microondas
  8. Fred Hoyle, el adversario
  9. Fred Hoyle, el adversario
  10. Conferencias en la BBC
  11. Nucleosíntesis en las estrellas
  12. Pruebas contra el estado estacionario
  13. Cómo nacen las estrellas
  14. Los excrementos de pájaro y el big bang
  15. Réplicas personales del big bang
  16. Omega y la materia oscura
  17. El satélite COBE
La portada de la revista Time del 6 de marzo de 1995 mostraba la gran galaxia espiral M100 y rezaba: «La cosmología es un caos». La cosmología se hallaba en un estado de desconcierto porque los últimos datos del telescopio espacial Hubble parecían indicar que el universo era más joven que su estrella más vieja, una imposibilidad científica. Según los datos, el universo tenía entre 8.000 y 12.000 millones de antigüedad, mientras algunos creían que la estrella más vieja tenía unos 14.000 millones de años. «No se puede ser más viejo que la madre de uno», bromeó Christopher Impey, de la Universidad de Arizona.
Pero cuando se lee la letra pequeña, puede constatarse que la teoría del big bang goza de buena salud. La prueba que ponía en entredicho la teoría del big bang se basaba en una sola galaxia, M100, lo que es una manera discutible de hacer ciencia. Las lagunas, como reconocía el artículo, eran «lo bastante grandes para que la empresa se hundiera en ellas». Basándose en los datos aproximados del telescopio espacial Hubble, la edad del universo no podía calcularse con una exactitud mayor que el 10 ó el 20%.
Mi argumento es que la teoría del big bang no se basa en la especulación, sino en cientos de datos tomados de varias fuentes diferentes, cada una de las cuales converge para sostener una teoría única y sistemática. (En ciencia, no todas las teorías se crean igual. Aunque cualquiera es libre de proponer su propia versión de la creación del universo, debería exigírsele una explicación de los cientos de datos recogidos que concuerdan con la teoría del big bang).
Las tres «pruebas» principales de la teoría del big bang se basan en la obra de tres científicos excepcionales que dominaron sus campos respectivos: Edwin Hubble, George Gamow y Fred Hoyle.

1. Edwin Hubble, astrónomo patricio
Aunque fue Einstein quien puso las bases teóricas de la cosmología, fue Edwin Hubble, posiblemente el astrónomo más importante del siglo XX, fue quien creó casi en solitario la cosmología observacional moderna.
Nacido en 1889, en la remota zona de Marshfield, Missouri, Hubble era un chico rural modesto con grandes ambiciones. Su padre, abogado y agente de seguros, lo animaba para que estudiase derecho. Sin embargo, a Hubble le cautivaban los libros de Julio Verne y le encantaban las estrellas. Devoraba clásicos de ciencia ficción como Veinte mil leguas de viaje submarino y De la Tierra a la Luna. También era un boxeador consumado; sus promotores querían que se hiciera profesional y combatiera contra Jack Johnson, campeón mundial de los pesos pesados.
Consiguió una prestigiosa beca Rhodes para estudiar derecho en Oxford, donde empezó a adoptar actitudes propias de la alta sociedad británica. (Vestía trajes de tweed, fumaba en pipa, adoptó el distinguido acento británico y hablaba de sus cicatrices de duelo, que, según se rumoreaba, se había infligido él mismo).
Sin embargo, Hubble era infeliz. Lo que realmente le motivaba no eran los agravios ni los pleitos; de lo que realmente estaba enamorado, desde niño, era de las estrellas. Se armó de valor, cambió de carrera y se dirigió a la Universidad de Chicago y al observatorio de Mount Wilson, en California, que entonces albergaba el telescopio más grande de la Tierra, con un espejo de 2,54 metros. Como empezó su carrera tan tarde, Hubble tenía prisa. Compensó el tiempo perdido y rápidamente se dispuso a afrontar uno de los misterios más profundos y duraderos de la astronomía.
En la década de 1920, el universo era un lugar cómodo; se creía que todo el universo consistía sólo en la galaxia de la Vía Láctea, la brumosa franja de luz que atraviesa el cielo nocturno como si fuera leche derramada. («Galaxia», en realidad, significa leche en griego). En 1920 tuvo lugar el «Gran Debate» entre los astrónomos Harlow Shapley, de Harvard, y Heber Curtis, del Lick Observatory. Titulado «La escala del universo», se refería a las dimensiones de la Vía Láctea y del propio universo. Shapley defendía la opinión de que la Vía Láctea formaba todo el universo visible. Curtis creía que, más allá de la Vía Láctea, se encontraban las «nebulosas espirales», bellas aunque extrañas briznas de volutas brumosas. (Ya en el siglo XVIII, el filósofo Immanuel Kant había especulado que estas nebulosas eran «universos isla»).
Hubble siguió el debate intrigado. El problema clave era determinar la distancia de las estrellas, que es (y sigue siendo) una de las tareas más endemoniadamente difíciles de la astronomía. Una estrella brillante que esté muy lejos puede parecer idéntica a una estrella tenue que esté cerca. Esta confusión era fuente de grandes peleas y controversias en la astronomía. Hubble necesitaba una «candela estándar», un objeto que emitiese la misma cantidad de luz en cualquier lugar del universo, para resolver el problema. (En realidad, una parte importante del esfuerzo de la cosmología hasta el día de hoy consiste en intentar encontrar y calibrar estos indicadores. Muchos de los grandes debates de la astronomía se centran en determinar hasta qué punto son realmente fiables estas candelas estándar). Si hubiese una candela estándar que ardiera uniformemente con la misma intensidad en todo el universo, una estrella que fuera cuatro veces más tenue de lo normal estaría simplemente dos veces más lejos de la Tierra.
Una noche, cuando analizaba una fotografía de la nebulosa espiral Andrómeda, Hubble tuvo un «momento eureka». Lo que encontró dentro de Andrómeda era un tipo de estrella variable (llamada Cefeida) que había sido estudiada por Henrietta Leavitt. Se sabía que esta estrella crecía y se debilitaba con el tiempo, y el tiempo de un ciclo completo estaba correlacionado con su brillo. Cuanto más brilla una estrella, más largo es su ciclo de pulsación. Así, simplemente midiendo la longitud de este ciclo, podía calibrarse su brillo y, de este modo, determinar su distancia. Hubble encontró que tenía un periodo de 31 días, que, para su sorpresa, se traducía en una distancia de un millón de años luz, muy lejos de la galaxia de la Vía Láctea. (El disco luminoso de la Vía Láctea tiene sólo 100.000 años luz de diámetro. Posteriores cálculos demostraron que, en realidad, Hubble había infravalorado la verdadera distancia a Andrómeda, que es de casi 2 millones de años luz).
Cuando realizó el mismo experimento en otras nebulosas espirales, Hubble encontró que estaban demasiado lejos de la galaxia de la Vía Láctea. Dicho de otro modo, estaba claro que estas nebulosas espirales eran universos isla enteros por derecho propio, que la galaxia de la Vía Láctea era sólo una galaxia en un firmamento de galaxias.
En un instante, las medidas del universo se hicieron muchísimo más grandes. El universo pasó de tener una galaxia única a verse súbitamente poblado por millones, quizá miles de millones, de galaxias hermanas. De tener un diámetro de 100.000 años luz, el universo pasó a tenerlo de quizá miles de millones de años luz.
Este descubrimiento habría garantizado a Hubble un lugar en el panteón de los astrónomos, pero hizo algo más. No sólo estaba decidido a descubrir la distancia a las galaxias, sino que también quería calcular con qué rapidez se movían.

2. El efecto Doppler y el universo en expansión
Hubble sabía que la manera más sencilla de calcular la velocidad de los objetos distantes es analizar el cambio de sonido o de luz que emiten, conocido como «efecto Doppler». Los coches emiten este sonido cuando nos adelantan en la autopista. La policía utiliza el efecto Doppler para calcular nuestra velocidad; emiten un rayo láser sobre el coche, que revierte la imagen al coche patrulla. Analizando el cambio de frecuencia del rayo láser, la policía puede calcular nuestra velocidad.
Si una estrella se acerca a nosotros, las ondas de luz que emite se aprietan como un acordeón. Como resultado, su longitud de onda se reduce. Una estrella amarilla aparecerá ligeramente azulada (porque el color azul tiene una longitud de onda más corta que el amarillo). De manera similar, si una estrella se aleja, su longitud de onda crece, dando una longitud de onda más larga, de modo que una estrella amarilla aparece ligeramente rojiza. Cuanto mayor es la distorsión, mayor es la velocidad de la estrella. Así, si sabemos la frecuencia de desplazamiento de la luz de la estrella, podemos determinar su velocidad.
En 1912, el astrónomo Vesto Slipher había descubierto que las galaxias se alejaban de la Tierra a gran velocidad. El universo no sólo era mucho más grande de lo que se había creído antes, sino que también se expandía a gran velocidad. Fuera de las pequeñas fluctuaciones, encontró que las galaxias exhibían un desplazamiento al rojo, causado por su alejamiento de nosotros, en lugar de al azul. El descubrimiento de Slipher demostró que el universo es realmente dinámico y no estático, como habían pensado Newton y Einstein.
En todos los siglos en que los científicos habían estudiado las paradojas de Bentley y Olbers, ninguno había considerado seriamente la posibilidad de que el universo estuviera expandiéndose. En 1928, Hubble hizo un viaje decisivo a Holanda para conocer a Willem de Sitter. Lo que a Hubble le parecía intrigante de la predicción de De Sitter era que, cuanto más lejos está la galaxia, más rápido tiene que moverse. Pensemos en un globo en expansión con las galaxias marcadas en su superficie. A medida que el globo se expande, las galaxias que están cerca unas de otras se separan con relativa lentitud. Cuanto más cerca están una de otra, más lentamente se separan. En cambio, las galaxias que están más lejos en el globo se separan mucho más rápido.
De Sitter animó a Hubble a buscar este efecto en sus datos, que podían verificarse analizando el desplazamiento al rojo de las galaxias. Cuanto mayor era el desplazamiento al rojo de una galaxia, más rápido se alejaba y, por tanto, más lejos debía de estar. Según la teoría de Einstein, el desplazamiento al rojo de una galaxia no era causado, técnicamente hablando, por la galaxia que se alejaba de la Tierra, sino por la expansión del propio espacio entre la galaxia y la Tierra. El origen del desplazamiento al rojo consiste en que la luz que emana una galaxia distante resulta estirada o alargada por la expansión del espacio y, por tanto, aparece enrojecida.

3. La ley de Hubble
Cuando Hubble volvió a California, siguió el consejo de De Sitter y buscó pruebas de este efecto. Analizando veinticuatro galaxias, encontró que cuanto más lejos estaba la galaxia, más se alejaba de la Tierra, tal como habían predicho las ecuaciones de Einstein. La ratio entre las dos (velocidad dividida por distancia) era aproximadamente una constante. Rápidamente se la conoció como «constante de Hubble», o H. Posiblemente sea la constante más importante de toda la cosmología, porque la constante de Hubble nos dice el ritmo al que se expande el universo.
La reflexión de los científicos fue que, si el universo se expande, quizá también tuvo un principio. El inverso de la constante de Hubble, de hecho, da un cálculo aproximado de la edad del universo. Imaginemos una cinta de vídeo de una explosión. En la cinta, vemos los detritos saliendo del lugar de la explosión y podemos calcular la velocidad de expansión, pero eso también significa que podemos rebobinar la cinta hasta que todos los detritos se unen en un solo punto. Como conocemos la velocidad de expansión, podemos retroceder y calcular aproximadamente el tiempo en que se produjo la explosión.
(La estimación original de Hubble establecía la edad del universo en unos 1.800 millones de años, lo que causó quebraderos de cabeza a generaciones de cosmólogos porque era menor que la supuesta edad de la Tierra y las estrellas. Años más tarde, los astrónomos se dieron cuenta de que los errores en la medición de la luz de las variables Cefeida en Andrómeda habían dado un valor incorrecto a la constante de Hubble. De hecho, durante los últimos setenta años se han librado las llamadas «guerras Hubble», relativas al valor exacto de la constante de Hubble. La cifra más definitiva actualmente viene del satélite WMAP).
En 1931, Einstein conoció a Hubble en su triunfante visita al Mount Wilson. Consciente de que el universo realmente se expandía, calificó la constante cosmológica de su «mayor error». (Sin embargo, incluso un error de Einstein es suficiente para remover los cimientos de la cosmología, como veremos cuando comentemos los datos del satélite WMAP en capítulos posteriores). Cuando le enseñaron a la esposa de Einstein el colosal observatorio y le dijeron que el telescopio estaba determinando la forma definitiva del universo, ésta respondió sin inmutarse: «Mi marido lo hace en el reverso de un sobre usado».

4. El big bang
Georges Lemaître, un cura belga que conocía la teoría de Einstein, estaba fascinado por la idea de que la teoría llevara lógicamente a un universo que se expandía y que, por tanto, tuvo un principio. Como los gases se calientan cuando se comprimen, se dio cuenta de que el universo al principio del tiempo debía de ser terriblemente cálido (de un calor abrasador). En 1927 estableció que el universo debió empezar como un «superátomo» de temperatura y densidad increíbles, que de pronto explotó hacia fuera, dando pie al universo en expansión de Hubble. Escribió: «La evolución del mundo puede compararse a una exhibición de fuegos artificiales que acaba de terminar: unas briznas rojas, cenizas y humo. Desde los rescoldos enfriados, vemos la lenta debilitación de los soles e intentamos recordar el resplandor desaparecido del origen de los mundos». [29]
(La primera persona que propuso esta idea de un «superátomo» al principio del tiempo fue, nuevamente, Edgar Allan Poe, quien afirmó que la materia atrae otras formas de materia y, por tanto, al principio del tiempo debió de haber una concentración cósmica de átomos).
Lemaître asistió a conferencias de física y persiguió a otros científicos con su idea. Le escuchaban de buen humor y a continuación descartaban tranquilamente su idea. Arthur Eddington, uno de los principales físicos de su época, dijo: «Como científico, simplemente no creo que el orden presente de las cosas empezara con un "bang". […] Me repugna la idea de un principio abrupto para el orden presente de la Naturaleza». [30]
Pero, a lo largo de los años, su tenacidad fue acabando con la resistencia de la comunidad de físicos. El científico, que se convertiría en el principal portavoz y popularizador de la teoría del big bang, proporcionaría finalmente la prueba más convincente de esta teoría.

5. George Gamow, bufón cósmico
La obra de Hubble, el sofisticado patricio de la astronomía, fue continuada por otra figura excepcional, George Gamow. Gamow era en muchos aspectos lo contrario que Hubble: un bufón, un humorista, famoso por sus bromas y sus treinta libros sobre ciencia, muchos de ellos dirigidos a jóvenes. Varias generaciones de físicos (y yo mismo) fueron educadas con sus entretenidos e informativos libros sobre física y cosmología. En una época en que la relatividad y la teoría cuántica estaban revolucionando la ciencia y la sociedad, sus libros eran una excepción: eran los únicos libros creíbles sobre ciencia avanzada a disposición de los adolescentes.
Mientras científicos menores a menudo carecen de ideas y se conforman con limitarse a triturar montañas de áridos datos, Gamow fue uno de los genios creativos de su época, un polígrafo que tejía con rapidez ideas que cambiarían el curso de la física nuclear, la cosmología e incluso la investigación del ADN. Quizá no fue un accidente que la autobiografía de James Watson, que desveló, junto con Francis Crick, el secreto de la molécula del ADN, se titulase Genes, Gamow y chicas. Como recordaba su colega Edward Teller: «El noventa por ciento de las teorías de Gamow eran erróneas, y era fácil reconocer que lo eran. Pero a él no le importaba. Era una de esas personas que no sentía un orgullo especial por ninguno de sus inventos. Podía lanzar su última idea y a continuación tratarla como si fuera un chiste». [31] Sin embargo, el 10% restante de sus ideas acabaría cambiando todo el paisaje científico.
Gamow nació en Odessa (Rusia) en 1904, durante las primeras agitaciones sociales del país. Según recordaba él mismo, «a menudo se suspendían las clases cuando algún barco de guerra enemigo bombardeaba Odessa, o cuando las fuerzas expedicionarias griegas, francesas o británicas escenificaban en las calles principales de la ciudad un ataque con bayonetas contra las fuerzas rusas atrincheradas, blancas, rojas o incluso verdes, o cuando las fuerzas rusas de diferentes colores luchaban unas con otras». [32]
El momento clave de su juventud tuvo lugar cuando fue a la iglesia y se llevó secretamente un poco de pan de la comunión después de la misa. Mirando a través de un microscopio, no consiguió ver diferencia alguna entre el pan de la comunión, que representaba la carne de Jesucristo, y el pan ordinario. «Pienso que éste fue el experimento que me hizo científico», [33] afirmó.
Estudió en la Universidad de Leningrado y tuvo como profesor al físico Aleksandr Friedmann. Más tarde, en la Universidad de Copenhague, conoció a varios gigantes de la física, como Niels Bohr. (En 1932, él y su esposa intentaron sin éxito desertar de la Unión Soviética zarpando de Crimea en una balsa, rumbo a Turquía. Lo consiguió más adelante, cuando asistió a una conferencia de físicos en Bruselas, lo que le valió una sentencia de muerte por parte de los soviéticos).
Gamow era famoso por enviar poemas humorísticos a sus amigos. La mayoría son irreproducibles, pero uno de ellos capta las angustias que sienten los cosmólogos cuando se enfrentan a la enormidad de los números astronómicos y miran la cara de la infinitud:
Un joven estudiante del Trinity
sacó la raíz cuadrada del infinito
pero la cantidad de dígitos
le produjo tanta urticaria
que dejó las mates y se dedicó a la teología . [34]
En los años veinte, en Rusia, Gamow consiguió su primer gran éxito cuando resolvió el misterio de por qué era posible la descomposición radiactiva. Gracias a la obra de Madame Curie y otros, los científicos supieron que el átomo de uranio era inestable y que la radiación emitida tomaba la forma de un rayo alfa (el núcleo de un átomo de helio). Pero, según la mecánica de Newton, la fuerza nuclear misteriosa que mantenía unido el núcleo debería de haber sido una barrera que impidiera esta fuga. ¿Cómo era posible?
Gamow (junto con R. W. Gurney y E. U. Condon) se dio cuenta de que la descomposición radiactiva era posible porque, en la teoría cuántica, el principio de incertidumbre significaba que uno nunca sabía exactamente la ubicación y la velocidad de una partícula; de ahí que hubiera una pequeña probabilidad de que ésta pudiera «hacer un túnel» o penetrar directamente a través de una barrera. (Hoy en día, esta idea del túnel es fundamental en toda la física y se utiliza para explicar las propiedades de mecanismos electrónicos, agujeros negros y el big bang. El propio universo podría haber sido creado mediante tunelización).
Por analogía, Gamow se imaginó a un preso encerrado en una celda, rodeado de los gruesos muros de la cárcel. En un mundo newtoniano clásico, fugarse es imposible, pero en el extraño mundo de la teoría cuántica, no sabemos exactamente dónde está el prisionero en un momento dado, ni su velocidad. Si el prisionero choca contra los muros de la cárcel con suficiente frecuencia, podemos calcular las posibilidades de que un día pase a través de ellos, incurriendo en una violación directa del sentido común y de la mecánica newtoniana. Hay una probabilidad finita, calculable, de que sea encontrado fuera de los muros de la cárcel. En el caso de objetos grandes como un preso, tendríamos que esperar un tiempo superior al periodo de vida del universo para que se produjera este acontecimiento milagroso. Pero, en el caso de las partículas alfa y las subatómicas, ocurre todo el tiempo, porque estas partículas chocan repetidamente contra las paredes de los núcleos con grandes cantidades de energía. Muchos creen que Gamow debería haber recibido el premio Nobel por esta obra de importancia capital.
En la década de 1940, los intereses de Gamow empezaron a pasar de la relatividad a la cosmología, que él veía como un país rico por descubrir. Todo lo que se sabía del universo en aquella época era que el cielo era negro y que el universo se expandía. Gamow tenía en mente una sola idea: encontrar alguna prueba o «fósiles» que demostrasen que hubo un big bang hace miles de millones de años. No dejaba de ser una idea frustrante, porque la cosmología no es una ciencia experimental en el verdadero sentido de la palabra. No pueden llevarse a cabo experimentos sobre el big bang. La cosmología es más parecida a una historia de detectives, una ciencia de observación en la que se buscan «vestigios» o pruebas en la escena del crimen, más que una ciencia experimental donde se puedan realizar experimentos precisos.

6. La cocina nuclear del universo
La siguiente gran contribución de Gamow a la ciencia fue el descubrimiento de las reacciones nucleares que dieron nacimiento a los elementos más ligeros que vemos en el universo. Le gustaba darle el nombre de «cocina prehistórica del universo», donde el intenso calor del big bang cocinó originalmente todos los elementos del universo. Hoy en día se denomina a este proceso «nucleosíntesis», el cálculo de las abundancias relativas de los elementos en el universo. La idea de Gamow era que había una cadena ininterrumpida, empezando por el hidrógeno, que podía construirse simplemente añadiendo más partículas al átomo de hidrógeno. Creía que toda la tabla periódica de los elementos químicos de Mendeleev pudo ser creada por el calor del big bang.
Gamow y sus alumnos razonaban que, como el universo era una colección increíblemente caliente de protones y neutrones en el instante de la creación, quizá tuvo lugar el fenómeno de la fusión y los átomos de hidrógeno se fusionaron para producir átomos de helio. Como en una bomba de hidrógeno o en una estrella, las temperaturas son tan altas que los protones de un átomo de hidrógeno colisionan unos con otros hasta que se fusionan, creando núcleos de helio. Las colisiones subsiguientes entre hidrógeno y helio, según este guión, producen la siguiente serie de elementos, incluyendo el litio y el berilio. Gamow partía de la base de que los elementos superiores podrían ser formados de manera secuencial, añadiendo cada vez más partículas subatómicas al núcleo; dicho de otro modo, que los aproximadamente cien elementos que forman el universo visible fueron «cocinados» en el calor abrasador de la bola de fuego original.
Con su estilo característico, Gamow sentó las amplias bases de este ambicioso programa y dejó que fuera su doctorando Ralph Alpher quien se ocupara de los detalles. Cuando el trabajo estuvo terminado, no pudo resistirse a gastar una broma: puso el nombre del físico Hans Bethe en el trabajo sin su permiso y se convirtió en el célebre documento alfa-beta-gamma. [35]
Lo que había descubierto Gamow era que en realidad el big bang era lo bastante caliente para crear helio, que forma un 25% de la masa del universo. Trabajando a la inversa, podía encontrarse una «prueba» del big bang simplemente observando las muchas estrellas y galaxias y dándose cuenta de que están formadas aproximadamente por un 75% de hidrógeno, un 25% de helio y trazas de otros elementos. (Como ha dicho David Spergel, astrofísico de Princeton: «Cada vez que compras un globo, te llevas átomos que [en parte] fueron formados en los primeros minutos del big bang»). [36]
Sin embargo, Gamow también tuvo problemas con el cálculo. Su teoría funcionaba bien con los elementos muy ligeros. Pero los elementos con 5 y 8 neutrones y protones son extremadamente inestables y, por tanto, no pueden actuar como «puente» para crear elementos que tienen un número mayor de protones y neutrones. El puente se hundió con 5 y 8 partículas. Como el universo estaba compuesto por elementos pesados con mucho más de 5 y 8 neutrones y protones, se producía un misterio cósmico. El fracaso del programa de Gamow de salvar el vacío planteado por las 5 y 8 partículas siguió siendo un problema duro de roer durante años y condenó su interés por demostrar que todos los elementos del universo fueron creados en el momento del big bang.

7. Radiación de fondo de microondas
Al mismo tiempo, a Gamow le intrigaba otra idea: si el big bang fue tan increíblemente caliente, quizá parte de su calor residual todavía esté circulando actualmente por el universo. Si fuera así, proporcionaría un «registro fósil» del propio big bang. Quizás el big bang fue tan colosal que sus réplicas siguen llenando el universo con una neblina de radiación uniforme.
En 1946, Gamow partía de la base de que el big bang empezó con un núcleo supercaliente de neutrones. Era una presunción razonable, porque se sabía muy poco sobre partículas subatómicas distintas del electrón, protón y neutrón. Se dio cuenta de que si pudiese estimar la temperatura de su bola de neutrones, podría calcular la cantidad y la naturaleza de la radiación que emitía. Dos años después, Gamow demostró que la radiación emitida por este núcleo supercaliente actuaría como la «radiación de cuerpo negro». Se trata de un tipo muy específico de radiación emitida por un objeto caliente; absorbe toda la luz que le llega y devuelve la radiación de una manera característica. Por ejemplo, el Sol, la lava líquida, el carbón caliente en una hoguera y la cerámica caliente en un horno resplandecen con un color amarillo rojizo y emiten radiación de cuerpo negro. (La radiación de cuerpo negro fue descubierta por Thomas Wedgwood, famoso fabricante de porcelana, en 1792. Se dio cuenta de que, cuando cocía en sus hornos material crudo, éste cambiaba de color del rojo al amarillo y blanco a medida que subía la temperatura).
Esto es importante porque, una vez uno sabe el color de un objeto caliente, también sabe aproximadamente su temperatura, y viceversa; la fórmula exacta que relaciona la temperatura de un objeto caliente con la radiación que emite la obtuvo por primera vez Max Planck en 1900, lo cual condujo al nacimiento de la teoría cuántica. (Es, en realidad, una de las maneras en que los científicos determinan la temperatura del Sol. El Sol irradia principalmente luz amarilla, que a su vez corresponde a una temperatura de cuerpo negro de unos 6.000° K. Por tanto, sabemos la temperatura de la atmósfera exterior del Sol. De manera similar, la estrella gigante roja Betelgeuse tiene una temperatura de superficie de 3.000° K, la temperatura de cuerpo negro correspondiente al color rojo, la misma que emite un trozo de carbón al rojo vivo).
El trabajo de 1948 de Gamow sugería por primera vez que la radiación del big bang podía tener una característica específica: la radiación de cuerpo negro. La característica más importante de la radiación de cuerpo negro es su temperatura. A continuación, Gamow tuvo que calcular la temperatura actual de la radiación de cuerpo negro.
Ralph Alpher, alumno de doctorado de Gamow, y otro estudiante, Robert Herman, intentaron completar el cálculo de Gamow calculando esa temperatura. Gamow escribió: «Extrapolando de los primeros días del universo al tiempo presente, encontramos que durante los millones de años que han pasado, el universo debe de haberse enfriado hasta unos 5° por encima del cero absoluto». [37]
En 1948, Alpher y Herman publicaron un trabajo con argumentos detallados de por qué la temperatura de la luminiscencia del big bang tenía que ser actualmente de 5° por encima del cero absoluto (su estimación fue notablemente cercana a la que hoy sabemos que es la temperatura correcta, 2,7° Kelvin). Postulaban que esta radiación, que ellos identificaron en la zona de microondas, todavía debía de estar circulando por el universo, llenando el cosmos con una luminiscencia uniforme.
(El razonamiento era como sigue. Durante años después del big bang, la temperatura del universo era tan alta que, cada vez que se formaba un átomo, se rompía; por tanto, había muchos electrones libres que podían dispersar la luz. Así, el universo era opaco, no transparente. Cualquier rayo de luz que se moviera en este universo supercaliente era absorbido tras viajar una corta distancia, por eso el universo era oscuro. Sin embargo, después de 380.000 años, la temperatura descendió a 3.000°. Por debajo de esta temperatura, los átomos ya no se rompían por colisiones. Como resultado, podían formarse átomos estables y los rayos de luz podían viajar durante años luz sin ser absorbidos. Así, por primera vez, el espacio vacío se volvió transparente. Esta radiación, que ya no era instantáneamente absorbida en cuanto se generaba, está circulando hoy por el universo).
Cuando Alpher y Herman enseñaron a Gamow sus cálculos definitivos de la temperatura del universo, éste se mostró decepcionado. La temperatura era tan fría que sería extremadamente difícil de medir. Gamow tardó un año en aceptar que los detalles de aquellos cálculos eran correctos, pero no tenía esperanzas de poder medir un campo de radiación tan débil. Los instrumentos disponibles en la década de 1940 eran totalmente inadecuados para medir este débil eco. (En un cálculo posterior, partiendo de una presunción incorrecta, Gamow aumentó la temperatura de la radiación hasta 50°).
Alpher y Herman dieron una serie de conferencias para publicitar su trabajo. Pero, lamentablemente, su resultado profético se ignoró. Alpher dijo: «Gastamos gran cantidad de energías dando charlas por todo el mundo. Nadie picó; nadie dijo que podía medirse. […] Y, en consecuencia, durante el periodo de 1948 a 1955, lo dejamos de lado». [38]
Sin desanimarse, Gamow, a través de sus libros y conferencias, se convirtió en el principal promotor de la teoría del big bang, pero encontró la horma de su zapato en un adversario feroz de su mismo nivel. Mientras Gamow encantaba a su audiencia con sus chistes pícaros y sus bromas, Fred Hoyle la apabullaba con su brillantez y su audacia agresiva.

8. Fred Hoyle, el adversario
La radiación de fondo de microondas nos da la «segunda prueba» del big bang. El hombre que tenía menos probabilidades de proporcionar la tercera gran prueba del big bang a través de la nucleosíntesis era Fred Hoyle, un hombre que irónicamente dedicó casi toda su vida profesional a intentar rebatir la teoría del big bang.
Hoyle era la personificación del académico inadaptado, un brillante adversario que se atrevía a desafiar la sabiduría convencional con un estilo en ocasiones agresivo. Mientras Hubble era el último patricio, que emulaba los gestos de un profesor universitario de Oxford, y Gamow era el bromista chistoso y polígrafo que podía encandilar a las audiencias con sus bromas, pareados y travesuras, el estilo de Hoyle parecía el de un bulldog toscamente labrado; parecía estar fuera de lugar en los antiguos vestíbulos de la Universidad de Cambridge, el viejo hogar de Isaac Newton.
Hoyle, hijo de un comerciante textil, nació en 1915 en el norte de Inglaterra, en un área dominada por la industria lanera. De pequeño, la ciencia le fascinaba; la radio estaba llegando al pueblo y, según recordaba, veinte o treinta personas se apresuraron a poner en su casa receptores de radio. Sin embargo, el punto clave de su vida llegó cuando sus padres le regalaron un telescopio.
El estilo combativo de Hoyle empezó cuando era pequeño. A los tres años dominaba las tablas de multiplicar y su maestro le dijo que tenía que aprender los números romanos. « ¿Cómo podía alguien ser tan palurdo como para escribir VIII en vez de 8?», recordaba con desdén. Pero cuando le dijeron que la ley le obligaba a asistir a la escuela, escribió: «Llegué a la conclusión de que, desgraciadamente, había nacido en un mundo dominado por un monstruo arrasador llamado "ley" que era todopoderoso y estúpido». [39]
Su desdén hacia la autoridad también se vio cimentado por el roce con otra maestra, que dijo en clase que una flor determinada tenía cinco pétalos. Para demostrar su error, le llevó a clase la flor con seis pétalos. Por aquel acto insolente de insubordinación, la maestra le golpeó en la oreja. [40] (Más tarde, Hoyle se volvió sordo de aquel oído).

9. Teoría del estado estacionario
En la década de 1940, Hoyle no estaba muy entusiasmado con la teoría del big bang. Un defecto de la teoría era que Hubble, por culpa de los errores en la medición de la luz de galaxias distantes, había calculado erróneamente que la edad del universo era de 1.800 millones de años. Los geólogos afirmaban que la Tierra y el sistema solar probablemente tenían muchos miles de millones de años. ¿Cómo podía el universo ser más joven que sus planetas?
Con colegas como Thomas Gold y Hermann Bondi, Hoyle se puso a construir una teoría rival. Dice la leyenda que su teoría, la teoría del estado estacionario, fue inspirada por una película de fantasmas de 1945 titulada Al morir la noche con Michael Redgrave. La película consiste en una serie de historias de fantasmas, pero en la escena final se produce un giro memorable: la acción termina justo cuando empieza. Así pues, es una película circular, sin principio ni final. Parece ser que esto inspiró a los tres físicos a proponer una teoría del universo que tampoco tiene principio ni final. (Gold aclaró más tarde cómo fue. Dijo: «Creo que habíamos visto la película hacía unos meses y, después de proponer el estado estacionario, les dije: "¿No se parece un poco a Al morir la noche?"»). [41]
En este modelo, partes del universo se expandían realmente, pero constantemente se estaba creando nueva materia de la nada, por lo que la densidad del universo seguía siendo la misma. Aunque no podía dar detalles de cómo la materia emergía misteriosamente de la nada, la teoría atrajo inmediatamente a un grupo de partidarios que lucharon contra los teóricos del big bang. Para Hoyle, parecía ilógico que pudiera aparecer de la nada un cataclismo abrasador que enviara las galaxias a toda velocidad en todas direcciones; prefería la creación suave de masa de la nada. Dicho de otro modo, el universo era intemporal. No tenía final, ni principio. Simplemente existía.
(La controversia estado estacionario-bing bang era similar a la que afectaba a la geología y otras ciencias. En la geología, había un debate desde hacía mucho tiempo entre el uniformitarismo [la creencia de que la Tierra fue formada por cambios graduales en el pasado] y el catastrofismo [que postulaba que los cambios tuvieron lugar mediante acontecimientos violentos]. Aunque el uniformitarismo explica muchas de las características geológicas y ecológicas de la Tierra, nadie puede negar ahora el impacto de cometas y asteroides, que han generado extinciones masivas, o la fractura y los movimientos de los continentes mediante la deriva tectónica).

10. Conferencias en la BBC
Hoyle nunca rehuía una buena pelea. En 1949, tanto Hoyle como Gamow fueron invitados a la British Broadcasting Corporation para debatir el origen del universo. Durante la emisión, Hoyle hizo historia cuando intentaba dar un bofetón a la teoría rival. Dijo proféticamente: «Estas teorías se basan en la hipótesis de que toda la materia del universo fue creada en un "big bang" (gran estallido) en un momento particular del pasado remoto». El nombre dio en el clavo. La teoría rival fue oficialmente bautizada como «big bang» por su mayor enemigo. (Más tarde declaró que no lo había dicho en plan denigratorio: «De ningún modo acuñé la frase con intención despectiva. La acuñé para llamar la atención»). [42]
A lo largo de los años, los defensores del big bang han intentado heroicamente cambiarle el nombre. No les gusta su connotación común, casi vulgar, ni el hecho de que fuera acuñado por su mayor adversario. Para empezar, el big bang no era grande (ya que se originó por una pequeña singularidad de algún tipo mucho más pequeña que un átomo) y, en segundo lugar, no hubo «bang» (puesto que en el espacio exterior no hay aire). En agosto de 1993, la revista Sky and Telescope patrocinó un concurso para rebautizar la teoría del big bang. El concurso recogió tres mil propuestas, pero los jueces no pudieron encontrar ninguna que fuera mejor que el original.
Lo que estableció la fama de Hoyle para toda una generación fue su célebre serie radiofónica sobre ciencia en la BBC. En la década de 1950, la BBC programó la emisión de una conferencia sobre ciencia los sábados por la mañana. Sin embargo, cuando el invitado original canceló la cita, los productores tuvieron que buscar a toda prisa un sustituto. Se pusieron en contacto con Hoyle, quien accedió a ir. A continuación revisaron su expediente, en el que había una nota que decía: «NO LLAMEN A ESTE HOMBRE».
Por suerte, ignoraron la osada advertencia de un productor anterior y Hoyle pronunció cinco conferencias extraordinarias. Estas emisiones clásicas de la BBC cautivaron a la nación y en parte inspiraron a la siguiente generación de astrónomos. El astrónomo Wallace Sargent recuerda el impacto que tuvieron sobre él estas charlas: «Cuando tenía quince años, escuché las conferencias que dio Fred Hoyle en la BBC con el título de "La naturaleza del universo". La idea de que se sabía cuál era la temperatura y la densidad del centro del Sol me dejó asombrado. A los quince años, este tipo de cosas parecen algo más allá del conocimiento. No eran sólo los sorprendentes números, sino el hecho de que pudieran saberse». [43]

11. Nucleosíntesis en las estrellas
Hoyle, que desdeñaba las especulaciones ociosas que se hacían desde un sillón, se dispuso a comprobar la teoría del estado estacionario. Le gustaba la idea de que los elementos del universo fueran cocinados no en el big bang, como creía Gamow, sino en el centro de las estrellas. Si el centenar aproximado de elementos químicos fueron creados por el calor intenso de las estrellas, no habría necesidad alguna de un big bang.
En una serie de influyentes trabajos publicados en los años 40 y 50, Hoyle y sus colegas expusieron con vívidos detalles que las reacciones nucleares dentro del núcleo de una estrella, no el big bang, podían añadir cada vez más protones y neutrones a los núcleos de hidrógeno y helio, hasta crear todos los elementos más pesados, al menos hasta el hierro. (Resolvieron el misterio de cómo crear elementos más allá de la masa número 5, que había dejado perplejo a Gamow. En un golpe de genio, Hoyle se dio cuenta de que si hubiera una forma inestable de carbono anteriormente inadvertida, creada a partir de tres núcleos de helio, podría durar lo suficiente para actuar como «puente», permitiendo la creación de elementos superiores. En el núcleo de las estrellas, esta nueva forma inestable de carbono podría durar lo suficiente para que, añadiéndole sucesivamente más neutrones y protones, se pudieran crear elementos más allá del número de masa 5 y 8. Cuando se encontró realmente esta forma inestable de carbono, se demostró con brillantez que la nucleosíntesis podía tener lugar en las estrellas y no en el big bang. Hoyle incluso creó un gran programa informático que podía determinar, casi desde los primeros inicios, las abundancias relativas de elementos que vemos en la naturaleza).
Pero ni siquiera el calor intenso de las estrellas es suficiente para «cocinar» elementos más allá del hierro, como el cobre, el níquel, el zinc y el uranio. (Es extremadamente difícil extraer energía fusionando elementos más allá del hierro, por una variedad de razones, incluida la repulsión de los protones en el núcleo y la falta de una energía vinculante). Para estos elementos pesados, uno necesita un horno aún más grande: la explosión de estrellas masivas y supernovas. Como pueden alcanzarse billones de grados en la agonía de muerte final de una estrella supergigante cuando ésta colapsa violentamente, hay allí bastante energía para «cocinar» los elementos más allá del hierro. Eso significa que, en realidad, la mayoría de los elementos más allá del hierro eran despedidos por las atmósferas de estrellas que estallan, o supernovas.
En 1957, Hoyle, así como Margaret y Geoffrey Burbidge y William Fowler, publicaron el trabajo quizá más definitivo sobre los pasos exactos que son necesarios para construir los elementos del universo y predecir sus abundancias conocidas. Sus argumentos eran tan precisos, potentes y persuasivos que incluso Gamow tuvo que reconocer que Hoyle había ofrecido la imagen más convincente de la nucleosíntesis. Gamow, fiel a su estilo, acuñó incluso el siguiente pasaje, escrito en estilo bíblico:
«Al principio, cuando Dios creó los elementos, en la excitación de contar, Dios se olvidó de convocar a la masa cinco y así, naturalmente, no podían formarse los elementos más pesados. Dios estaba muy decepcionado, y primero quiso volver a contraer el universo y empezar de nuevo desde el principio, pero habría sido demasiado fácil. Así, como era todopoderoso, decidió corregir su error de una manera imposible. Y Dios dijo: "Hágase Hoyle". Y se hizo Hoyle. Y Dios lo miró […] y le dijo que hiciera los elementos pesados del modo que le placiera. Y Hoyle decidió hacer los elementos pesados en las estrellas y extenderlos por el universo mediante explosiones de supernovas». [44]

12. Pruebas contra el estado estacionario
Sin embargo, con el paso de las décadas, lentamente empezaron a aparecer pruebas contra el universo de estado estacionario en una serie de frentes. Hoyle se encontró librando una batalla perdida de antemano. En su teoría, como el universo no evolucionaba sino que creaba nueva materia continuamente, el universo primigenio debía de ser muy parecido al universo de la actualidad. Las galaxias vistas hoy se parecerían mucho a las galaxias de hace miles de millones de años. Por tanto, la teoría del estado estacionario podría descartarse si había señales de cambios evolutivos espectaculares durante el curso de miles de millones de años.
En los años sesenta, se encontraron fuentes misteriosas de enorme energía en el espacio exterior, apodadas «quásares» u «objetos cuasi-estelares». Los quásares generaban cantidades enormes de energía y tenían grandes desplazamientos al rojo, lo que significaba que estaban a miles de millones de años luz y también que encendieron los cielos cuando el universo era muy joven. (Hoy en día, los astrónomos creen que son galaxias jóvenes gigantescas, impulsadas por la energía de inmensos agujeros negros). Actualmente no vemos pruebas de quásares, pero según la teoría del estado estacionario tendrían que existir. En miles de millones de años, han desaparecido.
Hay otro problema en la teoría de Hoyle. Los científicos se dieron cuenta de que la gran cantidad de helio que había en el universo no encajaba con las predicciones del universo de estado estacionario. El helio, conocido por ser el gas que se utiliza en los globos infantiles y los zepelines, en realidad es bastante raro en la Tierra, pero es el segundo elemento más abundante en el universo después del hidrógeno. Es tan raro, que se encontró por primera vez en el Sol y no en la Tierra. (En 1868, los científicos analizaban la luz del Sol observándola a través de un prisma. La luz del Sol refractada se descomponía en el arco iris habitual de colores y líneas espectrales, pero también detectaron débiles líneas espectrales causadas por un elemento misterioso nunca visto antes. Pensaron erróneamente que era un metal, cuyos nombres suelen terminar en «io», como litio y uranio. Bautizaron a este metal misterioso a partir de la palabra griega para designar el Sol, «Helios». Finalmente, en 1895, se encontró helio en la Tierra, en depósitos de uranio, y los científicos descubrieron con rubor que era un gas, no un metal. Así, el helio, descubierto por primera vez en el Sol, nació con un nombre equivocado).
Si, como creía Hoyle, el helio primordial fue creado principalmente en las estrellas, debería ser bastante raro y se encontraría cerca de los núcleos de las estrellas. Pero todos los datos astronómicos mostraron que el helio era en realidad muy abundante y formaba el 25% de la masa de los átomos en el universo. Se encontró que estaba uniformemente distribuido por todo el universo (como creía Gamow).
En la actualidad, sabemos que tanto Gamow como Hoyle tenían parte de razón en lo relativo a la nucleosíntesis. Gamow pensaba originalmente que todos los elementos químicos eran precipitaciones o cenizas del big bang, pero su teoría cayó víctima del abismo a partir de las 5 y 8 partículas. Hoyle pensó que podía erradicar la teoría del big bang simplemente demostrando que las estrellas «cocinaban» todos los elementos, sin necesidad alguna de recurrir a un big bang. Pero su teoría no consiguió explicar la inmensa abundancia de helio que ahora sabemos que existe en el universo.
En esencia, Gamow y Hoyle nos han ofrecido una imagen complementaria de la nucleosíntesis. Los elementos muy ligeros hasta la masa 5 y 8 fueron creados realmente por el big bang, como creía Gamow. Hoy en día, como resultado de los descubrimientos de la física, sabemos que el big bang produjo la mayor parte del deuterio, helio-3, helio-4 y litio-7 que vemos en la naturaleza. Pero los elementos más pesados hasta el hierro eran cocinados principalmente en los núcleos de las estrellas, como creía Hoyle. Si añadimos los elementos más allá del hierro (como el cobre, zinc y oro) que fueron generados por el calor abrasador de una supernova, obtendremos una imagen completa que explica las abundancias relativas de todos los elementos en el universo. (Cualquier teoría que rivalizara con la cosmología moderna tendría por delante una tarea formidable: explicar las abundancias relativas de más de cien elementos del universo y sus miles de isótopos).

13. Cómo nacen las estrellas
Una consecuencia de este intenso debate sobre la nucleosíntesis es que nos ha proporcionado una descripción bastante completa del ciclo de vida de las estrellas. Una estrella típica como nuestro Sol empieza su vida como una gran bola de gas de hidrógeno difuso, llamada «protoestrella» y se contrae gradualmente bajo la fuerza de la gravedad. Cuando empieza a colapsar, empieza asimismo a rotar rápidamente (lo que a menudo lleva a la formación de un sistema de estrella doble donde las dos estrellas se persiguen en órbitas elípticas, o a la formación de planetas en el plano de rotación de la estrella). El núcleo de la estrella también se calienta de manera tremenda hasta que llega aproximadamente a 10 millones de grados o más, y es cuando tiene lugar la fusión de hidrógeno para convertirlo en helio.
Cuando la estrella se inflama, se llama «estrella de secuencia principal» y puede arder durante unos 10.000 millones de años, convirtiendo lentamente su núcleo de hidrógeno en helio. Nuestro Sol está actualmente a medio camino en este proceso. Una vez terminado el plazo de quema del hidrógeno, la estrella empieza a quemar helio, momento en el que se expande enormemente hasta alcanzar el tamaño de la órbita de Marte y se convierte en una «gigante roja». Cuando el combustible de helio en el núcleo queda agotado, las capas exteriores de la estrella se disipan y abandonan el propio núcleo, una «enana blanca» de dimensiones similares a las de la Tierra. Estrellas pequeñas como nuestro Sol morirán en el espacio, como residuos de material nuclear muerto, en forma de enanas blancas.
Pero en estrellas que tienen quizá de diez a cuarenta veces la masa del Sol, el proceso de fusión se efectúa mucho más rápido. Cuando la estrella se convierte en una supergigante roja, su núcleo fusiona rápidamente los elementos más ligeros, por lo que parece una estrella híbrida, una enana blanca dentro de una gigante roja. En esta enana blanca pueden crearse los elementos más ligeros de la tabla periódica de elementos hasta el hierro. Cuando el proceso de fusión alcanza la fase en que se crea el elemento hierro, no puede extraerse más energía, por lo que el horno nuclear, después de miles de millones de años, finalmente se apaga. En este punto, la estrella se colapsa abruptamente, creando grandes presiones que empujan los electrones hacia los núcleos. (La densidad puede exceder 400 mil millones de veces la densidad del agua). Esto hace que las temperaturas se eleven a billones de grados. La energía gravitacional comprimida en este objeto pequeño explota hacia fuera en una supernova. El intenso calor de este proceso hace que la fusión vuelva a empezar, y se sintetizan los elementos más allá del hierro en la tabla periódica.
La supergigante roja Betelgeuse, por ejemplo, que puede verse fácilmente en la constelación Orión, es inestable; puede explotar en cualquier momento como una supernova, arrojando grandes cantidades de rayos gamma y rayos X en su espacio circundante. Cuando eso ocurra, esta supernova será visible durante el día y podría brillar más que la Luna por la noche. (En otros tiempos se pensó que la titánica energía liberada por una supernova había aniquilado a los dinosaurios hace 65 millones de años. Una supernova a unos diez años luz de distancia podría, en realidad, terminar con toda la vida en la Tierra. Afortunadamente, las estrellas gigantes Spica y Betelgeuse están a 260 y 430 años luz de distancia, respectivamente, demasiado lejos para causar un daño demasiado serio a la Tierra cuando finalmente exploten. Pero algunos científicos creen que hace 2 millones de años una extinción menor de criaturas marinas fue causada por la explosión en forma de supernova de una estrella situada a 120 años luz).
Eso también significa que nuestro Sol no es la verdadera «madre» de la Tierra. Aunque muchos pueblos de la Tierra lo han adorado como un dios que dio nacimiento a la Tierra, esto es sólo parcialmente correcto. Si bien la Tierra fue creada originalmente por el Sol (como parte del plano eclíptico de detritos y polvo que circulaba a su alrededor hace 4.500 millones de años), nuestro Sol es apenas lo bastante caliente para fusionar el hidrógeno en helio. Eso significa que nuestro verdadero «sol madre» era en realidad una estrella o colección de estrellas sin nombre que murió hace miles de millones de años en una supernova, que después sembró nebulosas cercanas con los elementos superiores más allá del hierro que forman nuestro cuerpo. Literalmente, nuestros cuerpos están hechos de polvo de estrellas, de estrellas que murieron hace miles de millones de años.
En el periodo siguiente a una explosión de supernova, queda un pequeño remanente llamado «estrella de neutrones» constituido por materia nuclear sólida comprimida de unos 30 kilómetros de diámetro. (Las estrellas de neutrones fueron predichas por primera vez por el astrónomo Fritz Zwicky en 1933, pero parecían tan fantásticas que los científicos las ignoraron durante décadas). Como la estrella de neutrones emite radiación de forma irregular y gira rápidamente, parece un faro giratorio que arroja pulsos de radiación a medida que gira. Vista desde la Tierra, la estrella de neutrones parece pulsante y por eso se le llama «púlsar».
Las estrellas extremadamente grandes, quizá superiores a 40 masas solares, cuando finalmente sufren una explosión de supernova podrían dejar en su lugar una estrella de neutrones, que es superior a 3 masas solares. La gravedad de esta estrella de neutrones es tan grande que puede contrarrestar la fuerza repulsiva entre neutrones, y la estrella quizá se colapsará en el objeto más exótico del universo, el agujero negro, del que hablaré en el capítulo 5.

14. Los excrementos de pájaro y el big bang
La última estaca en el corazón de la teoría del estado estacionario fue el descubrimiento de Arno Penzias y Robert Wilson en 1965. Trabajando en el Radiotelescopio Horn del Laboratorio Bell, de unos 70 metros de diámetro, en Holmdell, Nueva Jersey, buscaban señales de radio de los cielos cuando encontraron unas interferencias indeseadas. Pensaron que probablemente era una aberración, porque parecía llegar uniformemente de todas direcciones, más que de una sola estrella o galaxia. Pensando que las interferencias podrían proceder de porquería y restos, limpiaron cuidadosamente lo que Penzias describió como «una capa blanca de material dieléctrico» (en lenguaje común: excrementos de pájaro) que había cubierto la superficie del radiotelescopio. Ahora las interferencias eran más intensas. Aunque no lo sabían, habían tropezado accidentalmente con el fondo de microondas predicho por Gamow en 1948.
La historia cosmológica evoca ahora un poco la de los policías de Keystone, en que tres grupos buscan una respuesta sin el conocimiento de los otros dos. Por un lado, Gamow, Alpher y Hermann habían diseñado la teoría del fondo de microondas en 1948; habían predicho que la temperatura de la radiación de microondas sería de 5° por encima del cero absoluto. Sin embargo, dejaron de intentar la medición de la radiación de fondo del espacio porque los instrumentos de aquella época no eran lo bastante sensibles para detectarla. En 1965, Penzias y Wilson encontraron esta radiación de cuerpo negro pero no lo sabían. Mientras tanto, un tercer grupo dirigido por Robert Dicke, de la Universidad de Princeton, había redescubierto, independientemente, la teoría de Gamow y sus colegas y buscaba activamente la radiación de fondo, pero lamentablemente su equipo era demasiado primitivo para detectarla.
Esta situación cómica terminó cuando un amigo mutuo, el astrónomo Bernard Burke, informó a Penzias del trabajo de Robert Dicke. Cuando los dos grupos por fin se pusieron en contacto, quedó claro que Penzias y Wilson habían detectado señales del propio big bang. Por este descubrimiento de capital importancia, Penzias y Wilson recibieron el premio Nobel en 1978.
Hoyle y Gamow, los dos defensores más visibles de las teorías opuestas, tuvieron un fatídico encuentro en un Cadillac, en 1956, que podía haber cambiado el curso de la cosmología. «Recuerdo a George llevándome arriba y abajo en un Cadillac blanco», recordaba Hoyle. Gamow le repitió a Hoyle su convicción de que el big bang había dejado una luminiscencia que debería ser visible todavía. Sin embargo, los últimos números de Gamow colocaban la temperatura de esta luminiscencia en 50° Kelvin. Entonces Hoyle le hizo una asombrosa revelación a Gamow. Hoyle conocía un oscuro artículo, escrito en 1941 por Andrew McKellar, que demostraba que la temperatura del espacio exterior no podía superar los 3°. A más altas temperaturas, se producirían nuevas reacciones que crearían radicales excitados de carbono-hidrógeno (CH) y carbono-nitrógeno (CN) en el espacio exterior. Midiendo los espectros de estos elementos químicos, se podría determinar la temperatura del espacio exterior. De hecho, encontró que la densidad de las moléculas de CN que detectó en el espacio indicaba una temperatura de unos 2,3°. Dicho de otro modo, sin que Gamow lo supiera, la radiación de fondo de 2,7 K ya había sido detectada indirectamente en 1941.
Hoyle recordaba: «No sé si por la excesiva comodidad del Cadillac, o porque George quería una temperatura superior a 3 K mientras que yo la quería de cero grados, perdimos la oportunidad de hacer el descubrimiento que nueve años después hicieron Arno Penzias y Bob Wilson». [45] Si el grupo de Gamow no hubiera cometido un error numérico y se hubiera acercado a una temperatura más baja, o si Hoyle no hubiera sido tan hostil a la teoría del big bang, es posible que la historia se hubiera escrito de manera diferente.

15. Réplicas personales del big bang
El descubrimiento del fondo de microondas de Penzias y Wilson tuvo un claro efecto en las carreras de Gamow y Hoyle. Para Hoyle, el trabajo de Penzias y Wilson fue una experiencia en el umbral de la muerte. En 1965, por fin, Hoyle aceptó oficialmente la derrota en la revista Nature, citando el fondo de microondas y la abundancia de helio como razones para abandonar la teoría del estado estacionario. Sin embargo, lo que realmente le perturbó fue que la teoría del estado estacionario hubiera perdido su poder de predicción: «Se cree que la existencia del fondo de microondas acabó con la cosmología del "estado estacionario", pero lo que realmente acabó con ella fue la psicología. […] Aquí, en el fondo de microondas, había un fenómeno importante que no había predicho. […] Durante muchos años, me quedé para el arrastre». [46] (Más tarde, Hoyle cambió de idea e intentó juguetear con nuevas variaciones de la teoría del estado estacionario del universo, pero cada nueva variación era menos plausible que la anterior).
Por desgracia, la cuestión de la prioridad le dejó mal gusto de boca a Gamow. Si uno lee entre líneas, a Gamow no le gustaba que su trabajo y el de Alpher y Hermann apenas fueran mencionados, si es que se citaban alguna vez. Educado como era, guardó silencio sobre sus sentimientos, pero en cartas privadas escribió que era injusto que físicos e historiadores ignorasen totalmente su obra.
Aunque el trabajo de Penzias y Wilson fue un gran golpe a la teoría del estado estacionario y ayudó a poner el big bang sobre una firme base experimental, había grandes lagunas en nuestra comprensión de la estructura del universo en expansión. En un universo de Friedmann, por ejemplo, uno debe conocer el valor de Omega, la distribución media de materia en el universo, para entender su evolución. Sin embargo, la determinación de Omega se hizo bastante problemática cuando se constató que la mayor parte del universo no estaba constituida por los familiares átomos y moléculas, sino por una extraña sustancia nueva llamada «materia oscura», que superaba la masa de la materia ordinaria en un factor de 10. Una vez más, los pioneros de este campo no fueron tomados en serio por el resto de la comunidad astronómica.

16. Omega y la materia oscura
La historia de la materia oscura es quizás uno de los capítulos más extraños de la cosmología. En la década de 1930, el inconformista astrónomo suizo Fritz Zwicky, de Cal Tech, vio que las galaxias del cúmulo Coma no se movían de acuerdo con la gravedad de Newton. Observó que estas galaxias se movían tan rápido que, según las leyes del movimiento de Newton, debían separarse y disolver el cúmulo. Pensó que la única manera de que el cúmulo Coma pudiera mantenerse junto y no separarse era que tuviera cientos de veces más materia de la que podía verse a través del telescopio. O bien las leyes de Newton eran incorrectas de algún modo en cuanto a las distancias galácticas, o bien había una gran cantidad de materia invisible y no detectada en el cúmulo Coma que lo mantenía unido.
Aquella fue la primera indicación en la historia de que algo funcionaba mal en lo relativo a la distribución de materia en el universo. Lamentablemente, por varias razones, los astrónomos rechazaron o ignoraron universalmente el trabajo pionero de Zwicky.
En primer lugar, eran reacios a creer que la gravedad de Newton, que había dominado la física durante siglos, pudiera ser incorrecta. Había un precedente en el manejo de crisis como ésta en la astronomía. Cuando la órbita de Urano fue analizada en el siglo XIX, se observó que se tambaleaba: se desviaba en una diminuta cantidad de las ecuaciones de Isaac Newton. Así pues, o Newton se equivocaba o tenía que haber un nuevo planeta cuya gravedad tirara de Urano. Lo correcto era lo segundo, y se encontró a Neptuno al primer intento, en 1846, al analizar la localización predicha por las leyes de Newton.
En segundo lugar, había la cuestión de la personalidad de Zwicky y el trato que le dispensaban los astrónomos como «outsider». Zwicky era un visionario que había sido ridiculizado o ignorado a menudo en su vida. En 1933, con Walter Baade, acuñó la palabra «supernova» y predijo correctamente que una pequeña estrella de neutrones, de unos 22 kilómetros de diámetro, podía ser el remanente definitivo de una estrella que había estallado. La idea era tan disparatada que, el 19 de enero de 1934, fue satirizada en las tiras cómicas de Los Ángeles Times. Zwicky estaba furioso con el pequeño grupo de elite de astrónomos que, a su juicio, le negaban el reconocimiento, le robaban las ideas y no accedían a concederle tiempo en los telescopios de 2,54 y 5,08 metros. (Poco antes de su muerte en 1974, Zwicky publicó, él mismo, un catálogo de las galaxias. El catálogo empezaba con el encabezamiento: «Un recordatorio a los grandes sacerdotes de la astronomía americana y a sus sicofantes». El ensayo presentaba una crítica feroz de la naturaleza cerrada y estancada de la elite de la astronomía, que tendía a dejar fuera a visionarios como él. «Los sicofantes y ladrones puros de hoy parecen andar libres, sobre todo en la astronomía americana, para apropiarse de descubrimientos e invenciones realizados por lobos solitarios e inconformistas», [47] escribió. Les llamaba «cabrones esféricos» porque «son cabrones desde dondequiera que los mires». Le produjo gran indignación haber sido ignorado cuando concedieron el premio Nobel a otra persona por el descubrimiento de la estrella de neutrones). [48]
En 1962, el curioso problema del movimiento galáctico fue redescubierto por la astrónoma Vera Rubin. Estudió la rotación de la galaxia de la Vía Láctea y encontró el mismo problema: la comunidad astronómica la miró por encima del hombro. Normalmente, cuanto más lejos está del Sol un planeta, más lentamente viaja. Cuanto más cerca está, más rápido se mueve. Por eso Mercurio lleva el nombre del dios de la velocidad, porque está muy cerca del Sol, y por eso la velocidad de Plutón es diez veces menor que la de Mercurio, porque es el que está más lejos del Sol. Sin embargo, cuando Vera Rubin analizó las estrellas azules de nuestra galaxia, encontró que las estrellas rotaban alrededor de la galaxia a la misma velocidad, independientemente de su distancia al centro galáctico (lo que se llama «curva de rotación plana»), violando de este modo los preceptos de la mecánica newtoniana. En realidad, observó que la galaxia de la Vía Láctea rotaba tan deprisa que tendría que desintegrarse. Pero la galaxia ha sido bastante estable durante 10.000 millones de años; era un misterio por qué la curva de rotación era plana. Para que la galaxia no se desintegrara, tenía que tener una masa 10 veces superior a lo que solían pensar los científicos. Aparentemente, ¡había desaparecido el 90% de la masa de la Vía Láctea!
Vera Rubin fue ignorada, en parte porque era una mujer. Con cierto dolor, recuerda que cuando pidió el ingreso en el Swarthmore College como estudiante de ciencias de último curso y casualmente le dijo al secretario de admisiones que le gustaba pintar, el entrevistador le dijo: « ¿No ha pensado en dedicarse a pintar imágenes de objetos astronómicos?». Más tarde recordaba: «Se convirtió en una frase habitual en mi familia: durante muchos años, siempre que algo le iba mal a alguien, le decíamos: "¿No has pensado nunca en dedicarte a pintar imágenes de objetos astronómicos?"». [49] Cuando le dijo a su profesor de física que la habían aceptado en Vassar, él contestó: «Le irá bien siempre que se mantenga alejada de la ciencia». Más tarde recordaba: «Se necesita una gran autoestima para escuchar cosas así y no hundirte».
Después de licenciarse, solicitó el ingreso en Harvard y fue aceptada, pero renunció porque se casó y se fue con su marido, que era químico, a Cornell. (Recibió una carta de Harvard con las siguientes palabras escritas a mano en la parte inferior: «Malditas mujeres. Cada vez que consigo una buena, se va para casarse»). Hace poco asistió a una conferencia de astronomía en Japón, y era la única mujer presente. «En realidad, durante mucho tiempo no podía contar esta historia sin echarme a llorar, porque ciertamente en una generación […] no ha cambiado gran cosa», confesó.
Sin embargo, la importancia de su cuidadoso trabajo, y el trabajo de otros, empezó a convencer poco a poco a la comunidad astronómica del problema de la masa que faltaba. En 1978, Rubin y sus colegas habían examinado once galaxias espirales; todas ellas rotaban demasiado rápido para mantenerse unidas según las leyes de Newton. Aquel mismo año, el radioastrónomo Albert Bosma publicó el análisis más completo hasta ahora de las docenas de galaxias espirales; casi todas ellas mostraban la misma conducta anómala. Esto pareció convencer finalmente a la comunidad astronómica de que realmente existía la materia oscura.
La solución más sencilla a este angustioso problema era suponer que las galaxias estaban rodeadas por un halo invisible que contenía diez veces más materia que las propias estrellas. Desde aquel tiempo, se han desarrollado medios más sofisticados para medir la presencia de esta materia invisible. Uno de los más impresionantes es medir la distorsión de la luz de la estrella cuando viaja a través de la materia invisible. Como la lente de las gafas, la materia oscura puede curvar la luz (por su enorme masa y, por tanto, tirón gravitatorio). Recientemente, analizando con cuidado las fotografías del telescopio espacial Hubble mediante un ordenador, los científicos pudieron construir mapas de la distribución de la materia oscura en todo el universo.
Se ha desatado una lucha feroz para descubrir de qué está hecha la materia oscura. Algunos científicos piensan que podría consistir en materia ordinaria, sólo que es muy oscura (es decir, constituida por estrellas enanas marrones, estrellas de neutrones, agujeros negros y objetos similares, que son casi invisibles). Estos objetos son agrupados como «materia bariónica», es decir, materia hecha de bariones familiares (como neutrones y protones). Colectivamente, se les llama MACHO (iniciales de Massive Compact Halo Objects, es decir, objetos de halo compactos masivos).
Otros creen que la materia oscura puede consistir en materia no bariónica muy caliente, como los neutrinos (materia oscura caliente). Sin embargo, los neutrinos se desplazan a tal velocidad que no pueden dar cuenta de la mayor parte de la aglutinación de materia oscura y galaxias que vemos en la naturaleza. Otros levantan las manos en señal de rendición y admiten que la materia oscura debe de estar constituida por un tipo de materia totalmente nueva llamada «materia oscura fría» y WIMPS (partículas masivas de interacción débil), que son las candidatas principales a explicar la mayor parte de la materia oscura.

17. El satélite COBE
Utilizando un telescopio ordinario, la bestia de carga de la astronomía desde la época de Galileo, no se puede resolver el misterio de la materia oscura. La astronomía ha progresado de manera notable utilizando ópticas asentadas en el suelo. Sin embargo, en los años noventa llegó a la mayoría de edad una nueva generación de instrumentos astronómicos que utilizaba lo último en tecnología de satélites, láseres y ordenadores y que cambió por completo el aspecto de la cosmología.
Uno de los primeros frutos de esta cosecha fue el satélite COBE (Explorador del Fondo Cósmico), lanzado en noviembre de 1989. Mientras la obra original de Penzias y Wilson sólo confirmaba unos cuantos datos coherentes con el big bang, el satélite COBE pudo medir docenas de datos que encajaban exactamente con la predicción de la radiación de cuerpo negro hecha por Gamow y sus colegas en 1948.
En 1990, en una reunión de la Sociedad Astronómica Americana, los 1. 500 científicos presentes, todos en pie, estallaron en una estruendosa ovación cuando vieron los resultados del COBE colocados en un mapa que mostraba una concordancia casi perfecta con un fondo de microondas a una temperatura de 2,728 K.
El astrónomo de Princeton Jeremiah P. Ostriker señalaba: «Cuando se encontraron fósiles en las rocas, el origen de las especies del universo quedó absolutamente claro. Pues bien, el COBE encontró los fósiles [del universo]». [50] Sin embargo, los mapas del COBE eran bastante confusos. Por ejemplo, los científicos querían analizar los «puntos calientes» o fluctuaciones en la radiación del fondo cósmico, que debían ser aproximadamente de un grado de una a otra región del firmamento. Pero los instrumentos del COBE sólo pudieron detectar fluctuaciones que tenían siete o más grados entre un lugar y otro porque no eran lo bastante sensibles para detectar estos pequeños puntos calientes. Los científicos se vieron obligados a esperar los resultados del satélite WMAP, cuyo lanzamiento estaba previsto para principios de este siglo, para resolver muchas preguntas y misterios.

Capítulo 4
Inflación y universos paralelos

No puede salir nada de la nada.
Lucrecio

Entiendo que nuestro Universo surgió realmente de la nada hace unos 1010 años. […] Ofrezco la modesta proposición de que nuestro Universo es simplemente una de aquellas cosas que ocurren de vez en cuando.
Edward Tryon

El universo es un gran regalo.
Alan Guth

Contenido:
  1. El nacimiento de la inflación
  2. La búsqueda de la unificación
  3. La unificación en el big bang
  4. Falso vacío
  5. El problema del monopolo
  6. El problema del universo plano
  7. El problema del horizonte
  8. La reacción a la inflación
  9. La inflación caótica y los universos paralelos
  10. El universo de la nada
  11. ¿Cómo podrían ser los otros universos?
  12. La ruptura de la simetría
  13. La simetría y el modelo estándar
  14. Predicciones comprobables
  15. Supernovas: el retorno de Lambda
  16. Fases del universo
  17. El futuro
En la novela clásica de ciencia ficción Tau cero, escrita por Poul Anderson, una nave espacial bautizada como Leonora Christine parte de la Tierra en una misión a las estrellas cercanas. Con una tripulación de cincuenta personas, la nave puede alcanzar velocidades próximas a la de la luz cuando viaja hacia un nuevo sistema estelar. Lo más importante es que la nave utiliza un principio de relatividad especial, que dice que el tiempo aminora su marcha dentro de la nave cuanto más rápido se mueve. Así, un viaje a las estrellas cercanas, que desde el punto de vista de la Tierra puede durar décadas, a los astronautas les parece que dura sólo unos años. Para un observador que desde la Tierra mira a los astronautas por el telescopio, parecería como si estuvieran congelados en el tiempo, como si se encontrasen en una especie de animación suspendida. Pero, para los astronautas a bordo, el tiempo progresa con normalidad. Cuando la nave especial desacelere y los astronautas desembarquen en un nuevo mundo, descubrirán que han viajado treinta años luz en sólo unos años.
La nave es una maravilla de la ingeniería; está propulsada por motores de fusión estatorreactores que recolectan hidrógeno del espacio profundo y después lo queman para conseguir una energía ilimitada. Viaja tan deprisa que la tripulación puede ver incluso el desplazamiento Doppler de la luz de las estrellas: las estrellas que tienen delante aparecen azuladas, mientras que las estrellas de detrás aparecen rojizas.
Súbitamente les golpea el desastre. A unos diez años luz de la Tierra, la nave experimenta una turbulencia cuando atraviesa una nube de polvo interestelar y su mecanismo de desaceleración queda incapacitado. La tripulación, horrorizada, se encuentra atrapada en una nave espacial que huye, acelerando cada vez más a medida que se acerca a la velocidad de la luz. Observan impotentes cómo la nave, fuera de control, recorre sistemas estelares enteros en unos minutos. En un año, la nave espacial atraviesa la mitad de la galaxia de la Vía Láctea. Mientras acelera sin control, recorre las galaxias en unos cuantos meses, aunque en la Tierra han pasado millones de años. Pronto viajan a una velocidad tan cercana a la de la luz, tau cero, que son testigos de acontecimientos cósmicos, mientras el propio universo empieza a envejecer ante sus ojos.
Finalmente ven que la expansión original se invierte y que el universo se contrae en sí mismo. La temperatura empieza a subir de manera espectacular y se dan cuenta de que se dirigen a la gran implosión. Los miembros de la tripulación rezan sus oraciones en silencio mientras la temperatura se dispara, las galaxias empiezan a fusionarse y se forma un átomo primordial cósmico delante de ellos. La muerte por incineración parece inevitable.
Su única esperanza consiste en que la materia se colapse en un área finita de densidad finita y que, viajando a su gran velocidad, puedan atravesarla rápidamente. Milagrosamente, su blindaje los protege cuando atraviesan el átomo primordial y son testigos de la creación de un nuevo universo. A medida que el universo se expande de nuevo, presencian sobrecogidos la creación de nuevas estrellas y galaxias ante sus ojos. Consiguen reparar su nave espacial y cuidadosamente trazan su curso en busca de una galaxia lo bastante vieja como para contener los elementos superiores que harán posible la vida. Finalmente, localizan un planeta que puede albergar vida y crean una colonia en él para empezar de nuevo la humanidad.
Esta novela fue escrita en 1967, cuando se producía un vigoroso debate entre los astrónomos respecto al destino final del universo: si moriría en una gran implosión o en una gran congelación, si oscilaría indefinidamente o viviría para siempre en un estado constante. Desde entonces, el debate parece haberse resuelto y ha aparecido una nueva teoría llamada «inflación».

1. El nacimiento de la inflación
«ESPECTACULAR CONSTATACIÓN», escribió Alan Guth en su diario en 1979. Se sentía jubiloso porque sabía que podía haber tropezado con una de las grandes ideas de la cosmología. Guth había realizado la primera revisión importante de la teoría del big bang en cincuenta años con una observación fundamental: podría resolver algunos de los enigmas más profundos de la cosmología si presuponía que el universo había sufrido una hiperinflación acelerada en el instante de su nacimiento, astronómicamente más rápida de lo que creían la mayoría de los físicos.
Vio que, con esta hiperexpansión, podía resolver sin esfuerzo una serie de profundas cuestiones cosmológicas incomprensibles. Era una idea que revolucionaría la cosmología. (Los datos cosmológicos recientes, incluyendo los resultados del satélite WMAP, coinciden con sus predicciones). No es la única teoría cosmológica, pero es sin lugar a dudas la más sencilla y creíble.
Es notable que una idea tan sencilla pudiera resolver cuestiones cosmológicas tan espinosas. Uno de los problemas que la inflación resolvía con elegancia era el problema del universo plano. Los datos astronómicos han demostrado que la curvatura del universo es notablemente cercana a cero, en realidad mucho más cercana a cero de lo que habían creído anteriormente la mayoría de los astrónomos. Esto podía explicarse si el universo, como un globo que rápidamente se va inflando, quedara aplanado durante el periodo de inflación. Nosotros, como las hormigas que andan por la superficie de un globo, simplemente somos demasiado pequeños para observar la diminuta curvatura del globo. La inflación ha estirado tanto el espacio-tiempo que parece plano.
Lo que también era histórico del descubrimiento de Guth era que representaba la aplicación de la física de partículas elementales, que estudia las partículas más diminutas encontradas en la naturaleza, al estudio del universo en su totalidad incluyendo su origen. Ahora sabemos que los misterios más profundos del universo no podían resolverse sin la física de lo extremadamente pequeño: el mundo de la teoría cuántica y la física de las partículas elementales.

2. La búsqueda de la unificación
Guth nació en 1947 en New Brunswick, Nueva Jersey. A diferencia de Einstein, Gamow o Hoyle, no hubo un instrumento o un momento crucial que lo impulsara al mundo de la física. Ni su padre ni su madre eran universitarios ni mostraban demasiado interés por la ciencia, pero, según admitía él mismo, siempre sintió fascinación por la relación entre las matemáticas y las leyes de la naturaleza.
Cuando estaba en el MIT, en la década de 1960, pensó seriamente en dedicarse a la física de las partículas elementales. En concreto, le fascinaba el entusiasmo generado por una nueva revolución que se produjo en el mundo de la física: la búsqueda de la unificación de todas las fuerzas fundamentales. Durante mucho tiempo, el santo grial de la física ha sido la búsqueda de temas unificadores que puedan explicar las complejidades del universo de la manera más sencilla y coherente. Desde el tiempo de los griegos, los científicos han pensado que el universo que vemos actualmente representa los restos fragmentados y pulverizados de una mayor simplicidad y que nuestro objetivo es revelar esta unificación.
Después de dos mil años de investigación de la naturaleza de la materia y la energía, los físicos han determinado que sólo cuatro fuerzas fundamentales impulsan el universo. (Los científicos han intentado buscar una quinta fuerza posible, pero hasta ahora los resultados en esta dirección han sido negativos o poco concluyentes).
La primera fuerza es la gravedad, que mantiene unido al Sol y guía a los planetas en sus órbitas celestes en el sistema solar. Si, de pronto, la gravedad se «apagara», las estrellas de los cielos estallarían, la Tierra se desintegraría y nosotros seríamos lanzados al espacio exterior a más de mil kilómetros por hora.
La segunda gran fuerza es el electromagnetismo, la fuerza que ilumina nuestras ciudades, llena nuestro mundo de televisores, teléfonos móviles, radios, rayos láser e Internet. Si la fuerza electromagnética se desconectara de pronto, la civilización retrocedería un siglo o dos hacia la oscuridad y el silencio. Esto quedó ilustrado de manera gráfica en el gran apagón de 2003, que paralizó el nordeste de Estados Unidos. Si examinamos microscópicamente la fuerza electromagnética, vemos que en realidad está constituida por partículas diminutas, o cuantos, llamadas «fotones».
La tercera fuerza es la interacción nuclear débil, que es responsable de la desintegración radiactiva. Cuando la interacción débil no es lo bastante fuerte para mantener unido el núcleo del átomo, permite que el núcleo se rompa, o se desintegre lentamente. La medicina nuclear de los hospitales se basa fundamentalmente en la interacción nuclear débil. Esta interacción también ayuda a calentar el centro de la Tierra a través de materiales radiactivos que impulsan la enorme potencia de los volcanes. La interacción débil, a su vez, se basa en las interacciones de electrones y neutrinos (partículas fantasmagóricas que están casi desprovistas de masa y pueden pasar a través de billones de kilómetros de plomo sólido Sin interactuar con nada). Estos electrones y neutrinos interaccionan intercambiando otras partículas, llamadas «bosones W y Z».
La interacción nuclear fuerte mantiene los núcleos de los átomos unidos. Sin la interacción nuclear, los núcleos se desintegrarían, los átomos se dispersarían y la realidad tal como la conocemos se disolvería. La interacción nuclear fuerte es responsable de aproximadamente un centenar de los elementos que llenan el universo. Juntas, la interacción nuclear fuerte y la débil son responsables de la luz que emana de las estrellas a través de la ecuación de Einstein E = mc2. Sin la interacción nuclear, el universo entero se oscurecería, la temperatura de la Tierra se desplomaría y los océanos se helarían.
Una asombrosa característica de estas cuatro fuerzas es que son completamente diferentes la una de la otra, con formas de energía y propiedades diferentes. Por ejemplo, la gravedad es con diferencia la más débil de las cuatro fuerzas, 1016 veces más débil que la fuerza electromagnética. La Tierra pesa 6 billones de billones de kilogramos; sin embargo, su masa y su gravedad pueden ser anuladas fácilmente por la fuerza electromagnética. El peine que usamos, por ejemplo, puede atraer diminutas piezas de papel por electricidad estática, anulando de este modo la gravedad de toda la Tierra. Además, la gravedad es estrictamente atractiva. La fuerza electromagnética puede ser tanto atractiva como repulsiva, dependiendo de la carga de una partícula.

3. La unificación en el big bang
Una de las cuestiones fundamentales a la que tiene que hacer frente la física es: ¿por qué el universo tiene que ser gobernado por cuatro fuerzas distintas? ¿Y por qué estas cuatro fuerzas tienen que ser tan diferentes, con formas de energía, interacciones y características físicas diversas?
Einstein fue el primero en emprender una campaña para unificar estas fuerzas en una sola teoría global, empezando por unir la gravedad con la fuerza electromagnética. No lo consiguió porque se adelantó demasiado a su tiempo: se sabía muy poco sobre la interacción fuerte para hallar una teoría del campo unificado realista. Pero el trabajo pionero de Einstein abrió los ojos del mundo de la física a la posibilidad de una «teoría del todo».
El objetivo de una teoría de campo unificado parecía totalmente imposible en la década de 1950, sobre todo cuando la física de partículas elementales se encontraba sumergida en un verdadero caos, con los colisionadores de átomos fisionando átomos en busca de los «elementos constituyentes» de la materia sólo para acabar encontrando que de los experimentos salían cientos de partículas más. La «física de las partículas elementales» se convirtió en una contradicción de términos, un chiste cósmico. Los griegos pensaban que, al descomponer una sustancia en los bloques básicos que la constituían, las cosas se volvían más sencillas, pero ocurrió exactamente lo contrario: los físicos se esforzaban buscando suficientes letras en el alfabeto griego para poder etiquetar las partículas. J. Robert Oppenheimer bromeó que el premio Nobel de física debería concederse al físico que no descubriera ninguna partícula nueva aquel año. El Nobel Steven Weinberg empezó a preguntarse si la mente humana era capaz de resolver el secreto de la interacción nuclear.
Sin embargo, toda esta confusión se vio más o menos reducida a principios de la década de 1960, cuando Murray Gell-Mann y George Zweig, de Cal Tech, propusieron la idea de los quarks, los constituyentes que forman los protones y los neutrones. Según la teoría de los quarks, tres quarks forman un protón o un neutrón, y un quark y un antiquark forman un mesón (una partícula que mantiene unido el núcleo). Se trataba sólo de una solución parcial (ya que hoy estamos inundados de tipos diferentes de quarks), pero sirvió para inyectar nueva energía en un campo antes aletargado.
En 1967, los físicos Steven Weinberg y Abdus Salam hicieron un descubrimiento asombroso que demostró que era posible unificar la interacción débil y la electromagnética. Crearon una nueva teoría a partir de la cual los electrones y los neutrinos (que reciben el nombre conjunto de «leptones») interaccionaban unos con otros para intercambiar nuevas partículas llamadas «bosones W y Z» así como fotones. Tratando los bosones W y Z y los fotones del mismo modo, crearon una teoría que unificaba las dos fuerzas. En 1979, Steven Weinberg, Sheldon Glashow y Abdus Salam recibieron el premio Nobel por su trabajo colectivo al unificar dos de las cuatro fuerzas, la fuerza electromagnética con la interacción débil, y permitir la comprensión de la interacción nuclear fuerte.
En la década de 1970 los físicos analizaron los datos procedentes del acelerador de partículas del Centro Acelerador Lineal de Stanford (SLAC), que disparaba intensos rayos de electrones a un objetivo con el fin de introducir una sonda en el interior del protón. Encontraron que la interacción nuclear fuerte que mantenía unidos los quarks dentro del protón podía explicarse introduciendo unas partículas nuevas llamadas «gluones», que son los cuantos de la interacción nuclear fuerte. La fuerza vinculante que mantenía unido al protón podía explicarse mediante el intercambio de gluones entre los quarks constituyentes. Esto condujo a una nueva teoría de la interacción nuclear fuerte llamada «cromodinámica cuántica».
Así, a mediados de la década de 1970, era posible ensamblar tres de las cuatro fuerzas (excluyendo la gravedad) para conseguir lo que se llama el «modelo estándar», una teoría de quarks, electrones y neutrinos que interaccionan intercambiando gluones, bosones W y Z y fotones. Es la culminación de décadas de investigación dolorosamente lenta en la física de partículas. En el presente, el modelo estándar se ajusta a todos los datos experimentales relativos a la física de partículas, sin excepción.
Aunque el modelo estándar es una de las teorías de la física de mayor éxito de todos los tiempos, es notablemente feo. Es difícil creer que la naturaleza pueda funcionar a un nivel fundamental sobre una teoría que parece tan improvisada. Por ejemplo, hay diecinueve parámetros arbitrarios en la teoría que simplemente se han puesto a ojo, sin ton ni son (es decir, las distintas masas y fuerzas de interacción no están determinadas por la teoría, sino que tienen que estarlo por la experimentación; de manera ideal, en una verdadera teoría unificada, estas constantes serían determinadas por la propia teoría, sin confiar en experimentos externos).
Además, hay tres copias exactas de partículas elementales llamadas «generaciones». Es difícil de creer que la naturaleza, en su nivel más elemental, incluya tres copias exactas de partículas subatómicas. Excepto en las masas de estas partículas, estas generaciones son duplicados unas de otras. (Por ejemplo, las copias del electrón incluyen el muón, que pesa 200 veces más que el electrón, y la partícula tau, que pesa 3.500 veces más).

04-01.jpg
Estas partículas subatómicas son las que contiene el modelo estándar, la teoría de partículas elementales más convincente. Está construida con quarks, que forman protones y neutrones, leptones como el electrón y el neutrino, y muchas más partículas. Nótese que el modelo se traduce en tres copias idénticas de partículas subatómicas. Como el modelo estándar no consigue explicar la gravedad (y parece tan extraño), los físicos teóricos creen que no puede ser la teoría final. Este programa de unificación, a su vez, introdujo un nuevo paradigma en la cosmología. La idea era sencilla y elegante: en el instante del big bang, las cuatro fuerzas fundamentales fueron unificadas en una fuerza única coherente, una misteriosa «superfuerza». Las cuatro fuerzas eran una misma forma de energía y formaban parte de un todo coherente más grande. El universo empezó en un estado de perfección. Sin embargo, cuando empezó a expandirse y enfriarse rápidamente, la fuerza original empezó a «resquebrajarse» y las diferentes fuerzas se fueron separando una tras otra.

Y, finalmente, el modelo estándar no hace mención alguna de la gravedad, aunque la gravedad es quizá la forma de energía más dominante en el universo.
Como, a pesar de sus asombrosos éxitos experimentales, el modelo estándar parece tan limitado, los físicos intentaron desarrollar primero otra teoría, la Gran Teoría Unificada (GUT), que ponía en las mismas condiciones a quarks y leptones. También trataba el gluón, el bosón W y Z y el fotón al mismo nivel. (Sin embargo, no podía ser la «teoría final», porque la gravedad seguía quedando llamativamente fuera; se consideraba demasiado difícil de fundir con las otras fuerzas, como veremos).
Según esta teoría, el enfriamiento del universo después del big bang es análogo a la congelación del agua. Cuando el agua está en estado líquido, es bastante uniforme y suave. Sin embargo, cuando se congela, se forman en su interior millones de cristales diminutos. Cuando el agua líquida está totalmente congelada, su uniformidad original queda malparada y el hielo contiene grietas, burbujas y cristales.
Dicho de otro modo, hoy vemos que el universo está horriblemente fragmentado. No es uniforme ni simétrico en absoluto, sino que presenta cordilleras accidentadas, volcanes, huracanes, asteroides rocosos y estrellas que estallan, sin una unidad coherente; más aún, también vemos las cuatro fuerzas fundamentales sin relación entre ellas. Pero la razón por la que el universo está tan fragmentado es que es muy viejo y frío.
Aunque el universo empezó en un estado de unidad perfecta, hoy ha recorrido muchas transiciones de fase o cambios de estado y las fuerzas del universo han ido liberándose las unas de las otras a medida que se enfriaba. El trabajo de los físicos es volver atrás para reconstruir los pasos con los que empezó originariamente el universo (en un estado de perfección) y que llevaron al universo fragmentado que vemos a nuestro alrededor.
La clave, por tanto, es entender precisamente cómo ocurrieron al principio del universo estos cambios de estado que los físicos llaman «ruptura espontánea». Tanto si es la fusión del hielo, la ebullición del agua, la creación de nubes de lluvia o el enfriamiento del big bang, los cambios de estado pueden relacionar dos estados de materia totalmente diferentes. (Para ilustrar lo poderosos que pueden ser estos cambios de estado, el artista Bob Miller ha planteado el siguiente acertijo: « ¿Cómo suspendería 200 toneladas de agua en el aire sin medio de soporte visible? La respuesta es: construyendo una nube»). [51]

4. Falso vacío
Cuando una fuerza se desprende de las demás, el proceso puede compararse a la ruptura de un dique. Los ríos fluyen montaña abajo porque el agua fluye en la dirección de la menor energía, que es el nivel del mar. El menor estado de energía recibe el nombre de «vacío». Sin embargo, hay un estado poco habitual llamado «falso vacío». Si construimos una presa en un río, por ejemplo, el dique parece ser estable, pero en realidad está sometido a una presión tremenda. Si se produce una pequeña grieta en él, la presión puede romperlo súbitamente y liberar un torrente de energía del falso vacío (el río contenido) que causará una inundación catastrófica en la dirección del verdadero vacío (el nivel del mar). Pueblos enteros pueden quedar inundados si tenemos una ruptura espontánea de un dique y una transición súbita hacia el verdadero vacío.
De manera similar, en la teoría GUT, el universo originalmente empezó en el estado del falso vacío, con las tres fuerzas unificadas en una sola fuerza. Sin embargo, la teoría era inestable, se rompió espontáneamente e hizo la transición desde el falso vacío, donde las fuerzas estaban unificadas, hacia el verdadero vacío, donde las fuerzas están separadas.
Esto ya se conocía cuando Guth empezó a analizar la teoría GUT. Pero se dio cuenta de algo que los demás habían pasado por alto. En el estado del falso vacío, el universo se expande exponencialmente, tal como predijo De Sitter en 1917. Es la constante cosmológica, la energía del falso vacío, la que impulsa el universo a expandirse a un ritmo tan enorme. Guth formuló una pregunta definitiva: ¿puede esta expansión exponencial de De Sitter resolver algunos de los problemas de la cosmología?

5. El problema del monopolo
Una predicción de muchas teorías GUT era la producción de un gran número de monopolos al principio del tiempo. Un monopolo es un único polo magnético, norte o sur. En la naturaleza, estos polos se encuentran siempre a pares. Si tomamos un imán, invariablemente encontramos tanto un polo norte como un polo sur juntos. Si tomamos un martillo y rompemos el imán en dos, no encontraremos dos monopolos, sino dos pequeños imanes, cada uno con su par de polos norte y sur.
Sin embargo, el problema era que los científicos, después de siglos de experimentos, no habían encontrado una prueba concluyente de la existencia de los monopolos. Como nadie había visto nunca un monopolo, Guth no entendía por qué las teorías GUT predecían tantos. «Como el unicornio, el monopolo ha seguido fascinando a la mente humana a pesar de la ausencia de observaciones confirmadas», [52] señaló Guth.
Y de pronto lo captó. En un instante, todas las piezas encajaron. Se dio cuenta de que si el universo empezó en un estado de falso vacío, podía expandirse exponencialmente, como había propuesto De Sitter hacía décadas. En el estado de falso vacío, el universo podía inflarse súbitamente de manera increíble, diluyendo de este modo la densidad de los monopolos. Si los científicos no habían visto nunca antes un monopolo, era sólo porque estaban dispersos sobre un universo que era mucho más grande de lo que se había pensado anteriormente.
Para Guth, esta revelación fue una fuente de asombro y alegría. Una observación sencilla como ésta podía explicar el problema del monopolo de un solo golpe. Pero pronto se dio cuenta de que esta predicción tendría implicaciones cosmológicas mucho más allá de la idea original.

6. El problema del universo plano
Guth se dio cuenta de que su teoría resolvía otro problema, el del universo plano discutido anteriormente. La imagen clásica del big bang no podía explicar por qué el universo era tan plano. En los años sesenta se creía que la densidad de la materia en el universo, llamada Omega, era aproximadamente de 0,1. El hecho de que fuera relativamente cercana a la densidad crítica de 1,0 tantos miles de millones de años después del big bang era profundamente perturbador. A medida que el universo se expandía, Omega debería haber cambiado con el tiempo. Este número era incómodamente cercano al valor de 1,0, que describe un espacio perfectamente plano.
Para cualquier valor razonable de Omega al principio del tiempo, las ecuaciones de Einstein demuestran que debería ser casi cero. Para que Omega estuviera tan cerca de 1 tantos miles de millones de años después del big bang hacía falta un milagro. Es lo que en cosmología se denomina «problema del ajuste preciso». Dios, o algún creador, tenía que «elegir» el valor de Omega con una exactitud fantástica para que Omega fuera 0,1 actualmente. Que hoy Omega esté entre 0,1 y 10, significa que, un segundo después del big bang, tenía que ser 1,00000000000000. Es decir, al principio del tiempo el valor de Omega tuvo que ser «elegido» igual al número uno con una precisión de 1 entre cien billones, lo que es difícil de comprender.
Imaginemos que intentamos equilibrar un lápiz verticalmente sobre la punta. Por mucho que lo intentemos, suele caerse. En realidad, requiere un ajuste de gran precisión equilibrar el lápiz para que no caiga. Pues bien, ahora intentemos equilibrar el lápiz sobre su punta de modo que se mantenga vertical no sólo un segundo, ¡sino varios años! Se ve la cantidad de ajuste preciso que implica que hoy Omega sea 0,1. El más ligero error en el ajuste preciso de Omega hubiera creado un Omega muy diferente de 1. Así pues, ¿por qué Omega está hoy tan cerca de 1 si lo normal sería que fuera astronómicamente diferente?
Para Guth, la respuesta era obvia. El universo simplemente se infló de tal modo que se volvió plano. Como una persona que llega a la conclusión de que la Tierra es plana porque no puede ver el horizonte, los astrónomos llegaron a la conclusión de que Omega tiene un valor alrededor de 1 porque la inflación aplanó el universo.

7. El problema del horizonte
La inflación no sólo explicó los datos que sostienen que el universo es plano, sino que también resolvió el problema del horizonte. Este problema se basa en la simple constatación de que el cielo nocturno parece ser relativamente uniforme, se mire donde se mire. Si volvemos la cabeza 180°, observaremos que el universo es uniforme, aunque acabamos de ver partes del universo separadas por decenas de miles de millones de años luz. Los potentes telescopios que exploran el firmamento tampoco pueden encontrar una desviación apreciable de la uniformidad. Nuestros satélites espaciales han demostrado que la radiación de microondas cósmica también es extremadamente uniforme. Miremos donde miremos en el espacio, la temperatura de la radiación de fondo no se desvía más allá de una milésima de grado.
Pero esto es un problema, porque la velocidad de la luz es el límite de velocidad máxima del universo. No hay manera, en la vida del universo, de que la luz o la información hayan podido viajar de un extremo del firmamento al otro. Por ejemplo, si miramos la radiación de microondas en una dirección, ha viajado más de 13 mil millones de años desde el big bang. Si volvemos la cabeza y miramos en dirección opuesta, vemos una radiación de microondas idéntica que también ha viajado más de 13 mil millones de años. Como están a la misma temperatura, deben de haber estado en contacto térmico al principio del tiempo. Pero es imposible que la información haya podido viajar desde extremos opuestos en el cielo nocturno (separados por más de 26 mil millones de años luz) desde el big bang.
La situación es aún peor si miramos el cielo 380.000 años después del big bang, cuando se formó por primera vez la radiación de fondo. Si miramos puntos opuestos del cielo, vemos que la radiación de fondo es prácticamente uniforme. Pero según los cálculos de la teoría del big bang, estos puntos opuestos están separados por 90 millones de años luz (por la expansión del espacio desde la explosión). No hay manera de que la luz haya podido viajar a 90 millones de años luz en sólo 380.000 años. La información habría tenido que viajar mucho más rápido que la velocidad de la luz, lo cual es imposible.
En realidad, el universo debería aparecer bastante desigual, con una parte demasiado distante para haber establecido contacto con otra parte distante. ¿Cómo puede el universo aparecer tan uniforme, cuando la luz simplemente no tiene tiempo suficiente para formarse y llevar información de una parte distante del universo a la otra? (El físico de Princeton Robert Dicke lo llamó «problema del horizonte», porque el horizonte es el punto más distante que puede verse, el punto más lejano al que puede viajar la luz).
Pero Guth se dio cuenta de que también la inflación era la clave para explicar el problema. Razonó que nuestro universo visible era probablemente un pequeño fragmento de la bola de fuego original. El fragmento en sí era uniforme en densidad y temperatura. Pero la inflación expandió súbitamente este diminuto fragmento de materia uniforme por un factor de 1010, más rápido que la velocidad de la luz, de modo que el universo visible es hoy notablemente uniforme. Así, la razón por la que el cielo nocturno y la radiación de microondas son tan uniformes es que anteriormente el universo visible era un fragmento diminuto pero uniforme de la bola de fuego original que, de pronto, se infló para convertirse en el universo.

8. La reacción a la inflación
Aunque Guth confiaba en que la idea inflacionaria era correcta, se puso un poco nervioso cuando empezó a dar charlas públicamente. Tras presentar su teoría en 1980, confesó: «Todavía me preocupaba que alguna consecuencia de la teoría pudiera ser espectacularmente errónea. También temía que revelase mi condición de cosmólogo novato». [53]Pero su teoría era tan elegante y poderosa que los físicos de todo el mundo captaron inmediatamente su importancia. El premio Nobel Murray Gell-Mann exclamó: « ¡Ha resuelto el problema más importante de la cosmología!». El Nobel Sheldon Glashow le confió que Steven Weinberg se había puesto «furioso» al oír hablar de la inflación. Ansioso, Guth le preguntó: « ¿Tiene alguna objeción?». [54] «No, sólo que no se le ocurrió a él», le contestó Glashow. ¿Cómo podían haber pasado por alto una solución tan sencilla?, se preguntaban los científicos. La recepción de la teoría de Guth fue entusiasta entre los físicos teóricos, que estaban sorprendidos de su alcance.
También tuvo impacto en las perspectivas de trabajo de Guth. Por culpa de la saturación del mercado de trabajo se hallaba en riesgo de desempleo. «Me encontraba en una situación marginal en el mercado de trabajo», [55] confesó. De pronto empezaron a lloverle ofertas de las mejores universidades aunque no de donde él quería, el MIT. Entonces le cayó casualmente en las manos una galleta de la suerte que decía: «Tienes delante una oportunidad interesante si no eres demasiado tímido». Eso le dio fuerzas para llamar directamente al MIT y pedir trabajo. Se quedó anonadado cuando al cabo de unos días le devolvieron la llamada para ofrecerle un puesto de profesor en el MIT. La siguiente galleta de la suerte rezaba: «No debe actuar siguiendo el impulso del momento». Ignorando este consejo, decidió aceptar el puesto del MIT. «Al fin y al cabo, ¿qué sabe una galleta china de la suerte?», se preguntó.
A pesar de todo, todavía quedaban problemas graves. Los astrónomos no estaban demasiado impresionados por la teoría de Guth, ya que era manifiestamente deficiente en un aspecto: daba una predicción errónea para Omega. El hecho de que Omega estuviera aproximadamente cerca de 1 podía explicarse por la inflación. Sin embargo, la inflación iba más allá y predecía que Omega (u Omega más Lambda) debía ser precisamente 1,0, correspondiente a un universo plano. En los años siguientes, a medida que se fueron reuniendo más datos experimentales que localizaban inmensas cantidades de materia oscura en el universo, Omega se movió ligeramente, subiendo a 0,3. Pero esto seguía siendo potencialmente fatal para la inflación. Aunque la inflación generase entre los físicos más de tres mil artículos en la siguiente década, seguía siendo una curiosidad para los astrónomos. Para ellos, los datos parecían descartar la inflación.
Algunos astrónomos se quejaban en privado de que la obsesión de los físicos de partículas por la inflación les llevaba a ignorar hechos experimentales. (El astrónomo Robert Kirshner, de Harvard, escribió: «Esta idea de la "inflación" suena a locura. El hecho de que se la tomen en serio personas que ocupan puestos bien remunerados no la hace correcta automáticamente». [56] Roger Penrose, de Oxford, consideraba que la inflación era «una moda que los físicos de alta energía han impuesto a los cosmólogos. […] Hasta los osos hormigueros creen que sus hijos son guapos»). [57]
Guth creía que tarde o temprano los datos demostrarían que el universo era plano. Pero le preocupaba que su imagen original tuviese un pequeño defecto crucial, uno que todavía no se ha comprendido del todo hoy en día. La inflación se adaptaba de manera ideal a la resolución de una serie de problemas cosmológicos profundos. El problema era que Guth no sabía cómo poner fin a la inflación.
Pensemos que calentamos una olla de agua hasta el punto de ebullición. Justo antes de que hierva, está momentáneamente en estado de alta energía. Quiere hervir, pero no puede porque necesita alguna impureza para empezar a burbujear. Pero, una vez empieza, entra rápidamente en un estado de baja energía de vacío verdadero y la olla se llena de burbujas. Finalmente, las burbujas se hacen tan grandes que se fusionan, hasta que la olla está uniformemente llena de vapor. Cuando todas las burbujas se fusionan, queda completado el cambio de estado de agua a vapor.
En la imagen original de Guth, cada burbuja representaba una pieza de nuestro universo que se estaba inflando a partir del vacío. Pero, cuando Guth hizo este cálculo, encontró que las burbujas no se fusionaban propiamente y dejaban el universo increíblemente grumoso. Dicho de otro modo, su teoría dejaba la olla llena de burbujas de vapor que nunca se fusionaban del todo para convertirse en una olla de vapor uniforme. La olla de agua hirviendo de Guth nunca parecía apaciguarse a la manera del universo de hoy.
En 1981, Andrei Linde, del Instituto P. N. Lebedev de Rusia, y Paul J. Steinhardt y Andreas Albrecht, de la Universidad de Pennsylvania, encontraron una manera de resolver el enigma al pensar que si una sola burbuja de falso vacío, se inflase lo suficiente, acabaría llenando toda la olla y crearía un universo uniforme. En otras palabras, todo nuestro mundo podría ser producto de una única burbuja que se infló hasta llenar el universo. No se necesitaba que un gran número de burbujas se fusionaran para crear una olla de vapor uniforme. Con una sola burbuja bastaría si se inflaba lo suficiente.
Pensemos otra vez en la analogía del dique y el falso vacío. Cuanto más grueso sea el dique, más tiempo tardará el agua en atravesarlo. Si el muro del dique es lo bastante grueso, la tunelización se retrasará durante un tiempo arbitrariamente largo. Si el universo puede inflarse por un factor de 10 10, una sola burbuja tiene tiempo suficiente para resolver el problema del horizonte, el universo plano y el monopolo. Dicho de otro modo, si la tunelización se retrasa lo bastante, el universo se infla durante el tiempo suficiente para aplanarse y diluir los monopolos. Pero eso todavía nos deja una pregunta: ¿qué mecanismos pueden prolongar de tal manera la inflación?
Finalmente, se dio en bautizar este peliagudo problema como «problema de la salida elegante», es decir, cómo inflar el universo el tiempo suficiente para que una sola burbuja pueda crearlo entero. A lo largo de los años, se han propuesto al menos cincuenta mecanismos diferentes para resolver el problema de la salida elegante. (Se trata de un problema engañosamente difícil. He intentado varias soluciones yo mismo. Era relativamente fácil generar una cantidad modesta de inflación en el universo primigenio, pero lo que es extremadamente difícil es hacer que el universo se expanda por un factor de 1010. Desde luego, uno podría limitarse a poner este factor de 1010 a ojo, pero no dejaría de ser artificial y limitado). En otras palabras, se creyó que el proceso de inflación había resuelto el problema del monopolo, el horizonte y el universo plano, pero no se sabía exactamente qué impulsaba la inflación y qué la detenía.

9. La inflación caótica y los universos paralelos
El físico Andrei Linde, por su parte, no se inmutó por el hecho de que nadie se pusiera de acuerdo en la solución del problema de la salida elegante. Linde confesó: «Yo tenía la impresión de que era imposible que Dios no usara una posibilidad tan buena para simplificar su trabajo». [58]
Finalmente, Linde propuso una nueva versión de la inflación que parecía eliminar algunos de los defectos de las versiones anteriores. Preveía un universo en el que, en puntos aleatorios del espacio y el tiempo, se produce una ruptura espontánea. En cada punto donde se produce la ruptura, se crea un universo que se infla un poco. La mayor parte del tiempo, la cantidad de inflación es menor. Pero como este proceso es aleatorio, finalmente aparecerá una burbuja donde la inflación dure lo suficiente para crear nuestro universo. Llevado a su conclusión lógica, eso significa que la inflación es continua y eterna, que ocurren big bangs todo el tiempo, y que brotan universos de otros universos. En esta imagen, los universos pueden «echar brotes», que son otros universos, y crear así un multiverso.
En esta teoría, la ruptura espontánea puede ocurrir en cualquier sitio dentro de nuestro universo y hacer que brote de él un universo entero. También significa que nuestro propio universo podría haber brotado de un universo anterior. En el modelo inflacionario caótico, el multiverso es eterno, aunque los universos individuales no lo sean. Algunos universos pueden tener un Omega muy grande, en cuyo caso se desvanecen inmediatamente en una gran implosión después de su big bang. Algunos universos sólo tienen un Omega diminuto y se expanden siempre. Finalmente, el multiverso queda dominado por aquellos universos que se inflan enormemente.
Retrospectivamente, se nos impone la idea de los universos paralelos. La inflación representa la fusión de la cosmología tradicional con los avances de la física de partículas. Al ser una teoría cuántica, la física de partículas establece que hay una probabilidad finita de que ocurran acontecimientos improbables, como la creación de universos paralelos. Así, en cuanto admitimos la posibilidad de que sea creado un universo, abrimos la puerta a la probabilidad de que se cree un número interminable de universos paralelos. Pensemos, por ejemplo, en cómo se describe el electrón en la teoría cuántica. A causa de la incertidumbre, el electrón no existe en ningún punto único, sino en todos los puntos posibles alrededor del núcleo. Esta «nube» de electrones que rodea el núcleo representa al electrón en muchos sitios al mismo tiempo. Esta es la base fundamental de toda la química que permite a los electrones unir moléculas. La razón por la que nuestras moléculas no se disuelven es que los electrones paralelos bailan alrededor de ellas y las mantienen unidas. Del mismo modo, el universo fue en otros tiempos más pequeño que un electrón. Cuando aplicamos la teoría cuántica al universo, nos vemos obligados a admitir la posibilidad de que el universo exista simultáneamente en muchos estados. Dicho de otro modo, en cuanto abrimos la puerta a la aplicación de fluctuaciones cuánticas al universo, estamos casi obligados a admitir la posibilidad de universos paralelos. No parece que tengamos muchas opciones.

10. El universo de la nada
Al principio, uno podía poner objeciones a la idea de un multiverso, porque parece violar las leyes conocidas, como la conservación de la materia y la energía. Sin embargo, el contenido total de materia/energía de un universo puede ser realmente muy pequeño. El contenido de materia del universo, incluyendo todas las estrellas, planetas y galaxias, es inmenso y positivo. Sin embargo, la energía almacenada dentro de la gravedad puede ser negativa. Si se añade la energía positiva debida a la materia a la energía negativa debida a la gravedad, ¡la suma puede acercarse a cero! En cierto sentido, los universos así son libres. Pueden salir del vacío casi sin esfuerzo. (Si el universo está cerrado, el contenido de energía total del universo debe de ser precisamente cero).
(Para entender esto, pensemos en un asno que cae en un gran hoyo. Tenemos que añadirle energía al asno para tirar de él y sacarlo del hoyo. Una vez fuera y de pie en el suelo, se considera que tiene energía cero. Así pues, como tuvimos que añadir energía al asno para ponerlo en un estado de energía cero, en el hoyo debía de tener energía negativa. De manera similar, se necesita energía para extraer a un planeta del sistema solar. En cuanto está en el espacio libre, el planeta tiene energía cero. Como tenemos que añadir energía para extraerlo del sistema solar y que alcance un estado de energía cero, el planeta tiene energía gravitatoria negativa mientras está dentro del sistema solar).
En realidad, para crear un universo como el nuestro puede necesitarse una cantidad neta absurdamente pequeña de materia, quizá baste con 30 gramos. Como le gusta decir a Guth, «el universo podría ser un regalo». Esta idea de crear un universo de la nada fue presentada por primera vez por el físico Edward Tryon, del Hunter College de la City University de Nueva York, en un trabajo publicado por la revista Nature en 1973. Especulaba con que el universo fuese algo «que ocurre de vez en cuando» debido a una fluctuación en el vacío. (Aunque la cantidad neta de materia necesaria para crear un universo puede ser cercana a cero, esta materia ha de estar comprimida a unas densidades increíbles, como veremos en el capítulo 12).
Como en las mitologías de P'an Ku, se trata de un ejemplo cosmológico de creatio ex nihilo. Aunque la teoría del universo a partir de la nada no puede demostrarse con medios convencionales, ayuda a responder a preguntas muy prácticas. Por ejemplo, ¿por qué no gira el universo? Todo lo que vemos a nuestro alrededor gira, desde los huracanes, los planetas y las galaxias a los quásares. Parece ser una característica universal de la materia en el universo. Pero el universo en sí no tiene spin. Cuando miramos a las galaxias en el firmamento, su spin total se compensa a cero. (Esto es una suerte, porque, como veremos en el capítulo 5, si el universo girara, el viaje en el tiempo sería algo normal y haría imposible escribir la historia). La razón por la que el universo no gira puede ser el hecho de que nuestro universo saliera de la nada. Como el vacío no gira, no esperamos ver que se eleve ningún spin neto en nuestro universo. En realidad, todos los universos de burbujas dentro del multiverso pueden tener un spin neto igual a cero.
¿Por qué las cargas eléctricas positivas y negativas se equilibran exactamente? Normalmente, cuando pensamos en las fuerzas cósmicas que gobiernan el universo, pensamos más en la gravedad que en la fuerza electromagnética, aunque la fuerza gravitatoria sea infinitesimalmente pequeña comparada con la electromagnética. La razón de esto es el equilibrio perfecto entre las cargas positivas y negativas. Como resultado, la carga neta del universo parece ser cero, y la gravedad domina el universo, no la fuerza electromagnética.
Aunque lo demos por sabido, la cancelación de las cargas positiva y negativa es bastante extraordinaria y ha sido comprobada experimentalmente con una precisión de 1 partido por 1021. [59] (Desde luego, hay desequilibrios locales entre las cargas, y por eso tenemos relámpagos. Pero el número total de cargas, incluso en las tormentas, suma cero). Si hubiera sólo una diferencia de 0,00001% en las cargas eléctricas positivas y negativas dentro de nuestro cuerpo, nos romperíamos en pedazos al instante y los fragmentos de nuestro cuerpo saldrían despedidos hacia el espacio exterior por la fuerza eléctrica.
La respuesta a estos enigmas duraderos puede ser que el universo surgió de la nada. Como el vacío tiene un spin cero y una carga de valor cero, cualquier universo recién nacido que surja de la nada debe de tener también un spin y una carga cero.
Hay una excepción aparente a esta norma, [60] y es que el universo está constituido por materia más que por antimateria. Como la materia y la antimateria son opuestas (la antimateria tiene exactamente la carga inversa a la materia), podemos presumir que el big bang debió de crear una cantidad igual de materia y antimateria. El problema, sin embargo, es que la materia y la antimateria se aniquilarían una a la otra al establecer contacto, en una explosión de rayos gamma. Así, no deberíamos existir. El universo debería ser una colección aleatoria de rayos gamma en lugar de estar repleto de materia ordinaria. Si el big bang fuera perfectamente simétrico (o surgiera de la nada), deberíamos esperar que se formaran cantidades iguales de materia y de antimateria. Así pues, ¿por qué existimos? La solución propuesta por el físico ruso Andrei Sakharov es que el big bang original no era perfectamente simétrico. Había una pequeña cantidad de ruptura de la simetría entre materia y antimateria en el instante de la creación, de modo que la materia dominaba sobre la antimateria, lo que hacía posible el universo que vemos a nuestro alrededor. (La simetría que se rompió en el big bang se llama «simetría CP», la simetría que invierte las cargas y la paridad de las partículas de materia y antimateria). Si el universo surgió de la «nada», entonces quizá no estaba perfectamente vacío, sino que tenía una ligera cantidad de ruptura de simetría, que es lo que permite el ligero dominio de la materia sobre la antimateria hoy en día. El origen de esta ruptura de la simetría todavía no se comprende.

11. ¿Cómo podrían ser los otros universos?
La idea del multiverso es atractiva porque todo lo que tenemos que hacer es partir de la base de que la ruptura espontánea ocurre aleatoriamente. No hay que hacer más presunciones. Cada vez que de un universo surge otro universo, las constantes físicas difieren del original, creando nuevas leyes de la física. Si es así, puede surgir una realidad totalmente nueva dentro de cada universo. Pero esto plantea una pregunta inquietante: ¿qué aspecto tienen estos otros universos? La clave para entender la física de los universos paralelos es entender cómo fueron creados, entender exactamente cómo se produce la ruptura espontánea.
Cuando nace un universo y se produce una ruptura espontánea, también se rompe la simetría de la teoría original. Para un físico, belleza significa simetría y simplicidad. Si una teoría es bella, significa que tiene una simetría poderosa que puede explicar una gran cantidad de datos de la manera más compacta y económica. Con mayor precisión, una ecuación se considera bella si sigue siendo la misma cuando intercambiamos sus componentes entre sí. Una gran ventaja para encontrar las simetrías ocultas de la naturaleza es que podemos demostrar que fenómenos que son aparentemente distintos son en realidad manifestaciones de lo mismo vinculadas por una simetría. Por ejemplo, podemos demostrar que la electricidad y el magnetismo son realmente dos aspectos del mismo objeto, porque hay una simetría que puede intercambiarlos dentro de las ecuaciones de Maxwell. De manera similar, Einstein demostró que la relatividad puede convertir el espacio en tiempo y viceversa, porque son parte del mismo objeto, la tela del espacio-tiempo.
Pensemos en un cristal de nieve, que tiene una bella simetría hexagonal, una fuente interminable de fascinación. La esencia de su belleza es que sigue siendo la misma si giramos el copo de nieve 60°. Eso también significa que cualquier ecuación que escribamos para describir el copo de nieve debería reflejar este hecho, que permanecerá invariable con rotaciones múltiples de 60°. Matemáticamente, decimos que el copo de nieve tiene una simetría C6.
Así pues, las simetrías codifican la belleza oculta de la naturaleza. Pero, en realidad, hoy en día estas simetrías están horriblemente rotas. Las cuatro grandes fuerzas del universo no se parecen una a otra en absoluto. De hecho, el universo está lleno de irregularidades y defectos; a nuestro alrededor hay fragmentos y restos de la simetría original destruida por el big bang. Así, la clave para entender los posibles universos paralelos es entender la «ruptura de la simetría», es decir, cómo estas simetrías podrían haberse roto después del big bang. Como dijo el físico David Gross: «El secreto de la naturaleza es la simetría, pero gran parte de la textura del mundo se debe al mecanismo de la ruptura de la simetría». [61]
Pensemos en cómo se rompe un bello espejo en mil añicos. El espejo original poseía una gran simetría. Podemos hacer rotar un espejo en cualquier ángulo y sigue reflejando luz de la misma manera. Pero después de hacerse añicos, se rompe la simetría original. Determinar con exactitud cómo se rompe la simetría determina cómo se hace añicos el espejo.

12. La ruptura de la simetría
Para verlo, pensemos en el desarrollo de un embrión. En sus primeras fases, unos días después de la concepción, un embrión consiste en una esfera perfecta de células. Cada célula no es diferente de las otras. Parecen la misma célula independientemente de cómo hacemos rotar la esfera. Los físicos dicen que el embrión en esta fase tiene una simetría de O (3), es decir, sigue siendo el mismo independientemente de cómo lo giremos sobre cualquier eje.
Aunque el embrión es bello y elegante, también es bastante inútil. Como es una esfera perfecta, no puede llevar a cabo funciones útiles o interaccionar con el entorno. Sin embargo, con el tiempo, el embrión rompe esta simetría desarrollando una cabeza y un torso diminutos.
Aunque la simetría esférica original se haya roto, el embrión sigue teniendo una simetría residual; sigue siendo el mismo si lo hacemos girar sobre su eje. Así pues, tiene simetría cilíndrica. Matemáticamente, decimos que el original O (3) de la esfera se ha descompuesto en la simetría O (2) del cilindro.
Sin embargo, la ruptura de la simetría O (3) podría haberse producido de una manera diferente. La estrella de mar, por ejemplo, no tiene simetría cilíndrica ni bilateral; en lugar de eso, cuando se rompe la simetría esférica, adopta una simetría C5 (que se conserva si la sometemos a rotaciones de 72°), que le da la forma de estrella de cinco puntas. Así, la manera en que la simetría O (3) se rompe determina la forma del organismo cuando nace.
De manera similar, los científicos creen que el universo empezó en un estado de simetría perfecta, con todas las fuerzas unificadas en una fuerza única. El universo es bello, simétrico, pero bastante inútil. La vida tal como la conocemos no existe en su estado perfecto. A fin de que exista la posibilidad de vida, la simetría del universo tuvo que romperse al enfriarse.

13. La simetría y el modelo estándar
Del mismo modo, para entender qué aspecto podrían tener los universos paralelos, tenemos que entender las simetrías de las interacciones fuertes, débiles y electromagnéticas. La interacción fuerte, por ejemplo, se basa en tres quarks, que los científicos bautizan dándoles un «color» ficticio (por ejemplo, rojo, blanco y azul). Queremos que las ecuaciones sigan siendo las mismas si intercambiamos estos tres quarks de color. Decimos que las ecuaciones tienen una simetría SU (3), es decir, cuando se redistribuyen los tres quarks, las ecuaciones siguen siendo las mismas. Los científicos creen que una teoría con simetría SU (3) da la descripción más precisa de las interacciones fuertes (la cromodinámica cuántica). Si tuviéramos un superordenador gigante, empezando sólo con las masas de los quarks y la fuerza de sus interacciones, en teoría podríamos calcular todas las propiedades del protón y el neutrón y todas las características de la física nuclear. De manera similar, digamos que tenemos dos leptones, el electrón y el neutrino. Si los intercambiamos en una ecuación, tenemos una simetría SU (2). También podemos introducir luz, que tiene el grupo de simetría U (1). (Este grupo de simetría intercambia los distintos componentes o polarizaciones de luz entre sí). Así, el grupo de simetría de las interacciones débil y electromagnética es SU (2) × U (1).
Si unimos estas tres teorías, no es sorprendente que tengamos la simetría SU (3) × SU (2) × U (1), es decir, la simetría que separadamente mezcla tres quarks entre ellos y dos leptones entre sí (pero no mezcla quarks con leptones). La teoría resultante es el modelo estándar, que, como hemos visto con anterioridad, es quizás uno de los de más éxito de todos los tiempos. Como dice Gordon Kane, de la Universidad de Michigan: «Todo lo que pasa en nuestro mundo (excepto los efectos de la gravedad) resulta de las interacciones de partículas del modelo estándar». [62] Algunas de sus predicciones, según se ha comprobado en el laboratorio, alcanzan la precisión de una parte en 100 millones, o una cienmillonésima. (De hecho se han concedido veinte premios Nobel a los físicos que han reunido las partes del modelo estándar).
Finalmente, uno podría construir una teoría que combinara la interacción fuerte, débil y electromagnética en una sola simetría. La teoría GUT más sencilla que puede hacerlo intercambia las cinco partículas (tres quarks y dos leptones) entre sí simultáneamente. A diferencia de la simetría del modelo estándar, la simetría de la GUT puede mezclar quarks y leptones (lo que quiere decir que los protones pueden desintegrarse en electrones). Dicho de otro modo, las teorías GUT contienen simetría SU (5) (redistribución de las cinco partículas [tres quarks y dos leptones] entre sí). A lo largo de los años se han analizado muchos otros grupos de simetría, pero SU (5) seguramente es el grupo mínimo que encaja con los datos.
Cuando se produce la ruptura espontáneamente, la simetría original de la GUT puede romperse de varios modos. En un aspecto, la simetría GUT se rompe en SU (3) × SU (2) × U (1) precisamente con 19 parámetros libres que necesitamos para descubrir nuestro universo. Eso nos da el universo conocido. Sin embargo, en realidad la simetría de la GUT puede romperse de muchas maneras. Probablemente otros universos tendrían una simetría residual totalmente diferente. Como mínimo, estos universos paralelos podrían tener valores diferentes de estos 19 parámetros. Dicho de otro modo, las formas de energía de las distintas fuerzas serían diferentes en universos diferentes, llevando a cambios inmensos en la estructura del universo. Debilitando la potencia de la fuerza nuclear, por ejemplo, podría impedirse la formación de estrellas, lo que dejaría el universo en una oscuridad perpetua e imposibilitaría la vida. Si la interacción fuese demasiado potente, las estrellas podrían quemar su combustible nuclear tan rápido que la vida no tendría tiempo suficiente para formarse.
El grupo de simetría también puede cambiar, y crear todo un universo diferente de partículas. En algunos de estos universos, el protón podría no ser estable y se desintegraría rápidamente en antielectrones. Estos universos no pueden tener vida como la conocemos nosotros, sino que se desintegrarían rápidamente en una neblina sin vida de electrones y neutrinos. Otros universos podrían romper la simetría de la GUT de una manera distinta, por lo que habría más partículas estables, como los protones. En un universo así, podría existir una gran variedad de nuevos elementos químicos extraños. La vida en estos universos podría ser más compleja que la nuestra, con más elementos químicos a partir de los que crear productos químicos como el ADN.
También podemos romper la simetría original de la GUT de modo que tengamos más de una simetría U (1), con lo que habría más de una forma de luz. Este sería un universo muy extraño, en el que los seres podrían «ver» utilizando no sólo un tipo de fuerza sino varios. En un universo así, los ojos de cualquier ser vivo podrían tener una gran variedad de receptores para detectar vanas formas de radiación del tipo de la luz.
No es sorprendente que haya cientos o incluso un número infinito de maneras de romper estas simetrías. Cada una de estas soluciones, a su vez, podría corresponder a un universo totalmente separado.

14. Predicciones comprobables
Lamentablemente, la posibilidad de probar la teoría del multiverso, que implica universos múltiples con diferentes series de leyes físicas, es imposible en el presente. Uno tendría que viajar más rápido que la luz para alcanzar estos otros universos. Pero una ventaja de la teoría de la inflación es que hace predicciones comprobables sobre la naturaleza de nuestro universo.
Como la teoría inflacionaria es una teoría cuántica, se basa en el principio de incertidumbre de Heisenberg, la piedra angular de esta teoría. (El principio de incertidumbre establece que no pueden hacerse mediciones con exactitud infinita, como por ejemplo medir la velocidad y la posición de un electrón. Sea cual sea la sensibilidad de los instrumentos, siempre habrá incertidumbre en nuestras mediciones. Si sabemos la velocidad de un electrón, no podemos saber su localización precisa; si sabemos su localización, no podemos saber su velocidad).
Aplicado a la bola de fuego original que puso en marcha el big bang, significa que la explosión cósmica original quizá no fuera infinitamente «suave». (Si hubiera sido totalmente uniforme, sabríamos con exactitud las trayectorias de las partículas subatómicas que emanan del big bang, lo que viola el principio de incertidumbre). La teoría cuántica nos permite calcular la medida de estas ondas o fluctuaciones en la bola de fuego original. Si inflamos estas ondas cuánticas diminutas, podemos calcular el número mínimo de ondas que podríamos ver en el fondo de microondas 380.000 años después del big bang. (Y si expandiéramos estas ondas hasta el presente, deberíamos encontrar la distribución actual de grupos galácticos. Nuestra galaxia empezó en una de estas diminutas fluctuaciones).
Inicialmente, una mirada superficial a los datos del satélite COBE no encontró desviaciones ni fluctuaciones en el fondo de microondas, lo que causó cierta ansiedad entre los físicos, porque un fondo de microondas suave violaría no sólo la inflación, sino también toda la teoría cuántica, vulnerando el principio de incertidumbre. Sacudiría la física hasta su núcleo. Podría acabar con todos los fundamentos de la física cuántica del siglo XX.
Para alivio de los científicos, una observación minuciosamente detallada de los datos informáticamente potenciados del satélite COBE detectó una serie difuminada de ondas, variaciones de temperatura de 1 partido por 100.000: la mínima cantidad de desviación tolerada por la teoría cuántica. Estas ondas infinitesimales concordaban con la teoría inflacionaria. Guth confesó: «Estoy completamente apabullado por la radiación de fondo cósmico. La señal era tan débil que no fue detectada hasta 1965, Y ahora están midiendo las fluctuaciones de 1 partido por 100.000». [63]
Aunque las pruebas experimentales que se reunían favorecían lentamente la inflación, los científicos todavía tenían que resolver el fastidioso problema del valor de Omega: el hecho de que Omega fuera 0,3 en lugar de 1,0.

15. Supernovas: el retorno de Lambda
Mientras que la inflación resultaba concordar con los datos del COBE reunidos por los científicos, los astrónomos todavía se quejaban en los años noventa de que la inflación era una violación flagrante de los datos experimentales sobre Omega. La situación empezó a cambiar en 1998, como resultado de los datos procedentes de una dirección totalmente inesperada. Los astrónomos intentaron recalcular la tasa de expansión del universo en el pasado remoto. En lugar de analizar las variables Cefeidas, como hizo Hubble en los años veinte, empezaron a examinar las supernovas en galaxias remotas, a miles de millones de años luz en el pasado. En particular, examinaban las supernovas tipo Ia, con una aptitud ideal para ser utilizadas como candelas estándar.
Los astrónomos saben que las supernovas de este tipo tienen prácticamente el mismo brillo. (El brillo de las supernovas de tipo Ia se conoce tan bien que incluso pueden calibrarse las pequeñas desviaciones: cuanto más brillante es la supernova, más lentamente declina su brillo). Estas supernovas se producen cuando una estrella enana blanca de un sistema binario absorbe materia de su estrella compañera. Alimentándose de ésta, la masa de ambas enanas blancas crece gradualmente hasta alcanzar 1,4 masas solares, el máximo posible para una enana blanca. Cuando superan este límite, colapsan y explotan en una supernova de tipo Ia. Este punto crítico es el motivo por el que el brillo del tipo de supernovas Ia es tan uniforme: es el resultado natural de enanas blancas que alcanzan una masa exacta y después colapsan por gravedad. (Como demostró en 1935 Subrahmanyan Chandrasekhar, en una enana blanca la fuerza de la gravedad que aplasta a la estrella tiene el contrapeso de una fuerza repulsiva entre los electrones llamada «presión de degeneración de electrones». Si una enana blanca pesa más de 1,4 masas solares, la gravedad vence esta fuerza, la estrella es aplastada y se crea la supernova). [64]Como las supernovas distantes se crearon en el universo primigenio, analizándolas puede calcularse la tasa de expansión del universo hace miles de millones de años.
Dos grupos de investigación independientes (dirigidos por Saul Perlmutter, del Supernova Cosmology Project, y Brian P. Schmidt, del High-Z Supernova Search Team) esperaban descubrir que el universo, aunque todavía expandiéndose, iba reduciendo gradualmente su velocidad. Durante varias generaciones de astrónomos, esto era un artículo de fe que se enseñaba en todas las clases de cosmología: que la expansión original se iba desacelerando gradualmente.
Después de analizar unas doce supernovas cada uno, vieron que el universo primigenio no se expandía tan rápidamente como se pensó anteriormente (es decir, los desplazamientos al rojo de las supernovas y, por tanto, su velocidad eran menores que los que se suponía originalmente). Cuando compararon la tasa de expansión del universo primigenio con la de hoy, llegaron a la conclusión de que la tasa de expansión era relativamente mayor en la actualidad. Para su sorpresa, estos dos grupos llegaron a la asombrosa conclusión de que el universo se está acelerando.
Para mayor desconcierto, encontraron que era imposible hacer concordar los datos con cualquier valor de Omega. La única manera de hacer que los datos encajasen en la teoría fue reintroducir Lambda, la energía del vacío introducida por primera vez por Einstein. Además, descubrieron que Omega estaba aplastada por una Lambda inusualmente grande que hacía que el universo se acelerase en una expansión de tipo De Sitter. Los dos grupos llegaron independientemente a la asombrosa constatación, pero vacilaron a la hora de publicar sus descubrimientos por el fuerte prejuicio histórico de que el valor de Lambda era cero. Como ha dicho George Jacoby, del Kitt's Peak Observatory: «Lo de Lambda ha sido siempre un concepto asombroso, y a cualquier persona lo bastante atrevida para decir que no era cero se la tildaba de loca». [65]
Schmidt recuerda: «Yo seguía moviendo la cabeza, pero lo habíamos comprobado todo. […] Era muy reacio a decirlo a la gente, porque estaba seguro de que nos masacrarían». [66]Sin embargo, cuando ambos grupos publicaron sus resultados en 1998, fue difícil ignorar la inmensa montaña de datos que habían acumulado. Lambda, el «mayor error» de Einstein, que había quedado casi totalmente en el olvido en la cosmología moderna, escenificaba ahora una vuelta al ruedo notable después de noventa años de oscuridad.
Los físicos estaban anonadados. Edward Witten, del Instituto de Estudios Avanzados de Princeton, dijo que era «el descubrimiento experimental más extraño desde que estoy en el mundo de la física». [67] Cuando el valor de Omega, 0,3, se añadió al valor de Lambda, 0,7, la suma fue (dentro de un margen de error experimental aceptable) igual a 1,0, la predicción de la teoría inflacionaria. Como en un puzzle ante sus propios ojos, los cosmólogos vieron la pieza que faltaba en la inflación. Ésta había salido del mismo vacío.
Este resultado fue reconfirmado espectacularmente por el satélite WMAP, que demostró que la energía asociada a Lambda, o energía oscura, constituye el 73% de toda la materia y energía del universo, lo que la convierte en la pieza dominante del puzzle.

16. Fases del universo
Posiblemente, la mayor contribución del satélite WMAP es que infunde confianza a los científicos en el sentido de que se dirigen hacia un «modelo estándar» de cosmología. Aunque todavía existen grandes grietas, los astrofísicos empiezan a ver surgir de los datos el esquema de una teoría estándar. Según la imagen que se está reuniendo actualmente, la evolución del universo procedió en fases distintas a medida que se enfriaba. La transición entre estos estadios representa la ruptura de una simetría y la separación de una fuerza de la naturaleza. Éstas son las fases y los hitos tal como los conocemos actualmente:
  1. Antes de 10−43 segundos: la era de Planck
    Casi nada es seguro sobre la era de Planck. En la energía de Planck (1,22 × 1019 mil millones de electronvoltios), la fuerza gravitatoria era tan fuerte como las otras fuerzas cuánticas. Como consecuencia, las cuatro fuerzas del universo probablemente estaban unificadas en una única «superfuerza». Quizás el universo existía en una fase perfecta de «nada», o en el espacio superdimensional vacío. La misteriosa simetría que mezcla las cuatro fuerzas, dejando igual las ecuaciones, es muy probablemente la «supersimetría» (la comentaremos en el capítulo 7). Por razones desconocidas, esta misteriosa simetría que unificó las cuatro fuerzas se rompió, y se formó una pequeña burbuja, el embrión de nuestro universo, quizá como resultado de una fluctuación aleatoria, cuántica. Esta burbuja tenía la dimensión de la «longitud de Planck», que es de 10−33 centímetros.
  2. 10−43 segundos: la era GUT
    Se produjo la ruptura de simetría, creando una burbuja que se expandió rápidamente. Al inflarse la burbuja, las cuatro fuerzas fundamentales se separaron rápidamente una de la otra. La gravedad fue la primera fuerza que se separó de las otras tres, liberando una onda de choque por todo el universo. La simetría original de la superfuerza se descompuso en una simetría más pequeña, que quizá contenía la simetría SU (5) de GUT. Las restantes interacciones fuertes, débiles y electromagnéticas todavía estaban unificadas por esta simetría de GUT. El universo se infló por un factor enorme, quizá 1050, durante esta fase, por razones que no se comprenden, haciendo que el espacio se expandiera astronómicamente más rápido que la velocidad de la luz. La temperatura era de 1032 grados.
  3. 10−34 segundos: el final de la inflación
    La temperatura cayó a 1027 grados a medida que la interacción fuerte se separó de las otras dos fuerzas. (El grupo de simetría GUT se descompuso en SU (3) × SU (2) × U (1)). El periodo inflacionario terminó, permitiendo que el universo entrara en una expansión de Friedmann estándar. El universo consistía en una «sopa» de plasma caliente de quarks libres, gluones y leptones. Los quarks libres se condensaron en los protones y neutrones de hoy en día. Nuestro universo era bastante pequeño, tenía sólo las dimensiones del sistema solar presente. La materia y la antimateria se aniquilaron, pero el pequeño exceso de materia sobre la antimateria (uno partido por mil millones) dejó como remanente la materia que vemos hoy a nuestro alrededor. (Este es el nivel de energía que confiamos replicar en los próximos años mediante el acelerador de partículas del gran colisionador de hadrones).
  4. 3 minutos: la formación de núcleos
    Las temperaturas cayeron lo suficiente para que los núcleos se formasen sin ser desgarrados por el intenso calor. El hidrógeno se fusionó en helio (creando la ratio actual del 75% de hidrógeno y 25% de helio). Se formaron algunas trazas de litio, pero la fusión de elementos superiores se detuvo porque los núcleos con 5 partículas eran demasiado inestables. El universo era opaco y la luz era dispersada por los electrones libres. Esto marca el fin de la bola de fuego primigenia.
  5. 380.000 años: nacen los átomos
    La temperatura cayó a 3.000° Kelvin. Los átomos se formaron mientras los electrones se establecían alrededor de los núcleos sin ser dispersados por el calor. Los fotones podían viajar libremente sin ser absorbidos. Esta es la radiación medida por el COBE y el WMAP. El universo, en otros tiempos opaco y lleno de plasma, se hizo transparente. El cielo, en lugar de ser blanco, se volvió negro.
  6. Mil millones de años: las estrellas se condensan
    La temperatura cayó a 18° K. Los quásares, las galaxias y los grupos galácticos empezaron a condensarse, principalmente como producto de diminutas ondas cuánticas en la bola de fuego original. Las estrellas empezaron a «cocinar» los elementos ligeros como el carbono, el oxígeno y el nitrógeno. Las estrellas que habían estallado arrojaron elementos más allá del hierro hacia el espacio. Ésta es la época más lejana que puede sondear el telescopio espacial Hubble.
  7. 6.500 millones de años: la expansión de De Sitter
    La expansión de Friedmann fue terminando gradualmente y el universo empezó a acelerar y entrar en una fase de inflación, llamada «la expansión de De Sitter», dirigida por una fuerza antigravitatoria misteriosa que todavía no se comprende.
  8. 13.700 millones de años: hoy
    El presente. La temperatura ha caído a 2,7° K. Vemos el universo actual de galaxias, estrellas y planetas. El universo sigue acelerándose de forma expansiva.
17. El futuro
Aunque actualmente la inflación es la teoría que tiene el poder de explicar una amplia serie de misterios sobre el universo, esto no demuestra que sea correcta. (Además, recientemente se han propuesto teorías rivales, como veremos en el capítulo 7). El resultado de cada supernova tiene que ser comprobado una y otra vez, tomando en cuenta factores como el polvo y las anomalías en la producción de supernovas. La «prueba de fuego» que finalmente verificaría o descartaría el panorama inflacionario la constituyen las «ondas de gravedad» que se produjeron en el instante del big bang. Estas ondas de gravedad, como el fondo de microondas, todavía deberían estar reverberando en el universo y, de hecho, podrían encontrarse con los detectores de ondas de gravedad, como veremos en el capítulo 9. La inflación hace predicciones específicas sobre la naturaleza de estas ondas de gravedad, y estos detectores deberían encontrarlas.
Pero una de las predicciones más intrigantes de la inflación no puede ser comprobada directamente: se trata de la existencia de «universos recién nacidos» existentes en un multiverso de universos, cada uno de ellos obedeciendo una serie ligeramente diferente de leyes físicas. Para entender todas las implicaciones del multiverso, es importante comprender primero que la inflación aprovecha plenamente las extrañas consecuencias tanto de las ecuaciones de Einstein como de la teoría cuántica. En la teoría de Einstein tenemos la posible existencia de universos múltiples, y en la teoría cuántica tenemos los medios posibles de tunelización entre ellos y dentro de un nuevo marco de trabajo llamado «teoría M», podríamos obtener la teoría final que pueda resolver de una vez por todas estas cuestiones sobre universos paralelos y viajes en el tiempo.

LIBRO II
EL MULTIVERSO

Capítulo 5
Portales dimensionales y viajes en el tiempo

Dentro de cada agujero negro que colapsa pueden encontrarse las semillas de un nuevo universo en expansión.
Sir Martin Rees

Los agujeros negros pueden ser aberturas a otro tiempo. Si nos sumergiéramos en un agujero negro, se conjetura que emergeríamos en una parte distinta del universo y en otra época en el tiempo. […] Los agujeros negros pueden ser la entrada a países de maravillas. Pero ¿hay Alicias o conejos blancos?
Carl Sagan

Contenido:
  1. Agujeros negros
  2. El puente Einstein-Rosen
  3. Agujeros negros rotatorios
  4. Observación de agujeros negros
  5. Destellos de rayos gamma
  6. La máquina del tiempo de Van Stockum
  7. El universo de Gödel
  8. La máquina del tiempo de Thorne
  9. Problemas con la energía negativa
  10. Un universo en nuestra habitación
  11. La máquina del tiempo de Gott
  12. Las paradojas
La relatividad general es como un caballo de Troya. En la superficie, la teoría es magnífica. A partir de unos cuantos presupuestos sencillos, pueden obtenerse las características generales del cosmos, incluyendo la curvatura de la luz de las estrellas y el propio big bang, todas las cuales han sido medidas con una precisión asombrosa. Incluso puede acomodarse la inflación si introducimos a mano una constante cosmológica en el universo primigenio. Estas soluciones nos dan la teoría más convincente del nacimiento y la muerte del universo.
Pero, acechando dentro del caballo, encontramos todo tipo de demonios y duendes, entre ellos los agujeros negros, los agujeros blancos, los agujeros de gusano e incluso las máquinas del tiempo, todo lo cual desafía al sentido común. Estas anomalías se consideraban tan extrañas que incluso el propio Einstein pensó que nunca se encontrarían en la naturaleza. Durante años, luchó denodadamente contra estas soluciones extrañas. Hoy en día, sabemos que estas anomalías no pueden descartarse fácilmente. Son una parte integrante de la relatividad general y, en realidad, incluso pueden servir de salvación a cualquier ser inteligente que se enfrente a la gran congelación.
Pero quizá la más extraña de estas anomalías es la posibilidad de universos paralelos y pasadizos que los conecten. Si recordamos la metáfora shakesperiana de que el mundo entero es un escenario, la relatividad general admite la posibilidad de trampillas, pero en lugar de llevarnos al sótano, nos encontramos con que las trampillas nos llevan a escenarios paralelos, como el original. Imaginemos que el escenario de la vida consiste en muchos pisos de escenarios, uno encima del otro. En cada uno de ellos, los actores recitan sus versos y se pasean por el decorado, pensando que su escenario es el único, ajenos a la posibilidad de realidades alternativas. Sin embargo, si un día caen accidentalmente en una trampilla, se encuentran lanzados a un escenario totalmente nuevo, con nuevas leyes, nuevas normas y un nuevo guión.
Pero si puede existir un número infinito de universos, ¿es posible la vida en alguno de estos universos con leyes físicas diferentes? Es una cuestión que Isaac Asimov planteó en el clásico de la ciencia ficción Los propios dioses, donde creó un universo paralelo con una fuerza nuclear diferente de la nuestra. Cuando se revocan las leyes habituales de la física y se introducen unas nuevas, surgen nuevas posibilidades intrigantes.
La historia empieza en el año 2070, cuando un científico, Frederick Hallam, nota que el tungsteno-186 ordinario se está convirtiendo extrañamente en un misterioso plutonio-186, que tiene demasiados protones y debería ser inestable. Hallam teoriza que este extraño plutonio-186 viene de un universo paralelo en el que la fuerza nuclear es mucho más fuerte, por lo que supera la repulsión de los protones. Como este extraño plutonio-186 suelta grandes cantidades de energía en forma de electrones, puede aprovecharse para generar cantidades fabulosas de energía libre. Eso hace posible la célebre bomba de electrones de Hallam, que resuelve la crisis de la energía de la Tierra y lo convierte en un hombre rico. Pero hay un precio que pagar. Si entra en nuestro universo suficiente plutonio-186 procedente del exterior, la fuerza nuclear en general aumentará su intensidad. ¡Eso significa que se liberará más energía del proceso de fusión y el Sol se hará más brillante y finalmente explotará, destruyendo todo el sistema solar!
Mientras tanto, los extraterrestres en el universo paralelo tienen una perspectiva diferente. Su universo se está muriendo. La fuerza nuclear es bastante fuerte en su universo, lo que significa que las estrellas han consumido hidrógeno a una velocidad enorme y pronto morirán. Montan un intercambio mediante el cual se envía el inútil plutonio-186 a nuestro universo a cambio del valioso tungsteno-186, lo que les permite crear la bomba de positrones, que salva su mundo moribundo. Aunque se dan cuenta de que la fuerza nuclear aumentará la resistencia de nuestro universo al hacer explotar a nuestras estrellas, les da igual.
Por lo que parece, la Tierra se precipita al desastre. La humanidad se ha vuelto adicta a la energía libre de Hallam, negándose a creer que el Sol explotará pronto. Aparece otro científico con una solución ingeniosa para este acertijo. Está convencido de que tienen que existir otros universos paralelos. Modifica con éxito un potente colisionador de átomos para crear un agujero en el espacio que conecta nuestro universo a muchos otros. Buscando entre ellos, finalmente encuentra un universo paralelo que está vacío excepto por un «huevo cósmico» que contiene cantidades ilimitadas de energía, pero con una fuerza nuclear más débil.
Obteniendo energía de este huevo cósmico, puede crear una nueva bomba de energía y, al mismo tiempo, debilitar la fuerza nuclear en nuestro universo, impidiendo así que el Sol explote. Sin embargo, hay un precio que pagar: en este nuevo universo paralelo aumentará la fuerza nuclear, haciéndolo explotar. Pero él razona que esta explosión simplemente hará que el huevo cósmico «salga del cascarón», creando un nuevo big bang. Se da cuenta de que, en realidad, se convertirá en la comadrona de un nuevo universo en expansión.
Este relato de ciencia ficción de Asimov es uno de los pocos que realmente utiliza las leyes de la física nuclear para tejer una historia de avaricia, intriga y salvación. Asimov tenía razón al presumir que cambiar la potencia de las fuerzas en nuestro universo tendría consecuencias desastrosas, que las estrellas en nuestro universo se harían más brillantes y después explotarían si la fuerza nuclear aumentase su potencia. Esto plantea una cuestión inevitable: ¿son coherentes los universos paralelos con las leyes de la física? Y, si es así, ¿qué se requeriría para entrar en uno de ellos?
Para entender estas preguntas, primero tenemos que entender la naturaleza de los agujeros de gusano, la energía negativa y, desde luego, esos objetos misteriosos llamados «agujeros negros».


1. Agujeros negros
En 1783, el astrónomo británico John Michell fue el primero en preguntarse qué pasaría si una estrella creciera tanto que su propia luz no pudiera escapar de ella. Sabía que cualquier objeto tenía una «velocidad de escape», la requerida para abandonar su tirón gravitatorio. (En la Tierra, por ejemplo, la velocidad de escape es de 40.000 kilómetros por hora, la velocidad que debe alcanzar cualquier cohete a fin de liberarse de la gravedad de la Tierra).
Michell se preguntaba qué podría pasar si una estrella se volviera tan masiva que su velocidad de escape fuera igual a la velocidad de la luz. Su gravedad sería tan inmensa que nada podría escapar de ella, ni siquiera su propia luz, y, por tanto, el objeto aparecería negro para el mundo exterior. Encontrar un objeto así en el espacio sería en cierto sentido imposible, porque sería invisible.
La cuestión de las «estrellas negras» de Michell quedó olvidada durante un siglo y medio, pero se volvió a plantear en 1916, cuando Karl Schwarzschild, un físico alemán que servía en el ejército de su país en el frente ruso, encontró una solución exacta a las ecuaciones de Einstein para una estrella masiva. Incluso en la actualidad, se sabe que la solución de Schwarzschild es la solución exacta más sencilla y elegante de las ecuaciones de Einstein. Einstein se quedó asombrado de que Schwarzschild pudiera encontrar una solución a estas complejas ecuaciones mientras esquivaba proyectiles. También se quedó asombrado de que la solución de Schwarzschild tuviera propiedades peculiares.
La solución de Schwarzschild podía representar la gravedad de una estrella ordinaria, y Einstein rápidamente utilizó la solución para calcular la gravedad que rodeaba al Sol y comprobar sus anteriores cálculos, en los que había hecho aproximaciones. Quedó eternamente agradecido a Schwarzschild por todo ello. Pero en su segundo trabajo, Schwarzschild demostró que rodeando a una estrella muy maciza había una «esfera mágica» imaginaria con extrañas propiedades. Esta «esfera mágica» era el punto de no retorno. Cualquiera que entrase en la «esfera mágica» sería absorbido inmediatamente por la gravedad de la estrella y jamás se le volvería a ver. Ni siquiera la luz podía escapar si caía en esta esfera. Schwarzschild no se dio cuenta de que estaba redescubriendo la estrella negra de Michell a través de las ecuaciones de Einstein.
A continuación calculó el radio de esta esfera mágica (el radio de Schwarzschild). Para un objeto de las dimensiones de nuestro Sol, la esfera mágica era de unos 3 kilómetros. (Para la Tierra, el radio de Schwarzschild era aproximadamente de un centímetro). Eso significaba que si se pudiera comprimir el Sol hasta un diámetro de 3 kilómetros, se convertiría en una estrella negra y devoraría cualquier objeto que pasase por este punto de no retorno.
Experimentalmente, la existencia de la esfera mágica no causaba problemas, porque era imposible comprimir el Sol a 3 kilómetros. No se conocía ningún mecanismo para crear una estrella tan fantástica. Pero, teóricamente, era un desastre. Aunque la teoría general de la relatividad de Einstein podía dar resultados brillantes, como la curvatura de la luz de las estrellas alrededor del Sol, no tenía sentido cuando uno se acercaba a la esfera mágica, donde la gravedad se volvía infinita.
Un físico holandés, Johannes Droste, demostró entonces que la solución era todavía más loca. Según la relatividad, los rayos de luz se curvaban severamente cuando pasaban alrededor del objeto. De hecho, a 1,5 veces el radio de Schwarzschild, los rayos de luz realmente orbitaban en círculos alrededor de la estrella. Droste demostró que las distorsiones de tiempo encontradas en la relatividad general alrededor de las estrellas masivas eran mucho peores que las de la relatividad especial, y que, cuando uno se acercaba a esta esfera mágica, alguien desde la distancia diría que sus relojes iban cada vez más despacio, hasta que se detenían totalmente al golpear el objeto. En realidad, alguien desde fuera diría que al acercarse a la esfera mágica el sujeto quedaba congelado en el tiempo. Como el propio tiempo se detendría en este punto, algunos físicos creían que un objeto tan raro no podía existir nunca en la naturaleza. Para hacerlo todo más interesante, el matemático Herman Weyl demostró que si uno investigaba el mundo dentro de la esfera mágica, parecía haber otro universo al otro lado.
Era todo tan fantástico que ni siquiera Einstein podía creerlo. En 1922, durante una conferencia en París, el matemático Jacques Hadamard le preguntó qué pasaría si esta «singularidad» fuera real, es decir, si la gravedad se volviera infinita en el radio de Schwarzschild. Einstein le contestó: «Sería un verdadero desastre para la teoría, y sería muy difícil decir a priori lo que ocurriría físicamente porque la fórmula ya no sería aplicable». [68]Einstein lo llamaría posteriormente el «desastre de Hadamard». Pero pensó que toda esta controversia sobre las estrellas negras era pura especulación. En primer lugar, nadie había visto nunca un objeto tan raro, y quizá no existían, es decir, no existían físicamente. Y como nadie podía pasar nunca por la esfera mágica (porque en su interior el tiempo se ha detenido), nadie podría entrar en este universo paralelo.
En los años veinte, los físicos estaban totalmente confundidos por este asunto, pero en 1932, Georges Lemaître, padre de la teoría del big bang, hizo un importante descubrimiento. Demostró que la esfera mágica no era en absoluto una singularidad donde la gravedad se hacía infinita; era sólo una ilusión matemática causada por la elección de una desgraciada serie de parámetros. (Si se elegía una serie diferente de coordenadas o variables para examinar la esfera mágica, la singularidad desaparecía).
A partir de este resultado, el cosmólogo H. P. Robertson reexaminó el resultado original de Droste de que el tiempo se detiene en la esfera mágica. Encontró que el tiempo se detenía sólo desde la perspectiva de un observador que observara la entrada de un cohete en la esfera mágica. Desde el punto de vista del propio cohete, la gravedad sólo tardaría una fracción de segundo en absorberlo al pasar la esfera mágica. En otras palabras, un viajero del espacio lo bastante desafortunado como para pasar a través de la esfera mágica se vería aplastado al instante, pero a un observador que mirara desde fuera le parecería que tardaba miles de años.
Este resultado era importante. Significaba que la esfera mágica era alcanzable y que ya no podía descartarse como una monstruosidad matemática. Había que considerar seriamente lo que podía ocurrir si uno pasaba a través de la esfera mágica. Los físicos calcularon entonces cómo debía de ser un viaje a través de la esfera mágica. (Hoy en día, la esfera mágica recibe el nombre de «horizonte de sucesos». El horizonte se refiere al punto más lejano que uno puede ver. En este caso se refiere al punto más lejano al que puede viajar la luz. El radio del horizonte de sucesos se llama «radio de Schwarzschild»). Al acercarnos al agujero negro en un cohete, veríamos la luz que había sido capturada miles de millones de años atrás por el agujero, remontándonos a cuando fue creado el agujero negro en sí. Dicho de otro modo, se nos revelaría la historia de la vida del agujero negro. Al acercarnos más, las fuerzas ondulatorias romperían gradualmente los átomos de nuestro cuerpo, hasta que incluso los núcleos de nuestros átomos pareciesen como espaguetis. El viaje a través del horizonte de sucesos sería un viaje sólo de ida, porque la gravedad sería tan intensa que inevitablemente nos veríamos absorbidos hacia el centro, donde moriríamos aplastados. Una vez dentro del horizonte de sucesos, no podría haber retorno. (Para salir del horizonte de sucesos, uno tendría que viajar más deprisa que la luz, lo cual es imposible).
En 1939, Einstein escribió un artículo en el que intentaba rechazar la existencia de estas estrellas negras, argumentando que no podían formarse mediante procesos naturales. Empezó partiendo de la base de que una estrella se forma a partir de un conjunto giratorio de polvo, gas y desechos que rotan adoptando forma esférica, juntándose gradualmente por la gravedad. A continuación demostró que este conjunto de partículas giratorias nunca se colapsaría dentro del radio de Schwarzschild y, por tanto, nunca se convertiría en un agujero negro. En el mejor de los casos, esta masa giratoria de partículas alcanzaría 1,5 veces el radio de Schwarzschild y, por tanto, nunca se formarían los agujeros negros. (Para ir por debajo de 1,5 veces el radio de Schwarzschild, uno tendría que viajar más deprisa que la velocidad de la luz, lo cual es imposible). «El resultado esencial de esta investigación es una comprensión clara de por qué las "singularidades de Schwarzschild" no existen en la realidad física», [69] escribió Einstein.
Arthur Eddington también tenía profundas reservas sobre los agujeros negros, y mantuvo toda su vida la sospecha de que no podían existir. En una ocasión dijo que tendría que «haber una ley de la naturaleza que impidiera a una estrella comportarse de manera tan absurda». [70]
Irónicamente, aquel mismo año, J. Robert Oppenheimer (que más tarde construiría la bomba atómica) y su discípulo Hartland Snyder demostraron que realmente podía formarse un agujero negro a través de otro mecanismo. En lugar de partir de la base de que el agujero negro se formaba a partir de un conjunto giratorio de partículas que colapsaban por la gravedad, utilizaron como punto de partida una estrella vieja masiva que ha agotado su combustible nuclear y, por tanto, implosiona por la fuerza de la gravedad. Por ejemplo, una estrella gigante moribunda con una masa cuarenta veces la del Sol podría agotar su combustible nuclear y ser comprimida por gravedad hasta su radio de Schwarzschild de 130 kilómetros, en cuyo caso colapsaría inevitablemente en un agujero negro. Sugirieron que los agujeros negros no sólo eran posibles, sino que podían ser el punto final natural para miles de millones de estrellas gigantes moribundas de la galaxia. (Es posible que la idea de la implosión, de la que Oppenheimer fue pionero en 1939, le procurara la inspiración para el mecanismo de implosión utilizado en la bomba atómica sólo unos años después).

2. El puente Einstein-Rosen
Aunque Einstein creía que los agujeros negros eran demasiado increíbles para existir en la naturaleza, demostró con ironía que eran aún más extraños de lo que podía pensarse, teniendo en cuenta la posibilidad de que en el centro de un agujero negro se encuentren los agujeros de gusano. Los matemáticos los llaman «espacios múltiplemente conectados». Los físicos los llaman «agujeros de gusano» porque, tal como un gusano que perfora la tierra, crean un atajo alternativo entre dos puntos. A veces se les llama «portales o pasadizos dimensionales». Se llamen como se llamen, es posible que un día proporcionen el medio definitivo para el viaje interdimensional.
La primera persona que popularizó los agujeros de gusano fue Charles Dodgson, que escribió con el pseudónimo de Lewis Carroll. En A través del espejo, introdujo el agujero de gusano en el espejo que conectaba la campiña de Oxford con el País de las Maravillas. Como matemático profesional y profesor de Oxford, Dodgson estaba familiarizado con estos espacios múltiplemente conectados. Por definición, un espacio múltiplemente conectado es aquel en el que un lazo no puede contraerse hasta convertirse en un punto. Aparentemente, un bucle puede colapsarse en un punto. Pero supongamos que ponemos un lazo sobre la superficie de un donut. Cuando lentamente apretamos el bucle, vemos que no podemos comprimirlo hasta formar un punto; en el mejor de los casos, puede encogerse hasta la circunferencia del agujero del donut.
Los matemáticos estaban encantados de haber encontrado un objeto totalmente inútil para describir el espacio. Pero, en 1935, Einstein y su discípulo Nathan Rosen introdujeron los agujeros de gusano en el mundo de la física. Intentaban utilizar la solución del agujero negro como un modelo para las partículas elementales. A Einstein nunca le gustó la idea, que se remontaba a Newton, de que la gravedad de una partícula se volvía infinita cuando uno se acercaba a ella. Einstein pensaba que esta «singularidad» debería retirarse porque no tenía sentido.
Einstein y Rosen tuvieron la novedosa idea de representar un electrón (que normalmente se pensaba como un punto diminuto sin ninguna estructura) como un agujero negro. De este modo, la relatividad general podría utilizarse para explicar los misterios del mundo cuántico en una teoría del campo unificado. Empezaron con la solución de agujero negro estándar, que parece un gran jarro con un cuello largo. Después le cortaron el cuello y lo fusionaron con otra solución de agujero negro a la que le dieron la vuelta. Para Einstein, esta configuración extraña pero suave estaría libre de la singularidad en el origen del agujero negro y podría actuar como un electrón.
05-01.jpg
El puente Einstein-Rosen. En el centro del agujero negro hay una «garganta» que conecta el espacio-tiempo a otro universo u otro punto de nuestro universo. Aunque el viaje a través de un agujero negro estacionario sería fatal, los agujeros negros rotatorios tienen una singularidad semejante a un anillo, lo que puede hacer posible pasar por el anillo y a través del puente Einstein-Rosen, si bien esto es todavía especulativo.

Desgraciadamente, la idea de Einstein de representar un electrón como un agujero negro fracasó. Pero hoy en día los cosmólogos especulan con que el puente Einstein-Rosen pueda actuar como pasadizo entre dos universos. Podríamos movernos libremente en un universo hasta que, accidentalmente, cayéramos en un agujero negro, donde seríamos absorbidos súbitamente a través del agujero para emerger por el otro lado (a través de un agujero blanco).
Para Einstein, cualquier solución de sus ecuaciones, si empezaba con un punto de partida físicamente plausible, debía corresponder a un objeto físicamente posible. Pero no le preocupaba que alguien cayera en un agujero negro y entrara en un universo paralelo. Las fuerzas ondulatorias se volverían infinitas en el centro y cualquier persona lo bastante desafortunada como para caer en un agujero negro acabaría con sus átomos desintegrados por el campo gravitatorio. (El puente Einstein-Rosen se abre momentáneamente, pero se cierra tan deprisa que ningún objeto puede pasar a través de él a tiempo para alcanzar el otro lado). La postura de Einstein era que, aunque los agujeros de gusano pueden existir, ninguna criatura viva podría pasar a través de uno de ellos y vivir para contarlo.

3. Agujeros negros rotatorios
Sin embargo, en 1963, esta perspectiva empezó a cambiar cuando el matemático neozelandés Roy Kerr encontró una solución exacta a la ecuación de Einstein al describir la estrella moribunda quizá más realista, un agujero negro giratorio. A causa de la conservación del impulso angular, cuando una estrella colapsa por la gravedad, gira a mayor velocidad. (Es la misma razón por la que las galaxias giratorias parecen molinillos y por la que los patinadores giran más deprisa cuando juntan los brazos). Una estrella giratoria podría colapsar en un anillo de neutrones, que seguiría siendo estable a causa de la intensa fuerza centrífuga que empuja hacia el exterior, anulando la fuerza de la gravedad interior. La característica sorprendente de este agujero negro era que, si uno caía dentro del agujero negro de Kerr, no sería aplastado hasta morir, sino que sería totalmente absorbido a través del puente Einstein-Rosen hacia un universo paralelo. «Pasa por este anillo mágico y… ¡sorpresa!, estás en un universo completamente diferente en el que el radio y la masa son negativos», [71]exclamó Kerr a un colega cuando descubrió esta solución.
Dicho de otro modo, el marco del espejo de Alicia era como el anillo giratorio de Kerr. Pero cualquier viaje a través del anillo de Kerr sería un viaje de sentido único. Si pasásemos a través del horizonte de sucesos que rodea el anillo de Kerr, la gravedad no sería suficiente para morir aplastado, pero sería suficiente para impedir un viaje de retorno a través del horizonte de sucesos. (El agujero negro de Kerr, en realidad, tiene dos horizontes de sucesos. Algunos han especulado con que podríamos necesitar un segundo anillo de Kerr que conectara el universo paralelo con el nuestro para hacer el viaje de vuelta). En cierto sentido, un agujero negro de Kerr puede compararse a un ascensor dentro de un rascacielos. El ascensor representa el puente Einstein-Rosen, que conecta diferentes pisos, donde cada piso es un universo diferente. En realidad, hay un número infinito de pisos en este rascacielos, cada uno diferente de los demás. Pero el ascensor nunca puede bajar. Sólo hay un botón para subir. Una vez se deja atrás un piso, o un universo, no hay vuelta atrás porque se habría pasado un horizonte de sucesos.
Los físicos están divididos acerca de la estabilidad del anillo de Kerr. Algunos cálculos sugieren que, si uno intentara atravesar el anillo, su simple presencia desestabilizaría el agujero negro y el pasadizo se cerraría. Si un rayo de luz, por ejemplo, pasase por el agujero negro de Kerr, acumularía una gran cantidad de energía mientras cayese hacia el centro y se desplazaría hacia el azul, es decir, aumentaría su frecuencia y energía. Al acercarse al horizonte, tendría tanta energía que mataría a cualquiera que intentara pasar por el puente de Einstein-Rosen. También generaría su propio campo gravitatorio, lo que interferiría con el agujero negro original, destruyendo quizá el pasadizo.
En otras palabras: aunque algunos físicos creen que el agujero negro de Kerr es el más realista de todos los agujeros negros y que realmente podría conectar universos paralelos, no está claro hasta qué punto sería seguro entrar en el puente y hasta qué punto el pasadizo sería estable.

4. Observación de agujeros negros
Debido a las extrañas propiedades de los agujeros negros, a principios de los años noventa su existencia todavía se consideraba ciencia ficción. «Hace diez años, si encontrabas un objeto que te parecía que era un agujero negro en el centro de una galaxia, la mitad de los especialistas creían que estabas un poco chiflado» [72] comentaba el astrónomo Douglas Richstone, de la Universidad de Michigan, en 1998. Desde entonces, los astrónomos han identificado varios cientos de agujeros negros en el espacio exterior mediante el telescopio espacial Hubble, el telescopio espacial de rayos X Chandra (que mide las emisiones de rayos X desde potentes fuentes estelares y galácticas) y el Radiotelescopio de Muy Largo Alcance (que consiste en una serie de potentes radiotelescopios, en Nuevo México). Muchos astrónomos creen que, en realidad, la mayoría de las galaxias del firmamento (que presentan un abultamiento en el centro de sus discos) tienen agujeros negros en sus centros.
Como se predijo, todos los agujeros negros encontrados en el espacio rotan muy rápidamente; el telescopio espacial Hubble ha registrado que algunos giran aproximadamente a 1,5 millones de kilómetros por hora. En el centro puede apreciarse un núcleo plano circular que a menudo mide cerca de un año luz de diámetro. Dentro de este núcleo se encuentra el horizonte de sucesos y el agujero negro en sí.
Como los agujeros negros son invisibles, los astrónomos han utilizado medios indirectos para verificar su existencia. En las fotografías, intentan identificar el «disco de acrecentamiento» de gas arremolinado que rodea el agujero negro. Los astrónomos han conseguido bellas fotografías de estos discos de acrecentamiento. (Estos discos se encuentran casi universalmente alrededor de la mayoría de objetos giratorios rápidos del universo. Incluso nuestro Sol, cuando se formó hace 4.500 millones de años, probablemente tenía un disco similar que lo rodeaba y que más tarde se condensó en los planetas. La razón por la que se forman estos discos es que representan el estado más bajo de energía para un objeto rápidamente giratorio como éste). Utilizando las leyes de la dinámica de Newton, los astrónomos pueden calcular la masa del objeto central sabiendo la velocidad de las estrellas que orbitan a su alrededor. Si la masa del objeto central tiene una velocidad de escape igual a la velocidad de la luz, ni siquiera la propia luz puede escapar, proporcionando la prueba indirecta de la existencia de un agujero negro.
El horizonte de sucesos se encuentra en el centro del disco de acrecentamiento. (Lamentablemente, es demasiado pequeño para ser identificado con la tecnología actual. El astrónomo Fulvio Melia afirma que capturar el horizonte de sucesos de un agujero negro en película es el «santo grial» de la ciencia de agujero negro). No todo el gas que cae hacia un agujero negro pasa por el horizonte de sucesos. Parte de él lo evita, es lanzado a velocidades enormes y expulsado hacia el espacio, formando dos largos chorros de gas que emanan de los polos norte y sur del agujero negro. Esto le da al agujero negro el aspecto de tener una parte superior giratoria. (La razón por la que son expulsados de este modo probablemente sea que las líneas del campo magnético de la estrella que colapsa, al hacerse más intensas, se concentran por encima de los polos norte y sur. Mientras la estrella sigue colapsando, estas líneas de campo magnético se condensan en dos tubos que emanan de los polos norte y sur. A medida que las partículas ionizadas caen dentro de la estrella colapsada, siguen estas estrechas líneas magnéticas de fuerza y son expulsadas como chorros a través de los campos magnéticos polares norte y sur).
Se han identificado dos tipos de agujeros negros. El primero es el estelar, en el que la gravedad aplasta a una estrella moribunda hasta que implosiona. El segundo, en cambio, se detecta más fácilmente. Hay agujeros negros galácticos que acechan en el mismo centro de grandes galaxias y quásares y pesan de miles a miles de millones de masas solares.
Recientemente se identificó de manera concluyente un agujero negro en el centro de nuestra propia galaxia de la Vía Láctea. Desgraciadamente, las nubes de polvo oscurecen el centro galáctico; si no fuera por esto, desde la Tierra podríamos ver todas las noches una gran bola de fuego en la constelación Sagitario. Sin el polvo, el centro de nuestra galaxia de la Vía Láctea probablemente brillaría más que la Luna, lo que la convertiría en el objeto más brillante del cielo nocturno. En el centro de este núcleo galáctico se encuentra un agujero negro que pesa unos 2,5 millones de masas solares. En términos de tamaño, ocupa cerca de una décima parte del radio de la órbita de Mercurio. Según los criterios galácticos, no se trata de un agujero negro especialmente masivo; los quásares pueden tener agujeros negros que pesan varios miles de millones de masas solares. El agujero negro de nuestro vecindario está bastante inactivo en el presente.
El siguiente agujero negro galáctico más cercano está en el centro de la galaxia de Andrómeda, la más cercana a la Tierra. Pesa 30 millones de masas solares y su radio de Schwarzschild es de unos 100 millones de kilómetros. (En el centro de la galaxia de Andrómeda se encuentran al menos dos objetos masivos, probablemente los restos de una galaxia anterior que fue devorada por Andrómeda hace miles de millones de años. Si la galaxia de la Vía Láctea finalmente colisiona con Andrómeda de aquí a miles de millones de años, como parece probable, nuestra galaxia puede terminar en el «estómago» de la galaxia de Andrómeda.
Una de las fotografías más bellas de un agujero negro galáctico es la tomada por el telescopio espacial Hubble de la galaxia NGC 4261. En el pasado, las imágenes de radiotelescopio de esta galaxia mostraban dos elegantes chorros expulsados desde los polos norte y sur de la galaxia, pero nadie sabía cuál era el motor que había detrás. El telescopio Hubble fotografió el centro de la galaxia, revelando un bello disco de unos 400 años luz de diámetro. En el centro había un pequeño punto que contenía el disco de acrecentamiento, aproximadamente de un año luz de diámetro. El agujero negro del centro, que no puede verse con el telescopio Hubble, pesa aproximadamente 1.200 millones de masas solares.
Los agujeros negros galácticos como éste son tan potentes que pueden consumir estrellas enteras. En 2004, la NASA y la Agencia Espacial Europea anunciaron que habían detectado un gran agujero negro en una galaxia distante que devoró una estrella de un solo bocado. El telescopio de rayos X Chandra y el satélite europeo XMM-Newton observaron el mismo acontecimiento: una ráfaga de rayos X emitida por la galaxia RXJ1242-11 que señala que una estrella ha sido engullida por el inmenso agujero negro en el centro. Se ha calculado que este agujero negro pesa 100 millones de veces la masa de nuestro Sol. Los cálculos han demostrado que, cuando una estrella se acerca peligrosamente al horizonte de sucesos de un agujero negro, la enorme gravedad distorsiona y estira la estrella hasta que la rompe, emitiendo una ráfaga reveladora de rayos X. «Esta estrella fue estirada más allá del punto de ruptura. Esta desafortunada estrella simplemente se introdujo en el vecindario erróneo», [73] observó la astrónoma Stefanie Komossa, del Instituto Max Planck de Garching (Alemania).
La existencia de agujeros negros ha ayudado a resolver muchos misterios antiguos. La galaxia M-87, por ejemplo, siempre fue una curiosidad para los astrónomos porque parecía una bola maciza de estrellas con una extraña «cola». Como emitía cantidades ingentes de radiación, en cierto momento los astrónomos pensaron que esta cola representaba una corriente de antimateria. Pero, hoy en día, los astrónomos han descubierto que está energizada por un inmenso agujero negro que pesa casi 3 mil millones de masas solares. Y se cree que aquella extraña cola es un gigantesco chorro de plasma que sale de la galaxia, no que va hacia ella.
Uno de los descubrimientos más espectaculares relativos a los agujeros negros se produjo cuando el telescopio de rayos X Chandra pudo mirar a través de un pequeño espacio entre el polvo del espacio exterior para observar un conjunto de agujeros negros cerca del borde del universo visible. En conjunto, podían verse seiscientos agujeros negros. Extrapolando esta observación, los astrónomos estiman que hay al menos 300 millones de agujeros negros en todo el cielo nocturno.

5. Destellos de rayos gamma
Los agujeros negros mencionados antes tienen quizá miles de millones de años. Pero ahora los astrónomos tenemos la rara oportunidad de ver agujeros negros formarse ante nuestros ojos. Algunos de ellos probablemente son los misteriosos destellos de rayos gamma que liberan la mayor cantidad de energía del universo. La energía que liberan los grandes destellos de rayos gamma sólo es inferior a la del propio big bang.
Los destellos de rayos gamma tienen una curiosa historia que se remonta a la Guerra Fría. A finales de los años sesenta Estados Unidos temía que la Unión Soviética u otro país pudieran detonar secretamente una bomba nuclear, quizás en una parte desierta de la Tierra o incluso en la Luna, violando de este modo los tratados existentes. Así, Estados Unidos lanzó el satélite Vela para localizar específicamente «destellos de armas nucleares» o detonaciones no autorizadas de bombas nucleares. Como una detonación nuclear se despliega en varias fases, microsegundo a microsegundo, cada destello del arma nuclear emite un doble destello de luz característico que puede ser visto por un satélite. (El satélite Vela recogió dos destellos de armas nucleares en los años sesenta en la costa de la isla Prince Edward, cerca de Sudáfrica, en presencia de barcos de guerra israelíes, observaciones que todavía debate la comunidad de los servicios de inteligencia).
Pero lo que sorprendió al Pentágono fue que el satélite Vela recogiera señales de grandes explosiones nucleares en el espacio. ¿Se dedicaba la Unión Soviética a detonar bombas de hidrógeno en el espacio profundo, utilizando una tecnología avanzada desconocida? Preocupados por si los soviéticos pudieran haber superado a Estados Unidos en el campo de la tecnología armamentística, se contrató a los mejores científicos para que analizasen estas señales francamente perturbadoras.
Después de la ruptura de la Unión Soviética, no hubo necesidad de mantener clasificada esta información, de modo que el Pentágono soltó una abrumadora montaña de datos al mundo de la astronomía. Por primera vez en décadas, se había revelado un fenómeno astronómico nuevo con un poder y alcance inmensos. Los astrónomos se dieron cuenta rápidamente de que estos estallidos de rayos gamma, como los llamaron, tenían una potencia titánica al liberar en segundos toda la producción de energía de nuestro Sol a lo largo de toda su historia (unos 10.000 millones de años). Pero estos sucesos también eran fugaces; una vez el satélite Vela los hubo detectado, se debilitaron de tal modo que, cuando los telescopios de tierra se apuntaron en su dirección, no pudo verse nada en su estela. (La mayoría de los destellos duran entre 1 y 10 segundos, pero la más corta duró sólo 0,01 segundos, mientras que otras se alargaron durante varios minutos).
Hoy en día, los telescopios espaciales, ordenadores y equipos de respuesta rápida han cambiado nuestra capacidad de localizar destellos de rayos gamma. Unas tres veces al día, se detectan destellos de rayos gamma que ponen en marcha una compleja cadena de sucesos. En cuanto el satélite detecta la energía de una de ellas, los astrónomos localizan sus coordenadas exactas valiéndose de ordenadores y apuntan más telescopios y sensores en la dirección precisa.
Los datos de estos instrumentos han revelado resultados realmente asombrosos. En el corazón de estos destellos de rayos gamma se encuentra un objeto que a menudo tiene sólo unas decenas de kilómetros de diámetro. Dicho de otro modo, el poder cósmico inimaginable de los destellos de rayos gamma se concentra dentro de un área de las dimensiones de, por ejemplo, la ciudad de Nueva York. Durante años, los principales candidatos de estos sucesos eran estrellas de neutrones que colisionaban en un sistema estelar binario. Según esta teoría, cuando la órbita de estas estrellas de neutrones se descomponía con el tiempo, y mientras seguían una espiral de muerte, acababan colisionando y liberando una cantidad colosal de energía. Estos acontecimientos son extremadamente raros, pero teniendo en cuenta que el universo es tan grande y que estos destellos se extienden por el universo entero, deberían detectarse varias veces al día.
Sin embargo, en 2003, nuevas pruebas reunidas por los científicos sugirieron que los destellos de rayos gamma son el resultado de una «hipernova» que crea un agujero negro masivo. Enfocando rápidamente los telescopios y satélites en la dirección de las explosiones de rayos gamma, los científicos encontraron que se parecían a una supernova masiva. Como la estrella en explosión tiene un campo magnético enorme y expulsa radiación a través de las direcciones polares norte y sur, podría parecer que la supernova es más energética de lo que es en realidad; es decir, sólo observamos estas explosiones si se dirigen directamente hacia la Tierra, dando la falsa impresión de que son más potentes de lo que son en realidad.
Si los destellos de rayos gamma son realmente agujeros negros en formación, la próxima generación de telescopios espaciales debería ser capaz de analizarlos con gran detalle y quizá responder algunas de nuestras preguntas más profundas sobre el espacio y el tiempo. Específicamente, si los agujeros negros pueden curvar el espacio convirtiéndolo en un pretzel, ¿pueden también curvar el tiempo?

6. La máquina del tiempo de Van Stockum
La teoría de Einstein vincula el espacio y el tiempo en una unidad inseparable. Como resultado, cualquier agujero de gusano que conecte dos puntos distantes en el espacio también podría conectar dos puntos distantes en el tiempo. Dicho de otro modo, la teoría de Einstein admite la posibilidad del viaje en el tiempo.
El propio concepto de tiempo ha evolucionado a lo largo de los siglos. Para Newton, el tiempo era como una flecha; una vez disparada, nunca cambiaba de curso y viajaba de modo certero y directo hasta su objetivo. Einstein introdujo entonces el concepto del espacio curvado, de modo que el tiempo era más como un río que aceleraba suavemente o aminoraba la marcha mientras serpenteaba por el universo. Pero a Einstein le preocupaba la posibilidad de que el río del tiempo pudiera retroceder sobre sí mismo. Quizá pudiera haber remolinos o bifurcaciones en el río del tiempo.
En 1937 se constató esta posibilidad cuando W. J. Van Stockum encontró una solución a las ecuaciones de Einstein que permitían el viaje en el tiempo. Empezó con un cilindro giratorio infinito. Aunque no es físicamente posible construir un objeto infinito, calculó que si este cilindro girara a la velocidad de la luz o cerca de ella, arrastraría con él el entramado del espacio-tiempo, del mismo modo que la papilla es arrastrada por la hélice de la licuadora. (Esto se llama «arrastre de marco» y se ha visto experimentalmente en fotografías detalladas de agujeros negros giratorios).
Cualquier persona lo bastante valiente para viajar alrededor del cilindro sería arrastrada, alcanzando velocidades fantásticas. En realidad, para un observador distante, parecería que el individuo supera la velocidad de la luz. Aunque Van Stockum no se dio cuenta en aquel momento, dando una vuelta completa al cilindro uno podría remontarse en el tiempo y volver antes de haber partido. Si saliésemos al mediodía, cuando volviésemos al punto de partida, digamos, podrían ser las 6 de la tarde del día anterior. Cuanto más rápido girara el cilindro, más atrás en el tiempo iríamos (la única limitación es que no se puede ir más atrás en el tiempo que el momento de la creación del propio cilindro).
Dado que el cilindro es como un mástil, cada vez que uno bailase alrededor del palo, se remontaría más y más atrás en el tiempo. Desde luego, podría descartarse una solución así porque los cilindros no pueden durar infinitamente. Además, si pudiera construirse un cilindro de este tipo, como giraría cerca de la velocidad de la luz, las fuerzas centrífugas serían enormes y el material que constituye el cilindro se fragmentaría.

7. El universo de Gödel
En 1949, Kurt Gödel, el gran lógico matemático, encontró una solución aún más extraña a las ecuaciones de Einstein. Partió de la base de que todo el universo giraba. Como el cilindro de Van Stockum, uno es arrastrado por la naturaleza como la papilla en la licuadora del espacio-tiempo. Tomando una nave espacial alrededor del universo de Gödel, uno vuelve al punto de partida pero viaja hacia atrás en el tiempo.
En el universo de Gödel, una persona, en principio, puede viajar entre dos puntos cualesquiera del espacio y el tiempo en el universo. Cualquier acontecimiento, en cualquier periodo del tiempo, puede ser visitado, no importa lo lejano que esté en el pasado. A causa de la gravedad, el universo de Gödel tiene tendencia a colapsar sobre sí mismo. Por tanto, la fuerza centrífuga de la rotación debe equilibrar esta fuerza gravitatoria. Dicho de otro modo, el universo debe girar por encima de una velocidad determinada. Cuanto más grande sea el universo, mayor es la tendencia a colapsar y más rápido tendría que girar para impedir el colapso.
Para un universo de nuestras dimensiones, por ejemplo, Gödel calculó que tendría que rotar una vez cada 70.000 millones de años y el radio mínimo para el viaje en el tiempo sería de 16.000 millones de años luz. Sin embargo, para viajar atrás en el tiempo, uno tendría que viajar justo por debajo de la velocidad de la luz.
Gödel era muy consciente de las paradojas que podían plantearse a partir de su solución: la posibilidad de encontrarse a uno mismo en el pasado y de alterar el curso de la historia. «Al hacer un viaje de ida y vuelta a bordo de un cohete con un recorrido suficientemente amplio, en estos mundos es posible viajar hacia cualquier región del pasado, presente y futuro, y regresar, exactamente del mismo modo que es posible en otros mundos viajar a partes distantes del espacio», escribió. «Este estado de cosas parece implicar un absurdo. Porque permite a un individuo viajar al pasado reciente de aquellos lugares en los que ha vivido él mismo. Allí encontraría a una persona que sería ella misma en algún periodo anterior de su vida, y podría hacer algo a esta persona que, en su memoria, sabe que no le ha ocurrido a él.» [74]
Einstein se quedó profundamente perturbado por la solución que había encontrado su amigo y vecino en el Instituto de Estudios Avanzados de Princeton. Su respuesta es reveladora:
El ensayo de Kurt Gödel constituye, en mi opinión, una importante contribución a la teoría general de la relatividad, especialmente al análisis del concepto de tiempo. El problema que implica ya me inquietó en la época de la construcción de la teoría general de la relatividad, sin haber conseguido clarificarlo. […] Se abandona la distinción «antes-después» para poner puntos-mundo que se encuentran bastante lejos en un sentido cosmológico, y surgen estas paradojas, relativas a la dirección de la conexión causal, de las que ha hablado el señor Gödel. […] Será interesante sopesar si no tienen que ser excluidas por motivos físicos. [75]
La respuesta de Einstein es interesante por dos razones. En primer lugar, admitió que la posibilidad del viaje en el tiempo le había preocupado cuando formuló por primera vez la relatividad general. Como el tiempo y el espacio son tratados como una pieza de goma que puede curvarse y alabearse, Einstein temía que la tela del espacio-tiempo se curvase tanto que el viaje en el tiempo pudiera ser posible. En segundo lugar, descartaba la solución de Gödel sobre la base de «motivos físicos», es decir, que el universo no gira, se expande.
Cuando Einstein murió, era ampliamente conocido que sus ecuaciones dejaban la puerta abierta a fenómenos extraños (viajes en el tiempo, agujeros de gusano), pero nadie les dedicó mucha atención porque los científicos creían que no podían realizarse en la naturaleza. Se reconocía por consenso que estas soluciones no tenían base en el mundo real; si uno intentaba llegar a un universo paralelo a través de un agujero negro, moriría; el universo no giraba, y no podían hacerse cilindros infinitos, lo que convertía el viaje en el tiempo en una cuestión académica.

8. La máquina del tiempo de Thorne
La cuestión del viaje en el tiempo permaneció latente durante treinta y cinco años, hasta 1985, cuando el astrónomo Carl Sagan escribió su novela Contacto y quiso incluir una manera de que su protagonista pudiera viajar a la estrella Vega. Eso exigía un viaje de ida y vuelta en el que la protagonista pudiera viajar a Vega y después volver a la Tierra, algo que no le permitían los agujeros de gusano de tipo agujero negro. Recurrió al físico Kip Thorne en busca de consejo. Thorne sorprendió al mundo de la física con el hallazgo de nuevas soluciones a ecuaciones de Einstein que permitían el viaje en el tiempo sin muchos de los problemas anteriores. En 1988, con sus colegas Michael Morris y Ulvi Yurtsever, Thorne demostró que era posible construir una máquina del tiempo si podían obtenerse de algún modo extrañas formas de materia y energía, como «materia negativa exótica» y «energía negativa». Al principio, los físicos se mostraron escépticos ante esta solución, porque nadie había visto nunca esta materia exótica y la energía negativa sólo existe en cantidades mínimas, pero sin duda representaba un avance en nuestra comprensión del viaje en el tiempo.
La gran ventaja de la materia negativa y la energía negativa es que permiten atravesar un agujero de gusano, de modo que uno puede hacer un viaje de ida y vuelta sin tener que preocuparse por horizontes de sucesos. En realidad, el equipo de Thorne descubrió que un viaje mediante una máquina del tiempo como ésta podía ser bastante suave comparado con la tensión de una compañía aérea comercial.
Sin embargo, un problema es que la materia exótica (o materia negativa) tiene unas propiedades bastante extraordinarias. A diferencia de la antimateria (que se sabe que existe y que probablemente cae sometida al campo gravitatorio de la Tierra), la materia negativa cae «hacia arriba», de modo que flota en la gravedad de la Tierra porque posee antigravedad. Es repelida, no atraída, por la materia ordinaria y por otra materia negativa. Eso significa que también es bastante difícil encontrarla en la naturaleza, si es que existe.
Cuando la Tierra se formó hace 4.500 millones de años, cualquier materia negativa sobre la Tierra se hubiera alejado flotando hacia el espacio profundo. Por tanto, la materia negativa podría flotar en el espacio, lejos de todo planeta. (La materia negativa probablemente nunca golpeará una estrella o planeta que pase por su lado, porque es repelida por la materia ordinaria).
Mientras que la materia negativa no se ha visto nunca (y es muy posible que no exista), la energía negativa es físicamente posible pero extremadamente rara. En 1933, Henrik Casimir demostró que dos láminas de metal paralelas sin carga pueden crear energía negativa. Normalmente, uno esperaría que, al no llevar carga, las dos láminas permanecieran estacionarias. Sin embargo, Casimir demostró que hay una pequeña fuerza de atracción entre estas dos láminas paralelas sin carga. En 1948 se midió esta pequeña fuerza y se demostró que la energía negativa era una posibilidad real. El efecto Casimir explota una característica bastante extraña del vacío. Según la teoría cuántica, el espacio vacío está repleto de «partículas virtuales» que bailan entrando y saliendo de la nada. Esta violación de la conservación de energía es posible por el principio de incertidumbre de Heisenberg, que permite violaciones de las leyes clásicas más valoradas siempre que ocurran muy brevemente. Por ejemplo, un electrón y un antielectrón, debido a la incertidumbre, tienen una pequeña probabilidad de ser creados de la nada y después aniquilarse uno a otro. Como las láminas paralelas están muy cerca una de otra, estas partículas virtuales no pueden entrar fácilmente entre ellas. Así pues, como hay más partículas virtuales rodeando las láminas que entre ellas, esto crea una fuerza interna desde fuera que empuja las láminas paralelas uniéndolas suavemente. Este efecto fue medido exactamente en 1996 por Steven Lamoreaux en el Laboratorio Nacional de Los Álamos. La fuerza atractiva que midió era pequeña (igual a 1/30.000 del peso de un insecto como una hormiga). Cuanto menor es la separación de las láminas, mayor es la fuerza de atracción.
Veamos cómo podría funcionar la máquina del tiempo que soñó Thorne. Una civilización avanzada empezaría con dos láminas paralelas, separadas por un espacio extremadamente pequeño. A continuación estas láminas paralelas serían convertidas en esferas, una dentro de la otra. El pequeño espacio entre las láminas esféricas se conectaría de algún modo, con un agujero de gusano, a otra esfera hecha con dos láminas iguales, de modo que un túnel en el espacio conectara ambas esferas. Cada esfera encierra ahora una boca de agujero de gusano.
Normalmente, el tiempo palpita en sincronización para ambas esferas. Pero si ahora ponemos una esfera en un cohete que es despedido a la velocidad de la luz, el tiempo aminora la marcha de este cohete, de modo que las dos esferas dejan de estar sincronizadas en el tiempo. El reloj del cohete late mucho más lentamente que el de la Tierra. Entonces, si uno salta a la esfera que está sobre la Tierra, puede ser absorbido a través del agujero de gusano que las conecta y terminar en el otro cohete, en algún momento del pasado. (Sin embargo, la máquina del tiempo no puede llevarnos más atrás del momento en que se fabricó la propia máquina).

9. Problemas con la energía negativa
Aunque la solución de Thorne fue sensacional cuando se anunció, había serios obstáculos para su creación en la realidad, incluso para una civilización avanzada. En primer lugar, uno debe obtener grandes cantidades de energía negativa, lo que es bastante raro. Este tipo de agujero de gusano depende de una enorme cantidad de energía negativa que mantenga la boca del agujero de gusano abierta. Si uno crea energía negativa a través del efecto Casimir, que es bastante pequeño, las dimensiones del agujero de gusano tendrían que ser muy inferiores a un átomo, lo que haría impracticable el viaje a través de él. Hay otras fuentes de energía negativa además del efecto Casimir, pero todas ellas son bastante difíciles de manipular. Por ejemplo, los físicos Paul Davies y Stephen Fulling han demostrado que puede verse cómo un espejo que se mueve rápidamente crea energía negativa, que se acumula delante del espejo mientras se mueve. Desgraciadamente, uno tiene que mover el espejo a una velocidad cercana a la de la luz para obtener energía negativa. Y, como el efecto Casimir, la energía negativa creada es pequeña.
Otra manera de extraer energía negativa es utilizar rayos láser de alta intensidad. Dentro de los estados de energía del láser, hay «estados comprimidos» en los que coexisten la energía positiva y la negativa. Sin embargo, este efecto también es bastante difícil de manipular. Una pulsación característica de energía negativa podría durar 10−15 segundos, seguidos de una pulsación de energía positiva. Es posible, aunque extremadamente difícil, separar los estados de energía positiva de los de energía negativa. Comentaré más ampliamente esta cuestión en el capítulo 11.
Finalmente, resulta que un agujero negro también tiene energía negativa cerca de su horizonte de sucesos. Como han demostrado Jacob Bekenstein y Stephen Hawking,[76] un agujero negro no es totalmente negro porque evapora lentamente energía. Eso ocurre porque el principio de incertidumbre hace posible la tunelización de la radiación al pasar por la enorme gravedad de un agujero negro. Pero como un agujero negro que se evapora pierde energía, el horizonte de sucesos se va haciendo gradualmente más pequeño con el tiempo. Normalmente, si se lanza la materia positiva (como una estrella) a un agujero negro, el horizonte de sucesos se expande. Pero si se le arroja energía negativa, su horizonte de sucesos se contrae. Así, la evaporación de agujero negro crea energía negativa, cerca del horizonte de sucesos. (Algunos han propuesto poner la boca del agujero de gusano cerca del horizonte de sucesos para cosechar energía negativa. Sin embargo, cosechar esta energía sería extraordinariamente difícil y peligroso, porque uno tendría que estar peligrosamente cerca del horizonte de sucesos).
Hawking ha demostrado que, en general, se necesita energía negativa para estabilizar todas las soluciones de agujero de gusano. El razonamiento es bastante sencillo. Normalmente, la energía positiva puede crear la abertura de un agujero de gusano que concentra materia y energía. Así, los rayos de luz convergen cuando entran en la boca del agujero de gusano. Sin embargo, si estos rayos de luz emergen por otro lado, en algún lugar en el centro del agujero de gusano los rayos de luz deberían desenfocarse. La única manera en que puede ocurrir esto es si la energía negativa está presente. Además, la energía negativa es repulsiva, lo cual es necesario para evitar que el agujero de gusano se colapse bajo la gravedad. De este modo, la clave para la construcción de una máquina del tiempo o agujero de gusano puede ser encontrar cantidades suficientes de energía negativa para mantener la boca abierta y estable. (Unos cuantos físicos han demostrado que, en presencia de grandes campos gravitatorios, son bastante comunes los campos de energía negativa. Así pues, quizás un día la energía negativa gravitatoria pueda utilizarse para impulsar una máquina del tiempo).
Otro obstáculo al que se enfrenta una máquina del tiempo así es: ¿dónde encontramos un agujero de gusano? Thorne se basaba en el hecho de que los agujeros de gusano ocurren con naturalidad, en lo que se llama la «espuma espacio-tiempo». Esto se retrotrae a la cuestión preguntada por el filósofo griego Zenón hace más de dos mil años: ¿cuál es la distancia más corta que se puede recorrer?
En una ocasión, Zenón demostró matemáticamente que es imposible atravesar un río. Primero observó que la distancia de un lado a otro del río puede subdividirse en un número infinito de puntos y, como se tardaba una cantidad infinita de tiempo en recorrer un número infinito de puntos, era imposible cruzar el río. En realidad, era imposible que nada se moviese. (Se necesitarían otros dos mil años y la llegada del cálculo para resolver finalmente este enigma. Puede demostrarse que se puede atravesar un número infinito de puntos en una cantidad finita de tiempo, posibilitando así matemáticamente el movimiento).
John Wheeler, de Princeton, analizó las ecuaciones de Einstein para descubrir la distancia más pequeña. Wheeler encontró que a distancias increíblemente pequeñas, del orden de la longitud de Planck (10−33 cm), la teoría de Einstein predecía que la curvatura del espacio podía ser muy grande. En otras palabras, en la longitud de Planck, el espacio no era en absoluto plano sino que tenía gran curvatura, es decir, era curvado y «espumoso». El espacio se vuelve grumoso, y en realidad se hace espuma con pequeñas burbujas que entran y salen del vacío. Incluso el espacio vacío, en las distancias más pequeñas, está hirviendo constantemente con pequeñas burbujas de espacio-tiempo, que, de hecho, son pequeños agujeros de gusano y universos recién nacidos. Normalmente, las «partículas virtuales» consisten en pares de electrones y antielectrones que existen momentáneamente antes de aniquilarse uno a otro. Pero, en la distancia de Planck, las pequeñas burbujas representan universos enteros y pueden surgir agujeros de gusano que vuelven a desvanecerse en el vacío. Nuestro propio universo podría haber comenzado como una de estas pequeñas burbujas que flotan en la espuma del espacio-tiempo y que de pronto se inflan por razones que no comprendemos. Como los agujeros de gusano se encuentran naturalmente en la espuma, Thorne partió de la base de que una civilización avanzada podría tomar de algún modo agujeros de gusano de la espuma y después expandirlos y estabilizarlos con energía negativa. Aunque sería un proceso muy difícil, forma parte del reino de las leyes de la física.
Aunque la máquina del tiempo de Thorne parece teóricamente posible, si bien terriblemente difícil de construir desde el punto de vista de la ingeniería, hay una tercera pregunta fastidiosa: ¿infringe el viaje en el tiempo una ley fundamental de la física?

10. Un universo en nuestra habitación
En 1992, Stephen Hawking intentó resolver de una vez por todas la cuestión del viaje en el tiempo. Instintivamente, estaba en contra: si los viajes a través del tiempo fuesen tan habituales como el picnic del domingo, veríamos turistas del futuro mirándonos boquiabiertos y tomando fotografías.
Pero los físicos a menudo citan la novela épica de T. H. White The Once and Future King (La leyenda del rey Arturo), donde una sociedad de hormigas declara: «Todo lo que no está prohibido es obligatorio». [77] Dicho de otro modo, si no hay un principio básico de la física que prohíba el viaje en el tiempo, éste es necesariamente una posibilidad física. (La razón de esto es el principio de incertidumbre. A no ser que algo esté prohibido, los efectos cuánticos y las fluctuaciones lo harán finalmente posible si esperamos lo suficiente. Así, a no ser que haya una ley que lo prohíba, ocurrirá antes o después). Como respuesta, Stephen Hawking propuso una «hipótesis de protección cronológica» que impediría el viaje en el tiempo y, por tanto, «pondría a salvo la historia para los historiadores». Según esta hipótesis, el viaje en el tiempo no es posible porque viola principios físicos específicos.

05-02.jpg
En un espacio de Misner, todo el universo está contenido en una habitación. Las paredes opuestas son idénticas unas con otras, de modo que al entrar en una pared inmediatamente se sale por la pared opuesta. El techo también es idéntico al suelo. El espacio de Misner se estudia a menudo porque tiene la misma topología que un agujero de gusano pero es mucho más fácil de manejar matemáticamente. Si las paredes se movieran, el viaje en el tiempo podría ser posible dentro del universo de Misner.

Como es extremadamente difícil trabajar con soluciones de agujeros de gusano, Hawking empezó su argumentación analizando un universo simplificado descubierto por Charles Misner, de la Universidad de Maryland, que tenía todos los ingredientes del viaje en el tiempo. El espacio de Misner es un espacio idealizado en el que nuestra habitación, por ejemplo, se convierte en el universo entero. Digamos que cada punto de la pared izquierda de nuestra habitación es idéntico al punto correspondiente en la pared derecha. Esto significa que, si nos dirigimos hacia la pared izquierda, no acabaremos con la nariz sangrando, sino que la atravesaremos y reapareceremos por la pared de la derecha. Esto significa que la pared de la izquierda y la de la derecha están unidas, en cierto sentido, como en un cilindro.
Además, los puntos de la pared delantera son idénticos a los de la de detrás y los puntos del techo son idénticos a los del suelo. Así, si nos dirigimos en esta dirección, atravesaremos las paredes de nuestra habitación y volveremos otra vez a ella. No podemos escapar. Dicho de otro modo, ¡nuestra habitación es realmente todo el universo!
Lo realmente raro es que, si miramos cuidadosamente la pared de la izquierda, vemos que en realidad es transparente y que hay un calco de nuestra habitación al otro lado de esta pared. En realidad, hay un clon exacto de uno mismo de pie en la otra habitación, aunque sólo podemos verle la espalda, nunca la parte de delante. Si miramos hacia abajo o hacia arriba, también vemos copias de nosotros mismos. En realidad, hay una secuencia infinita de nosotros mismos delante, detrás, arriba y abajo.
Establecer contacto con nosotros mismos es bastante difícil. Cada vez que volvemos la cabeza para captar una mirada de las caras de los clones, encontramos que también se han girado, por lo que nunca podemos verles la cara. Pero si la habitación es lo bastante pequeña, podríamos pasar la mano por la pared y posarla sobre el hombro del clon que está delante de nosotros. Entonces nos quedaríamos sorprendidos al descubrir que el clon que tenemos detrás también ha alargado el brazo y nos ha puesto la mano en el hombro. Además, podemos alargar las manos a izquierda y derecha, tocando a los clones de nuestro lado, hasta que hay una secuencia infinita de nosotros mismos dándonos las manos. En efecto, hemos dado una vuelta completa alrededor del universo para agarrarnos a nosotros mismos. (No es aconsejable hacer daño a nuestros clones. Si tomamos un arma y la apuntamos al clan que tenemos delante, deberíamos reconsiderar la idea de apretar el gatillo, ¡porque el clan de detrás también nos está apuntando a nosotros!).
En el espacio de Misner, imaginemos que las paredes se desmoronan a nuestro alrededor. Las cosas se ponen interesantes. Digamos que la habitación se contrae y la pared de la derecha se nos acerca lentamente a 3 kilómetros por hora. Si ahora atravesamos la pared izquierda, volveremos de la pared derecha en movimiento, pero potenciados por 3 kilómetros más por hora, de modo que viajaremos a 6 kilómetros por hora. En realidad, cada vez que hacemos un circuito completo hacia la pared de la izquierda, tenemos un empuje adicional de 3 kilómetros por hora al salir de la pared derecha, de modo que ahora viajamos a 9, 12, 15 kilómetros por hora, hasta que poco a poco nos acercamos a velocidades increíbles cercanas a la velocidad de la luz.
En determinado punto crítico, viajamos tan rápido en este universo Misner que vamos hacia atrás en el tiempo. En realidad, podemos visitar cualquier punto anterior del espacio-tiempo. Hawking analizó este espacio Misner a fondo. Encontró que la pared de la izquierda y la de la derecha, hablando matemáticamente, son casi idénticas a las dos bocas de un agujero de gusano. En otras palabras, nuestra habitación se parece a un agujero de gusano, en el que la pared izquierda y la derecha son iguales, similares a las dos bocas de un agujero de gusano, que también son idénticas.
Después señaló que este espacio Misner era inestable tanto desde el punto de vista clásico como del de la mecánica cuántica. Si se enfoca una linterna a la pared izquierda, por ejemplo, el rayo de luz gana energía cada vez que emerge de la pared derecha. El rayo de luz se desplaza hacia el azul, es decir, se hace más energético, hasta que alcanza energía infinita, lo cual es imposible. O el rayo de luz se vuelve tan energético que crea un monstruoso campo gravitatorio propio que colapsa la habitación/agujero de gusano. Así, el agujero de gusano colapsa si intentamos andar a través de él. Además, puede demostrarse que algo llamado el «tensor de energía-momento», que mide el contenido de energía y materia del espacio, se vuelve infinito porque la radiación puede pasar un número infinito de veces a través de las dos paredes.
Para Hawking, éste era el golpe de gracia al viaje en el tiempo: los efectos de la radiación cuántica aumentan hasta el infinito, creando una divergencia, matando al viajero y cerrando el agujero de gusano.
A partir de la cuestión de la divergencia que planteó el trabajo de Hawking, se ha generado una animada discusión en la bibliografía de la física, con científicos adoptando posiciones a favor y en contra con respecto a la protección cronológica. En realidad, varios físicos empezaron a encontrar fisuras en la prueba de Hawking al hallar opciones aptas para agujeros negros, cambiándoles la medida, longitud, etcétera. Encontraron que en algunas soluciones de agujero de gusano, el tensor de energía-momento realmente divergía, pero en otras estaba bien definido. El físico ruso Sergei Krasnikov examinó esta divergencia para distintos tipos de agujeros de gusano y llegó a la conclusión de que «no existe la más mínima prueba que sugiera que la máquina del tiempo tenga que ser inestable». [78]
La marea se extendió tanto en la dirección contraria a Hawking que el físico de Princeton Li-Xin propuso incluso una conjetura de protección anticronológica: «No hay ley de la física que impida la aparición de curvas cerradas del tiempo». [79]
En 1998, Hawking se vio obligado a hacer una especie de retractación. Escribió: «El hecho de que el tensor de energía-momento no llegue a divergir [en algunos casos] demuestra que la retrorreacción no cumple la protección cronológica». Eso no significa que el viaje en el tiempo sea posible, sólo que nuestra comprensión sigue siendo incompleta. El físico Matthew Visser considera que el fracaso de la conjetura de Hawking «no es una confirmación para los entusiastas del viaje en el tiempo, sino más bien una indicación de que resolver cuestiones de protección cronológica requiere una teoría plenamente desarrollada de la gravedad cuántica». [80]
Hoy en día, Hawking ya no dice que el viaje en el tiempo sea absolutamente imposible, sólo que es altamente improbable y poco factible. Las probabilidades están abrumadoramente contra el viaje en el tiempo, pero no se puede descartar del todo. Si de algún modo uno pudiese aprovechar grandes cantidades de energía positiva y negativa y resolver el problema de la estabilidad, el viaje en el tiempo sería realmente posible. (Y quizá la razón por la que no nos acechan los turistas del futuro es que el tiempo más antiguo al que pueden volver es el momento en que se creó la máquina del tiempo y quizá las máquinas del tiempo todavía no han sido creadas).

11. La máquina del tiempo de Gott
En 1991, J. Richard Gott III, de Princeton, propuso otra solución a las ecuaciones de Einstein que permitía el viaje en el tiempo. Su aproximación era interesante, porque partía de un enfoque totalmente nuevo, que abandonaba del todo los objetos giratorios, los agujeros de gusano y la energía negativa.
Gott nació en Louisville, Kentucky, en 1947, y todavía habla con un suave acento sureño que parece un tanto exótico en el mundo sofisticado y turbulento de la física teórica. Se inició en la ciencia de pequeño, cuando se apuntó al club de aficionados a la astronomía y se entusiasmó con la contemplación de las estrellas.
Cuando estudiaba en la escuela, ganó el prestigioso concurso de Westinghouse que buscaba talentos para la ciencia, y desde entonces ha estado asociado a este concurso, en el que ha actuado como presidente del jurado durante muchos años. Después de licenciarse en matemáticas en Harvard, fue a Princeton, donde todavía trabaja.
Mientras investigaba en el campo de la cosmología, se interesó por las «cuerdas cósmicas», un vestigio del big bang que ha sido predicho por muchas teorías. Las cuerdas cósmicas pueden tener un diámetro menor que el de un núcleo atómico, pero su masa puede ser estelar y extenderse durante millones de años luz en el espacio. En primer lugar, Gott encontró una solución a las ecuaciones de Einstein que permitía las cuerdas cósmicas. Pero entonces notó algo poco habitual en relación con estas cuerdas cósmicas. Si tomamos dos cuerdas cósmicas y las enviamos una hacia la otra, justo antes de que colisionen es posible utilizarlas como máquina del tiempo. Primero descubrió que si se hacía todo el viaje alrededor de las cuerdas cósmicas en colisión, el espacio se contraía y adquiría extrañas propiedades. Sabemos que si nos movemos alrededor de una mesa, por ejemplo, y volvemos a donde habíamos empezado, habremos recorrido 360°. Pero cuando un cohete viaja alrededor de dos cuerdas cósmicas, al pasar de una a otra en realidad recorre menos de 360°, porque el espacio se ha encogido. (Esto tiene la topología de un cono. Si nos movemos completamente alrededor de un cono, también encontramos que recorremos menos de 360°). Así, viajando rápidamente alrededor de ambas cuerdas, en realidad podríamos exceder la velocidad de la luz (como lo vería un observador distante), puesto que la distancia total es menor que la esperada. Sin embargo, esto no viola la relatividad especial porque en nuestro propio marco de referencia el cohete nunca supera la velocidad de la luz.
Pero esto también significa que, si viajamos alrededor de las cuerdas cósmicas en colisión, podemos hacer un viaje al pasado. Gott recuerda: «Cuando encontré esta solución, me sentí muy emocionado. La solución sólo utilizaba materia de densidad positiva, moviéndose a velocidades más lentas que la de la luz. En contraste, las soluciones de agujero de gusano requieren material más exótico de densidad-energía negativa (material que pesa menos que nada» [81]).
Pero la energía necesaria para una máquina del tiempo es enorme. «Para dejar que el tiempo viaje al pasado, las cuerdas cósmicas con una masa por unidad de longitud de cerca de 10 billones de toneladas por centímetro deben moverse cada una en direcciones opuestas a velocidades de al menos el 99.999999996% de la velocidad de la luz. Hemos observado protones de alta energía en el universo moviéndose al menos con esta rapidez, por lo que tales velocidades son posibles», [82] observa.
Algunos críticos han señalado que las cuerdas cósmicas son raras, si es que existen, y que las cuerdas cósmicas en colisión son todavía más raras. Por tanto, Gott propuso lo siguiente. Una civilización avanzada puede encontrar una sola cuerda cósmica en el espacio exterior. Utilizando naves espaciales gigantescas y herramientas enormes, podrían dar nueva forma a la cuerda y convertirla en un bucle rectangular ligeramente curvado (parecido a la forma de una butaca reclinable). El bucle, según su hipótesis, podría colapsar bajo su propia gravedad, de modo que dos piezas rectas de la cuerda cósmica podrían volar pasando cada una de ellas junto a la otra a una velocidad próxima a la de la luz, lo cual crearía brevemente una máquina del tiempo. Sin embargo, admite Gott: «Un bucle de cuerda lo bastante largo como para que colapse y nos permita dar la vuelta una vez y volver a tiempo en un año tendría que tener más de la mitad de la energía-masa de toda una galaxia». [83]

12. Las paradojas
Tradicionalmente, otra razón por la que los físicos descartaban la idea del viaje en el tiempo era la de las paradojas del tiempo. Por ejemplo, si uno viaja atrás en el tiempo y mata a sus padres antes de nacer, su nacimiento es imposible. Por tanto, nunca se puede ir atrás en el tiempo para matar a los padres. Esto es importante, porque la ciencia se basa en ideas lógicamente coherentes; una paradoja de tiempo genuina sería suficiente para descartar totalmente el viaje en el tiempo.
Estas paradojas del tiempo pueden agruparse en varias categorías:

En El fin de la eternidad, Isaac Asimov imagina una «policía del tiempo» que se encarga de impedir estas paradojas. Las películas de Terminator dependen de una paradoja de la información: los científicos estudian un microchip recuperado de un robot del futuro y después crean una raza de robots que adquieren conciencia y se apoderan del mundo. En otras palabras, el diseño de estos superrobots no fue creado por un inventor; simplemente salió de un fragmento de desechos de uno de los robots del futuro. En la película Regreso al futuro, Michael J. Fox lucha por evitar una paradoja del abuelo cuando vuelve atrás en el tiempo y conoce a su madre de adolescente, que se enamora locamente de él. Si ella rechaza los avances del futuro padre de Fox, su misma existencia queda amenazada.
Los guionistas infringen voluntariamente las leyes de la física cuando escriben sus éxitos de taquilla, pero en la comunidad de físicos estas paradojas se toman muy en serio. Cualquier solución de estas paradojas debe ser compatible con la relatividad y la teoría cuántica. Por ejemplo, para ser compatible con la relatividad, el río del tiempo simplemente no puede terminar. No puede ponerse un dique al río del tiempo. El tiempo, en la relatividad general, está representado por una superficie suave y continua y no puede ser rasgado ni roto. Puede cambiar de topología, pero no puede detenerse. Esto significa que si uno mata a sus padres antes de nacer, no puede simplemente desaparecer. Esto violaría las leyes de la física.
Actualmente, los físicos se congregan alrededor de dos soluciones posibles a estas paradojas del tiempo. Primero, el cosmólogo ruso Igor Novikov cree que estamos obligados a actuar de manera que no ocurran paradojas. Su aproximación se llama la «escuela de la autocoherencia». Si el río del tiempo se curva suavemente y retrocede creando un remolino, él sugiere que una «mano invisible» de algún tipo intervendría si fuéramos a saltar hacia el pasado y estuviésemos a punto de crear una paradoja del tiempo. Pero la aproximación de Novikov presenta problemas con el libre albedrío. Si volvemos atrás en el tiempo y conocemos a nuestros padres antes de nacer, podríamos pensar que tenemos libre albedrío en nuestras acciones; Novikov cree que una ley de la física no descubierta impide cualquier acción que cambie el futuro (como matar a los padres o impedir el propio nacimiento). Y señala: «No podemos enviar a un viajero del tiempo de regreso al Jardín del Edén para pedirle a Eva que no coja la manzana del árbol». [85]
¿Cuál es esta fuerza misteriosa que nos impide alterar el pasado y crear una paradoja? «Una limitación como ésta sobre nuestro libre albedrío es poco habitual y misteriosa, pero no puede decirse que no tenga parangón», escribe. «Por ejemplo, mi voluntad puede ser andar por el techo sin la ayuda de algún equipo especial. La ley de la gravedad me impide hacerlo; si lo intento me caeré, de modo que mi libre albedrío está limitado.» [86]
Pero las paradojas del tiempo pueden ocurrir cuando la materia inanimada (sin libre albedrío en absoluto) es enviada al pasado. Supongamos que justo antes de la histórica batalla entre Alejandro Magno y Darío III de Persia en el año 330 a. C., enviamos ametralladoras atrás en el tiempo y damos instrucciones de cómo usarlas. Cambiaríamos potencialmente toda la historia europea subsiguiente (y podríamos encontrarnos hablando una versión del idioma persa en lugar de una lengua europea).
En realidad, incluso la más pequeña perturbación en el pasado puede causar paradojas inesperadas en el presente. La teoría del caos, por ejemplo, utiliza la metáfora del «efecto mariposa». En momentos críticos de la formación del clima en la Tierra, incluso el aleteo de una mariposa envía ondas que pueden inclinar el equilibrio de fuerzas y provocar una fuerte tormenta. Hasta los objetos inanimados más pequeños enviados hacia el pasado lo cambiarán inevitablemente de maneras impredecibles, dando lugar a una paradoja del tiempo.
Una segunda manera de resolver la paradoja del tiempo es si el río del tiempo se bifurca suavemente en dos ríos, o ramas, que forman dos universos distintos. En otras palabras, si uno volviera atrás en el tiempo y disparara a sus padres antes de nacer, mataría a personas que genéticamente son idénticas a sus padres en un universo alternativo, un universo en el que nunca nacerá. Pero sus padres en su universo original no se verían afectados.
Esta segunda hipótesis se llama «teoría de muchos mundos»: la idea de que podrían existir todos los mundos cuánticos posibles. Esto elimina las divergencias infinitas que encontró Hawking, [87] ya que la radiación no atraviesa repetidamente el agujero de gusano como en el espacio de Misner. Sólo la atraviesa una vez. Cada vez que pasa a través del agujero de gusano, entra en un nuevo universo. Y esta paradoja lleva quizás a la cuestión más profunda en la teoría cuántica: ¿cómo puede un gato estar vivo y muerto al mismo tiempo?
Para responder a esta pregunta, los físicos se han visto obligados a barajar dos soluciones extravagantes: o bien hay una conciencia cósmica que nos vigila a todos, o bien hay un número infinito de universos cuánticos.

Capítulo 6
Universos cuánticos paralelos

Creo que puedo decir con seguridad que nadie entiende la mecánica cuántica.
Richard Feynman

Cualquier persona que no encuentre asombrosa la teoría cuántica es que no la entiende.
Niels Bohr

El Impulso de Improbabilidad Infinita es un nuevo y maravilloso método para salvar inmensas distancias interestelares en una ínfima fracción de segundo, sin tener que hacer el tonto en el hiperespacio.
Douglas Adams

Contenido:
  1. Dimensión desconocida
  2. Mente de monstruo: John Wheeler
  3. ¿Determinismo o incertidumbre?
  4. Árboles en el bosque
  5. El problema del gato
  6. La bomba
  7. Suma de caminos
  8. El amigo de Wigner
  9. Decoherencia
  10. Muchos mundos
  11. «It from bit»
  12. La computación cuántica y la teleportación
  13. Teleportación cuántica
  14. La función de onda del universo
En la Guía del autoestopista galáctico, la irreverente y extravagante novela de Douglas Adams que fue un éxito de ventas, el protagonista da con un método para viajar a las estrellas de lo más ingenioso. En lugar de utilizar agujeros de gusano, hiperimpulsores o portales dimensionales para su viaje entre las galaxias, se le ocurre aprovechar el principio de incertidumbre para correr por la inmensidad del espacio intergaláctico. Si de algún modo podemos controlar la probabilidad de determinados sucesos improbables, cualquier cosa, incluso viajar más rápido que la luz, y hasta el viaje en el tiempo, es posible. Alcanzar las estrellas distantes en segundos es muy improbable, pero cuando uno puede controlar las probabilidades cuánticas a voluntad, incluso lo imposible deviene normal.
La teoría cuántica se basa en la idea de que hay una probabilidad de que todos los sucesos posibles, por muy fantásticos o tontos que sean, puedan ocurrir. Eso, a su vez, se encuentra en el centro de la teoría del universo inflacionario: cuando se produjo el big bang, hubo una transición cuántica a un nuevo estado en el que el universo súbitamente se expandió en gran manera. Por lo visto, nuestro universo completo puede haber surgido de un salto cuántico altamente improbable. Aunque Adams escribía en broma, los físicos somos conscientes de que, si de algún modo controlásemos estas probabilidades, podríamos llevar a cabo hazañas que serían indistinguibles de la magia. Pero, de momento, alterar las probabilidades de sucesos está muy lejos de nuestra tecnología.
A veces planteo a nuestros alumnos de doctorado de la universidad preguntas fáciles, como, por ejemplo, calcular la probabilidad de que de pronto se disuelvan y se rematerialicen al otro lado de la pared de ladrillo. Según la teoría cuántica, hay una probabilidad calculable de que esto pudiera ocurrir. Como también, ya puestos, de que nos disolvamos en la sala de estar de nuestra casa y aparezcamos en Marte. Según la teoría cuántica, en principio, uno podría rematerializarse súbitamente en el planeta rojo. Desde luego, la probabilidad es tan pequeña que tendríamos que esperar más tiempo que el ciclo de vida del universo. Como resultado, en nuestra vida cotidiana, podemos descartar sucesos tan improbables. Pero a nivel subatómico, estas probabilidades son cruciales para el funcionamiento de la electrónica, los ordenadores y los láseres.
En realidad, los electrones se desmaterializan regularmente y se encuentran rematerializados al otro lado de las paredes dentro de los componentes de nuestro ordenador y CD. La civilización moderna, en realidad, quedaría colapsada si los electrones no pudieran estar en dos sitios al mismo tiempo. (Las moléculas de nuestro cuerpo también se colapsarían sin este extraño principio. Imaginemos dos sistemas solares que colisionan en el espacio obedeciendo las leyes de la gravedad de Newton. Los sistemas solares en colisión colapsarían en un revoltijo caótico de planetas y asteroides. De manera similar, si los átomos obedecieran las leyes de Newton, se desintegrarían siempre que chocasen con otro átomo. Lo que mantiene a dos átomos trabados en una molécula estable es el hecho de que los electrones pueden estar simultáneamente en tantos sitios al mismo tiempo que forman una «nube» de electrones que une los átomos. Así, la razón por la que las moléculas son estables y el universo no se desintegra es que los electrones pueden estar en muchos sitios al mismo tiempo.
Pero si los electrones pueden existir en estados paralelos sosteniéndose entre la existencia y la no existencia, ¿por qué el universo no puede? Al fin y al cabo, en algún momento el universo fue más pequeño que un electrón. Una vez introducimos la posibilidad de aplicar el principio cuántico al universo, estamos obligados a considerar los universos paralelos. Es exactamente esta posibilidad la que se explora en el perturbado relato de fantasía científica de Philip K. Dick El hombre en el castillo. En el libro, hay un universo alternativo separado del nuestro por un solo suceso capital. En 1933, en este universo, la historia del mundo cambia cuando la bala de un asesino mata al presidente Roosevelt durante su primer año de presidente. El vicepresidente Garner ocupa su puesto y establece una política aislacionista que debilita a los Estados Unidos militarmente. Poco preparado para el ataque de Pearl Harbour e incapaz de recuperarse de la destrucción de toda la flota estadounidense, en 1947 Estados Unidos se ve obligado a rendirse a los alemanes y japoneses. Finalmente Estados Unidos se divide en tres partes: el Reich alemán controla la costa este y los japoneses la costa oeste, y se deja una incómoda tierra de nadie, los estados de las Montañas Rocosas, en el medio. En este universo paralelo, un individuo misterioso escribe un libro llamado La langosta se ha posado, basado en una frase de la Biblia, que ha sido prohibida por los nazis. Habla de un universo alternativo en el que Roosevelt no era asesinado y Estados Unidos y Gran Bretaña derrotaban a los nazis. La misión de la protagonista de la historia es ver si hay alguna verdad en este universo alternativo en el que predominan la democracia y la libertad, y no la tiranía y el racismo.

1. Dimensión desconocida
El mundo de El hombre en el castillo y nuestro mundo están separados por un pequeño accidente, la simple bala de un asesino. Sin embargo, también es posible que un mundo paralelo esté separado del nuestro por el suceso más pequeño posible: un solo suceso cuántico, el impacto de un rayo cósmico.
En un episodio de la serie de televisión Dimensión desconocida, un hombre se despierta y descubre que su mujer no lo reconoce. Ella se pone a gritar y le ordena que se vaya si no quiere que llame a la policía. Cuando él deambula por la ciudad, constata que sus amigos de toda la vida no lo reconocen, como si nunca hubiera existido. Finalmente, visita la casa de sus padres y queda absolutamente conmocionado. Sus padres insisten en que no lo habían visto jamás y que nunca tuvieron un hijo. Sin amigos, familia ni casa, vaga sin rumbo por la ciudad y finalmente cae dormido en el banco de un parque, como un vagabundo. Cuando despierta al día siguiente, se encuentra cómodamente instalado en su cama con su esposa al lado. Sin embargo, cuando ella se da la vuelta, él se sorprende al descubrir que no se trata de su esposa, sino de una mujer extraña a la que no había visto nunca.
¿Son posibles estas historias tan ridículas? A lo mejor. Si el protagonista de Dimensión desconocida hubiera preguntado algunas cuestiones reveladoras a su madre, podría haber descubierto que ella tuvo un aborto y por eso no llegó a tener un hijo. A veces, un solo rayo cósmico, una sola partícula del espacio exterior, puede afectar profundamente el ADN del interior de un embrión y causar una mutación que llevará finalmente a un aborto. En este caso, un solo suceso cuántico puede separar dos mundos, uno en el que vivimos como ciudadanos normales y productivos y otro que es exactamente idéntico, sólo que, en él, nosotros no hemos nacido.
Deslizarse entre estos mundos entra dentro de las leyes de la física. Pero es extremadamente improbable; la probabilidad de que ocurra es astronómicamente pequeña. Como puede verse, la teoría cuántica nos da una imagen del universo mucho más extraña que la que nos da Einstein. En la relatividad, el escenario de la vida en el que actuamos puede estar hecho de goma, con los actores viajando por caminos curvados cuando atraviesan el decorado. Como en el mundo de Newton, los actores del mundo de Einstein repiten las frases de un guión que ha sido escrito de antemano. Pero en una obra de teatro cuántico, los actores de pronto tiran el guión y actúan por su cuenta. Las marionetas cortan sus cuerdas. Se ha establecido el libre albedrío. Los actores pueden desaparecer y reaparecer en el escenario. Aún más extraño, pueden encontrarse apareciendo en dos sitios al mismo tiempo. Los actores, cuando representan sus papeles, no saben con certeza si están hablando o no con alguien que de pronto podría desaparecer y reaparecer en otro sitio.

2. Mente de monstruo: John Wheeler
Exceptuando tal vez a Einstein y Bohr, ningún hombre ha luchado más con las absurdidades y éxitos de la teoría cuántica que John Wheeler. ¿Es toda la realidad física una simple ilusión? ¿Existen universos cuánticos paralelos? En el pasado, cuando no estaba reflexionando sobre estas paradojas cuánticas intratables, Wheeler se dedicaba a aplicar estas probabilidades a la construcción de bombas atómicas y de hidrógeno, y fue un pionero del estudio de los agujeros negros. John Wheeler es el último de los gigantes, o «mentes monstruosas», como le llamó en una ocasión su discípulo Richard Feynman, que también forcejeó con las insensatas conclusiones de la teoría cuántica.
Fue Wheeler quien acuñó el término de «agujero negro» en 1967, [88] en una conferencia pronunciada en el Instituto Goddard de Estudios del Espacio de la NASA en Nueva York, después del descubrimiento de los primeros púlsares.
Wheeler nació en 1911 en Jacksonville, Florida. Su padre era bibliotecario, pero la ingeniería corría por la sangre familiar. Tres de sus tíos eran ingenieros de minas y a menudo usaban explosivos en su trabajo. La idea de utilizar la dinamita le fascinaba, y le encantaba contemplar explosiones. (Un día que experimentaba con un trozo de dinamita sin la debida atención, le explotó accidentalmente en la mano y le cercenó parte del pulgar y el extremo de otro dedo. Se da la coincidencia de que, cuando Einstein era estudiante universitario, su falta de cuidado provocó una explosión similar y tuvieron que ponerle varios puntos en la mano).
Wheeler era un niño precoz que dominaba el cálculo y devoraba todos los libros que tenía al alcance sobre la nueva teoría de la que hablaban sus amigos: la mecánica cuántica. Justo ante sus ojos, Niels Bohr, Werner Heisenberg y Erwin Schrödinger estaban desarrollando una nueva teoría en Europa que de pronto desentrañaba los secretos del átomo. Sólo unos años antes, los seguidores del filósofo Ernst Mach se habían burlado de la existencia de átomos, afirmando que nunca se habían observado en el laboratorio y que probablemente eran una ficción. Lo que no podía verse, probablemente no existía, afirmaban. El gran físico alemán Ludwig Boltzmann, que estableció las leyes de la termodinámica, se suicidó en 1906, en parte por el intenso ridículo al que se vio expuesto cuando promovía el concepto de los átomos.
A continuación, en unos años trascendentales, de 1925 a 1927, los secretos del átomo se fueron desvelando. Nunca en la historia moderna (exceptuando el año 1905, con la obra de Einstein) se habían conseguido avances de tal magnitud en tan poco tiempo. Wheeler quería formar parte de esta revolución. Pero se dio cuenta de que los Estados Unidos estaban en segundo término en materia de física; no había ni un solo físico de nivel mundial entre sus filas. Como J. Robert Oppenheimer antes que él, Wheeler se fue de Estados Unidos y se dirigió a Copenhague para aprender del propio maestro, Niels Bohr.
Los anteriores experimentos con electrones habían demostrado que actuaban al mismo tiempo como partículas y como ondas. Esta extraña dualidad fue finalmente desvelada por la física cuántica: se demostró que el electrón, en su baile alrededor del átomo, era una partícula, pero iba acompañada de una misteriosa onda. En 1925, el físico austriaco Erwin Schrödinger propuso una ecuación (la célebre «ecuación de Schrödinger») que describía detalladamente el movimiento de la onda que acompaña al electrón. Esta onda, representada por la letra griega psi, proporcionó unas predicciones asombrosamente precisas sobre la conducta de los átomos que desataron una revolución en la física. De pronto, casi desde los primeros principios, uno podía mirar dentro del átomo para calcular cómo los electrones bailaban en sus órbitas, haciendo transiciones y vinculando a los átomos en las moléculas.
Tal como se vanagloriaba el físico Paul Dirac, la física pronto reduciría toda la química a mera ingeniería. Proclamó: «Las leyes físicas subyacentes necesarias para la teoría matemática de una gran parte de la física y de toda la química son pues totalmente conocidas, y la única dificultad es que la aplicación de estas leyes conduce a ecuaciones demasiado complicadas para ser solubles». [89] A pesar de la espectacularidad de esta función psi, seguía siendo un misterio qué representaba realmente.
Finalmente, en 1928, el físico Max Born propuso la idea de que esta función de onda representaba la probabilidad de encontrar el electrón en cualquier punto dado. Dicho de otro modo, nunca podríamos saber con exactitud dónde estaba un electrón; lo único que se podía hacer era calcular su función de onda, que nos indicaba la probabilidad de que estuviera allí. Así pues, si la física atómica podía reducirse a ondas de probabilidad de que un electrón estuviera aquí o allí, y si un electrón podía estar aparentemente en dos sitios al mismo tiempo, ¿cómo determinamos finalmente dónde está en realidad el electrón?
Bohr y Heisenberg formularon finalmente el conjunto completo de recetas en un libro cuántico de cocina que ha funcionado en los experimentos atómicos con una magnífica precisión. La función de onda sólo nos dice la probabilidad de que el electrón esté localizado aquí o allí. Si la función de onda es grande en un punto determinado, significa que hay una gran probabilidad de que el electrón esté allí. (Si es pequeña, es improbable que el electrón pueda encontrarse allí). Por ejemplo, si pudiéramos «ver» la función de onda de una persona, sería notablemente parecida a la persona en sí. Sin embargo, la función de onda también se filtra suavemente hacia el espacio, lo que significa que hay una pequeña posibilidad de que la persona pueda encontrarse en la Luna. (En realidad, la función de onda de la persona se extiende por todo el universo).
Esto también significa que la función de onda de un árbol puede decirnos la probabilidad de que esté de pie o caído, pero no puede decirnos definitivamente en qué estado se encuentra. Cuando miramos un árbol, el árbol está definitivamente delante de nosotros: está en pie o caído, pero no ambas cosas.
Para resolver la discrepancia entre las ondas de probabilidad y nuestra noción de sentido común de la existencia, Bohr y Heisenberg partieron de la base de que, después de que un observador externo haga una medición, la función de onda se «colapsa» mágicamente y el electrón cae en un estado definido: es decir, después de mirar un árbol, sabemos que está realmente en pie. Dicho de otro modo, el proceso de observación determina el estado final del electrón . La observación es vital para la existencia. Después de mirar al electrón, su función de onda se colapsa, de modo que el electrón está ahora en un estado definido y no hay más necesidad de funciones de onda. Así pues, los postulados de la escuela de Copenhague de Bohr, hablando en términos generales, pueden resumirse del siguiente modo: 3. ¿Determinismo o incertidumbre?
La teoría cuántica es la teoría física de mayor éxito de todos los tiempos. La máxima formulación de la teoría cuántica es el modelo estándar, que representa el fruto de décadas de experimentos con aceleradores de partículas. Partes de esta teoría han sido comprobadas hasta un margen de error de 1 entre 10 mil millones. Si se incluye la masa del neutrino, el modelo estándar concuerda con todos los experimentos sobre partículas subatómicas sin excepción.
Pero por mucho éxito que haya tenido la teoría cuántica, experimentalmente se basa en postulados que han provocado tormentas de controversia filosófica y teológica en los últimos ochenta años. El segundo postulado, en particular, ha causado la ira de las religiones porque se pregunta quién decide nuestro destino. A lo largo de los siglos, filósofos, teólogos y científicos se han visto fascinados por el futuro y por si de algún modo podemos conocer nuestro destino. En el Macbeth de Shakespeare, Banquo, desesperado por descorrer el velo que oculta nuestro destino, dice estos versos memorables:

Si podéis penetrar en las semillas del tiempo
y predecir qué grano dará fruto y cuál no,
Entonces habladme a mí… (Acto I, escena 3)

Shakespeare escribió estas palabras en 1606. Ochenta años después, otro inglés, Isaac Newton, tuvo la audacia de proclamar que sabía la respuesta a esta antigua pregunta. Tanto Newton como Einstein creían en el determinismo, que establece que los acontecimientos futuros pueden ser, en principio, determinados. Para Newton, el universo era un reloj gigantesco al que Dios dio cuerda al principio de los tiempos. Desde entonces, ha funcionado obedeciendo a las tres leyes de la dinámica, de una manera exactamente predecible. El matemático francés Pierre Simon de Laplace, que era consejero científico de Napoleón, escribió que, utilizando las leyes de Newton, podía predecirse el futuro con la misma precisión con que uno ve el pasado. Escribió que, si un ser pudiera conocer la posición y velocidad de todas las partículas del universo, «para un intelecto así, nada sería incierto; y el futuro, como el pasado, estaría presente ante sus ojos». [90] Cuando Laplace presentó a Napoleón una copia de su obra maestra, Mecánica celeste, el emperador le dijo: «Ha escrito esta gran obra sobre el firmamento sin mencionar una sola vez a Dios». Laplace le contestó: «Señor, no necesito esa hipótesis».
Para Newton y Einstein, la idea del libre albedrío, de que nosotros somos los amos de nuestro destino, era una ilusión. A la idea de sentido común de la realidad, según la cual los objetos concretos que tocamos son reales y existen en estados definidos, Einstein la llamó «realidad objetiva». Presentó su posición con la mayor claridad de este modo:
Soy determinista, obligado a actuar como si existiera el libre albedrío, porque si deseo vivir en una sociedad civilizada, tengo que actuar con responsabilidad. Sé que filosóficamente un criminal no es responsable de sus delitos, pero prefiero no tomar el té con él. Mi carrera se ha visto determinada por varias fuerzas sobre las que no tengo control, principalmente por estas glándulas misteriosas en las que la naturaleza prepara la esencia de la vida. Henry Ford puede llamarlas su Voz Interior, Sócrates se refería a ellas como su daimon: cada hombre explica a su manera el hecho de que la voluntad humana no es libre. […] Todo está determinado […] por fuerzas sobre las que no tenemos control […] tanto para el insecto como para la estrella. [91]
Los seres humanos, los vegetales o el polvo cósmico, todos bailamos al compás de un tiempo misterioso, entonado en la distancia por un intérprete invisible. Los teólogos también han forcejeado con esta cuestión. La mayoría de las religiones del mundo creen en algún tipo de predestinación, la idea de que Dios no sólo es omnipotente (todopoderoso) y omnipresente (está en todas partes), sino que es omnisciente (lo sabe todo, incluso el futuro). En algunas religiones, eso significa que Dios sabe si iremos al cielo o al infierno antes incluso de que hayamos nacido. En esencia, hay un «libro del destino» en alguna parte del cielo con todos nuestros nombres anotados, incluyendo la fecha de nuestro nacimiento, nuestros fracasos y triunfos, nuestras alegrías y defectos, incluso la fecha de nuestra muerte, y si viviremos en el paraíso o seremos condenados eternamente. (Esta delicada cuestión teológica de la predestinación contribuyó a dividir a la Iglesia Católica en 1517, cuando Martín Lutero clavó en la puerta de la iglesia de Wittenberg sus noventa y cinco tesis. Éstas atacaban la práctica de la iglesia de vender indulgencias, que en esencia eran sobornos que pavimentaban el camino hacia el cielo para los pudientes. A lo mejor, parecía decir Lutero, Dios sabía nuestro futuro antes de tiempo y nuestros destinos están predestinados, pero no se puede convencer a Dios de que cambie de idea haciendo una bonita donación a la iglesia). Pero para los físicos que aceptan el concepto de probabilidad, el postulado claramente más controvertido es el tercero, que ha provocado quebraderos de cabeza a generaciones de físicos y filósofos. La «observación» es un concepto poco preciso y mal definido. Además, se basa en el hecho de que hay en realidad dos tipos de física: uno para el extraño mundo subatómico, en el que los electrones aparentemente pueden estar en dos sitios a la vez, y otro para el mundo macroscópico en el que vivimos, que parece obedecer a las leyes de sentido común de Newton. Según Bohr, hay un «muro» invisible que separa el mundo atómico del mundo macroscópico familiar y cotidiano. Mientras el mundo atómico obedece a las extrañas leyes de la teoría cuántica, nosotros vivimos nuestras vidas fuera del muro, en un mundo de planetas y estrellas bien definidos donde las ondas ya se han descompuesto. A Wheeler, que aprendió la mecánica cuántica de sus creadores, le gustaba resumir las dos escuelas de pensamiento sobre esta cuestión. Ofrecía el ejemplo de tres árbitros de un partido de béisbol que discuten sobre los más delicados puntos. Al tomar la decisión, cada uno de ellos dice: Número 1: Doy los puntos según los veo. Número 2: Doy los puntos cuando son. Número 3: No son nada hasta que yo los doy. [92]
Para Wheeler, el segundo árbitro es Einstein, que creía que había una realidad absoluta fuera de la experiencia humana.
Einstein la llamaba «realidad objetiva», la idea de que los objetos pueden existir en estados definidos sin intervención humana. El tercer árbitro es Bohr, que defendía que la realidad sólo existía después de haberla observado.

4. Árboles en el bosque
Los físicos a veces miran a los filósofos con cierto desdén y citan a Cicerón, que dijo una vez: «No hay nada tan absurdo que no haya sido dicho por los filósofos». El matemático Stanislaw Ulam, a quien no le parecía nada bien dar nombres elevados a conceptos estúpidos, dijo una vez: «La locura es la capacidad de hacer grandes distinciones entre diferentes tipos de tonterías». [93] El propio Einstein escribió una vez hablando de filosofía: « ¿No es como si toda la filosofía estuviera escrita en la miel? Se ve maravillosa cuando uno la contempla, pero cuando vuelve a mirar ha desaparecido. Sólo queda algo pegajoso». [94]
A los físicos también les gusta contar la historia apócrifa [95] supuestamente contada por el director de una universidad que contemplaba con exasperación el presupuesto asignado a los departamentos de Física, Matemáticas y Filosofía. Supuestamente, dijo: « ¿Por qué los físicos piden siempre un equipo tan caro? El departamento de Matemáticas sólo pide dinero para papel, lápices y papeleras, y el departamento de Filosofía es mejor aún. Ni siquiera pide papeleras».
Sin embargo, es posible que los filósofos sean los últimos en reír. La teoría cuántica está incompleta y descansa sobre una base filosófica tambaleante. Esta controversia cuántica obliga a reexaminar la obra de filósofos como el obispo Berkeley, que en el siglo XVIII afirmaba que los objetos existían sólo porque los humanos están aquí para observarlos, una filosofía llamada «solipsismo» o «idealismo». Si cae un árbol en el bosque pero nadie lo ve, no cae realmente, dicen.
Ahora tenemos una reinterpretación cuántica de los árboles que caen en el bosque. Antes de hacer la observación, no sabemos si ha caído o no. En realidad, el árbol existe en todos los estados posibles simultáneamente: puede estar quemado, caído, convertido en leña, en polvo, etcétera. Una vez hecha la observación, el árbol aparece de pronto en un estado definido y vemos, por ejemplo, que ha caído.
Comparando la dificultad filosófica de la relatividad y la teoría cuántica, Feynman señaló en una ocasión: «Hubo un tiempo en que los periódicos decían que sólo doce hombres comprendían la teoría de la relatividad. No creo que existiera nunca un tiempo así. […] Por otro lado, creo que puedo decir con toda seguridad que nadie comprende la mecánica cuántica». [96] Según dice, la mecánica cuántica «describe la naturaleza como absurda desde el punto de vista del sentido común. Y está totalmente de acuerdo con el experimento. Por tanto, confío en que podamos aceptar la naturaleza tal como es: absurda». [97]Esto ha creado un sentimiento de incomodidad entre los muchos físicos en ejercicio, que creen que están creando mundos enteros sobre arenas movedizas. Steven Weinberg escribe: «Admito sentir cierta incomodidad por el hecho de trabajar toda la vida en un marco teórico que nadie entiende del todo». [98]
En la ciencia tradicional, el observador intenta mantenerse lo más desapasionadamente posible alejado del mundo. (Como dijo un bromista en una ocasión: «Siempre puede distinguirse al científico en un club de striptease, porque es el único que examina al público»). Pero ahora, por primera vez, vemos que es imposible separar al observador del observado. Como señaló una vez Max Planck: «La ciencia no puede resolver el misterio definitivo de la Naturaleza. Y es porque en último término nosotros mismos somos parte del misterio que intentamos resolver». [99]

5. El problema del gato
Erwin Schrödinger, artífice de la ecuación de onda, pensó que este asunto estaba yendo demasiado lejos. Confesó a Bohr que se arrepentía de haber propuesto el concepto de onda si servía para introducir el concepto de probabilidad en la física.
Para demoler la idea de las probabilidades, propuso un experimento. Imaginemos un gato encerrado en una caja. Dentro de la caja hay una botella de gas venenoso, conectada a un martillo, que a su vez está conectado a un contador Geiger colocado cerca de una pieza de uranio. Nadie discute que la descomposición radiactiva del átomo de uranio es un suceso meramente cuántico cuyo próximo evento no se puede predecir. Digamos que hay un 50% de posibilidades de que un átomo de uranio se desintegre en el próximo segundo. Pero, si lo hace, pone en marcha el contador Geiger, que acciona el martillo, que rompe el vidrio y mata al gato. Antes de abrir la caja, es imposible decir si el gato está vivo o muerto. En realidad, para describir al gato, los físicos añaden la función de onda del gato vivo y del gato muerto, es decir, ponemos al gato en un mundo imaginario en el que está un 50% muerto y un 50% vivo simultáneamente.
Ahora abrimos la caja. Tan pronto como miramos su interior realizamos una observación, la función de onda se colapsa y vemos que el gato está, por ejemplo, vivo. Para Schrödinger, esto era una tontería. ¿Cómo puede un gato estar muerto y vivo al mismo tiempo sólo porque no lo hemos visto? ¿Existe súbitamente en cuanto lo observamos? A Einstein tampoco le complacía esta interpretación. Siempre que tenía invitados en casa, les decía: mirad la Luna. ¿Existe súbitamente cuando la mira un ratón? Einstein creía que la respuesta era que no. Pero, en cierto sentido, la respuesta podría ser que sí.
Las cosas finalmente alcanzaron un punto crítico en 1930, en un enfrentamiento histórico en la Conferencia Solvay entre Einstein y Bohr. Wheeler señalaría más tarde que había sido el mayor debate de la historia intelectual. En treinta años, nunca había tenido noticias de un debate entre dos grandes hombres sobre un tema tan profundo y con tan profundas consecuencias para la comprensión del universo.
Einstein, siempre atrevido, descarado y sumamente elocuente, propuso un aluvión de «experimentos mentales» para demoler la teoría cuántica. Bohr, que murmuraba incesantemente, se echaba atrás después de cada ataque. El físico Paul Ehrenfest observó: «Para mí fue maravilloso estar presente en los diálogos entre Bohr y Einstein, como un jugador de ajedrez, con ejemplos siempre nuevos. Una especie de movimiento perpetuo del segundo tipo, decidido a romper la incertidumbre. Bohr, envuelto siempre en una nube de humo filosófico, buscando las herramientas para destruir un ejemplo tras otro. Einstein como una caja de sorpresas con su muñeco a resorte renovado cada mañana. ¡Oh, fue maravilloso! Pero yo estoy casi sin reservas a favor de Bohr y contra Einstein. Ahora éste se comporta con Bohr exactamente como los paladines de la simultaneidad absoluta se comportaron con él». [100]
Finalmente, Einstein propuso un experimento que pensó que daría el golpe de gracia a la teoría cuántica. Imaginemos una caja que contenga un gas de fotones. Si la caja tiene un disparador, se puede soltar brevemente un solo fotón. Como uno puede medir la velocidad del disparador con precisión, y también puede medir la energía del fotón, se podrá determinar el estado de éste con precisión infinita, infringiendo así el principio de incertidumbre.
Ehrenfest escribió: «Para Bohr, aquello fue un duro golpe. En aquel momento, no veía solución alguna. Estuvo extremadamente apagado toda la noche, iba de una persona a otra intentando convencerlas de que eso no podía ser verdad, porque si Einstein tenía razón, significaba el fin de la física. Pero no se le ocurría ninguna refutación. Nunca olvidaré la visión de los dos oponentes saliendo del club de la universidad. Einstein, una figura majestuosa, andando airoso con una sonrisa ligeramente irónica en la cara, y Bohr trotando a su lado extremadamente preocupado». [101]
Cuando más tarde Ehrenfest vio a Bohr, lo encontró enmudecido de rabia; lo único que podía hacer era murmurar una y otra vez la misma palabra: «Einstein… Einstein… Einstein».
Al día siguiente, después de una noche intensa sin dormir, Bohr consiguió encontrar un pequeño fallo en la argumentación de Einstein. Después de emitir el fotón, la caja era ligeramente menos pesada, porque la materia y la energía eran equivalentes. Eso significaba que la caja se aligeraba levemente por la gravedad, ya que la energía tiene peso, según la propia teoría de la gravedad de Einstein. Pero esto introducía la incertidumbre en la energía del fotón. Si uno calculaba entonces la incertidumbre en el peso y en la velocidad del disparador, encontraba que la caja obedecía exactamente al principio de incertidumbre. De hecho, Bohr había usado la teoría de la gravedad del propio Einstein para rebatirlo. Bohr había salido victorioso. Einstein fue derrotado.
Dicen que, cuando más tarde Einstein se quejó de que «Dios no juega a los dados con el mundo», Bohr le contestó: «Deja de decirle a Dios lo que tiene que hacer». Finalmente, Einstein admitió que Bohr había rebatido sus argumentos con éxito, y escribió: «Estoy convencido de que esta teoría contiene sin ninguna duda un fragmento de verdad definitiva». [102] (A pesar de todo, Einstein desdeñaba a los físicos que no apreciaban las sutiles paradojas inherentes a la teoría cuántica. En una ocasión escribió: «Desde luego, hoy en día cualquier granuja cree tener la respuesta, pero se engaña»). [103]
Después de éste y otros encendidos debates con físicos cuánticos, Einstein finalmente cedió, pero adoptó un enfoque diferente. Reconoció que la teoría cuántica era correcta, pero sólo dentro de determinado dominio, sólo como aproximación a la verdad real. Del mismo modo que la relatividad generalizaba (pero no destruía) la teoría de Newton, él quería integrar la teoría cuántica en una teoría más general y más potente, la teoría del campo unificado.
(Este debate entre Einstein y Schrödinger, por un lado, y Bohr y Heisenberg, por otro, no puede desestimarse fácilmente, porque ahora estos «experimentos mentales» pueden realizarse en el laboratorio. Aunque los científicos no pueden hacer que un gato aparezca tanto muerto como vivo, pueden manipular átomos individuales con la nanotecnología. Hace poco, estos endiablados experimentos se realizaron con una Buckyball que contenía sesenta átomos de carbono, de modo que el «muro» imaginado por Bohr que separa grandes objetos de objetos cuánticos se desmorona rápidamente. Los físicos experimentales incluso piensan ahora en qué se necesitaría para demostrar que un virus, consistente en miles de átomos, puede estar en dos lugares al mismo tiempo).

6. La bomba
Desgraciadamente, las discusiones sobre estas deliciosas paradojas se vieron interrumpidas con la llegada de Hitler al poder en 1933 y la carrera por la construcción de una bomba atómica. Se sabía desde hacía años, a través de la famosa ecuación de Einstein E = mc2, que había un inmenso almacén de energía encerrado en el átomo. Pero la mayoría de los físicos desdeñaban la idea de llegar a utilizar jamás esta energía. Incluso Ernest Rutherford, el hombre que descubrió el núcleo del átomo, dijo: «La energía producida por la desintegración del átomo es algo muy pobre. Quien diga que espera una fuente de energía de la transformación de estos átomos dice tonterías». [104]
En 1939, Bohr hizo un viaje fatídico a los Estados Unidos y aterrizó en Nueva York para encontrarse con su discípulo John Wheeler. Le llevaba noticias que no auguraban nada bueno: Otto Hahn y Lise Meitner habían demostrado que el núcleo de uranio podía dividirse en dos, liberando energía en un proceso llamado «fisión». Bohr y Wheeler empezaron a calcular la dinámica cuántica de la fisión nuclear. Como en la teoría cuántica todo es cuestión de probabilidad y posibilidad, estimaron la probabilidad de que un neutrón rompiera el núcleo de uranio, liberando dos o más neutrones, que después fisionarían otros núcleos de uranio, los cuales, acto seguido, liberarían aún más neutrones, y así sucesivamente, produciendo una reacción en cadena capaz de devastar una ciudad moderna. (En la mecánica cuántica, nunca se sabe si un neutrón particular fisionará un átomo de uranio, pero puede calcularse con una exactitud increíble la probabilidad de que miles de millones de átomos de uranio fisionen formando una bomba. Éste es el poder de la mecánica cuántica).
Sus cálculos cuánticos indicaron que la bomba atómica podía llegar a ser posible. Dos meses después, Bohr, Eugene Wigner, Leo Szilard y Wheeler se reunieron en el antiguo despacho de Einstein en Princeton para comentar las posibilidades de una bomba atómica. Bohr creía que se necesitarían los recursos de toda una nación para construir la bomba. (Unos años más tarde, Szilard convencería a Einstein de escribir la fatídica carta al presidente Franklin Roosevelt en la que le exhortaba a construir la bomba atómica).
Aquel mismo año, los nazis, conscientes de que la liberación catastrófica de energía a partir del átomo de uranio les daría un arma invencible, ordenaron a Heisenberg, el discípulo de Bohr, que creara la bomba atómica para Hitler. De la noche a la mañana las discusiones sobre la probabilidad cuántica de la fisión adquirieron una gravedad mortal y pusieron en la picota el destino de la humanidad. Las discusiones sobre la probabilidad de encontrar gatos vivos pronto serían reemplazadas por las de la probabilidad de fisionar el uranio.
En 1941, con la invasión nazi de gran parte de Europa, Heisenberg hizo un viaje secreto para ver a su antiguo mentor, Bohr, en Copenhague. La naturaleza precisa de la reunión todavía está rodeada de misterio, y sobre ella se han escrito obras de teatro que han ganado premios, si bien los historiadores todavía debaten su contenido. ¿Se ofreció Heisenberg para sabotear la bomba atómica nazi, o intentó reclutar a Bohr para fabricarla? Seis décadas después, en 2002, gran parte del misterio sobre las intenciones de Heisenberg fue finalmente desvelado cuando la familia de Bohr publicó la carta que Bohr escribió a Heisenberg en la década de 1950 pero que nunca envió. En esta carta, Bohr recordaba que Heisenberg le había dicho en la reunión que la victoria nazi era inevitable y, como era imposible evitar al gigante nazi, lo más lógico era que Bohr trabajase para los nazis. [105]
Bohr estaba consternado, absolutamente horrorizado. Temblando, se negó a permitir que su trabajo sobre la teoría cuántica cayera en manos de los nazis. Como Dinamarca estaba bajo control nazi, Bohr planeó una fuga secreta en avión, y estuvo a punto de asfixiarse por falta de oxígeno en su vuelo hacia la libertad.
Mientras tanto, en la Universidad de Columbia, Enrico Fermi había demostrado que era factible una reacción nuclear en cadena. Después de llegar a esta conclusión, echó una mirada sobre la ciudad de Nueva York y tomó conciencia de que una sola bomba podría destruir todos aquellos famosos edificios que se perfilaban contra el horizonte. Wheeler, consciente de lo mucho que estaba en juego, dejó Princeton voluntariamente y se reunió con Fermi en el sótano de Stagg Field, en la Universidad de Chicago, donde juntos construyeron el primer reactor nuclear e inauguraron oficialmente la era nuclear.
Durante la década siguiente, Wheeler fue testigo de algunos de los avances más trascendentales en la guerra atómica. Durante la guerra, ayudó a supervisar la construcción de la colosal Reserva Hanford en el estado de Washington, que produjo el plutonio crudo necesario para construir las bombas que devastarían Nagasaki. Unos años después, trabajó en la bomba de este tipo y fue testigo de la explosión de la primera bomba de hidrógeno en 1952 y la devastación que provocó cuando se dejó caer un fragmento de Sol sobre una pequeña isla del Pacífico. Pero, después de haber estado en la vanguardia de la historia del mundo durante una década, Wheeler volvió a su primer amor, los misterios de la teoría cuántica.

7. Suma de caminos
Uno de los muchos alumnos de Wheeler después de la guerra fue Richard Feynman, que tropezó con la manera quizá más simple pero también más profunda de resumir las complejidades de la teoría cuántica. (Una consecuencia de esta idea le reportaría a Feynman el premio Nobel en 1965). Digamos que queremos atravesar andando la habitación. Según Newton, tomaremos simplemente el camino más corto, de A a B, llamado el «camino clásico». Pero, según Feynman, primero tendríamos que considerar todos los caminos posibles que conectan los puntos A y B, es decir, los caminos que nos llevan a Marte, a Júpiter, a la estrella más cercana, incluso los caminos que vuelven atrás en el tiempo, hasta el big bang. Aunque los caminos sean una locura o de lo más estrambótico, hay que considerarlos. Entonces Feynman asignó un número a cada camino, dando una serie precisa de normas para calcular este número. Milagrosamente, sumando estos números de todos los caminos posibles, se encuentra la probabilidad de ir andando del punto A al punto B que da la mecánica cuántica estándar.
Feynman encontró que la suma de estos números de caminos, que eran estrambóticos e infringían las leyes de la dinámica de Newton, normalmente se anulaba para dar un total pequeño. Esto era el origen de las fluctuaciones cuánticas; es decir, representaban caminos cuyas sumas eran muy pequeñas. Pero también encontró que el camino newtoniano más lleno de sentido común era el que no se anulaba y, por tanto, daba el total más grande; era el camino con la mayor probabilidad. Así, nuestra idea llena de sentido común del universo físico es simplemente el estado más probable entre un número infinito de estados. Pero coexistimos con todos los estados posibles, algunos de los cuales nos remontan a la era de los dinosaurios, a la supernova más cercana y a los confines del universo. (Estos caminos estrambóticos crean pequeñas desviaciones del camino en sentido newtoniano, pero afortunadamente se asocian a una probabilidad muy baja).
Dicho de otro modo, por raro que parezca, cada vez que uno atraviesa la habitación, de algún modo su cuerpo «huele» todos los caminos posibles por delante del tiempo, incluso aquellos que se extienden a los quásares distantes y al big bang, y entonces los suma. Utilizando la poderosa matemática de las llamadas «integrales funcionales», Feynman demostró que el camino newtoniano es simplemente el camino más probable, no el único. En un tour de force matemático, Feynman fue capaz de demostrar que esta imagen, por asombrosa que pueda parecer, equivale exactamente a la mecánica cuántica ordinaria. (En realidad, Feynman fue capaz de ofrecer una derivación de la ecuación de onda de Schrödinger utilizando este enfoque).
El valor de la «suma de caminos» de Feynman es que hoy, cuando formulamos las teorías GUT, la inflación o incluso la teoría de cuerdas, utilizamos el punto de vista de la «integral de camino» de Feynman. Este método se enseña ahora en todas las universidades del mundo y es con ventaja la manera más vigorosa y conveniente de formular la teoría cuántica. (Yo utilizo el enfoque de la integral de camino de Feynman todos los días en mi propia investigación. Cada ecuación que escribo está escrita en función de esta suma de caminos. Cuando estudié por primera vez el punto de vista de Feynman en la universidad, mi imagen mental del universo cambió de arriba a abajo. Intelectualmente, entendí las matemáticas abstractas de la teoría cuántica y la relatividad general, pero lo que alteró mi visión del mundo fue la idea de que, en cierto sentido, yo huelo los caminos que me llevan a Marte o a las estrellas distantes cuando recorro la habitación. De pronto, tuve una extraña imagen mental nueva de mí mismo viviendo en un mundo cuántico. Empecé a darme cuenta de que la teoría cuántica es mucho más extraña que las endiabladas consecuencias de la relatividad).
Cuando Feynman desarrolló esta formulación chocante, Wheeler, que estaba en la Universidad de Princeton, corrió al Instituto de Estudios Avanzados, que estaba al lado, para hablar con Einstein y convencerlo de la elegancia y el vigor de esta nueva imagen. Wheeler le contó con entusiasmo la nueva teoría de las integrales de camino de Feynman. Wheeler no era plenamente consciente de lo raro y estrambótico que debía sonarle todo aquello a Einstein. Más tarde, Einstein meneó la cabeza y repitió que seguía sin creer que Dios jugara a los dados con el mundo. Reconoció que podía estar equivocado, pero también estaba seguro de que se había ganado el derecho a equivocarse.

8. El amigo de Wigner
La mayoría de los físicos encogen los hombros y levantan las manos cuando se les enfrenta a las endiabladas paradojas de la mecánica cuántica. Para la mayoría de científicos practicantes, la mecánica cuántica es una serie de recetas de libro de cocina que provee las probabilidades correctas con una exactitud asombrosa. Como ha dicho John Polkinghorne, el físico convertido en cura: «La mecánica cuántica media no es más filosófica que la mecánica media del motor». [106]
Sin embargo, algunos de los pensadores más profundos de la física han luchado con estas cuestiones. Por ejemplo, hay varias maneras de resolver el problema del gato de Schrödinger. La primera, defendida por el Nobel Eugene Wigner y otros, es que la conciencia determina la existencia. Wigner ha escrito que «no era posible formular las leyes de la mecánica cuántica de una manera plenamente coherente sin referirse a la conciencia [del observador] […] el estudio del mundo externo llevaba a la conclusión de que el contenido de la conciencia es la realidad definitiva». [107] O, como escribió una vez el poeta John Keats: «Nada se vuelve real hasta que se experimenta». [108]
Pero si hago una observación, ¿qué va a determinar el estado en el que estoy? Eso significa que alguien más tiene que observarme a mí para colapsar mi función de onda. Esto recibe a veces el nombre de «el amigo de Wigner». Pero también significa que alguien tiene que observar al amigo de Wigner, y al amigo del amigo de Wigner, y así sucesivamente. ¿Hay una conciencia cósmica que determina toda la secuencia de amigos observando todo el universo?
Un físico que cree firmemente en el papel central de la conciencia es Andrei Linde, uno de los fundadores del universo inflacionario.
Como ser humano, no conozco ningún sentido en el que pueda decir que el universo está aquí en ausencia de observadores. Estamos juntos, el universo y nosotros. Si me dices que el universo existe sin observadores, no puedo encontrar ningún sentido en ello. No puedo imaginar una teoría coherente del todo que ignore la conciencia. Un mecanismo de grabación no puede representar el papel de un observador, porque ¿quién leerá lo que está escrito en este mecanismo? A fin de que veamos que ocurre algo, y que nos digamos uno a otro que ocurre algo, necesitamos tener un universo, necesitamos tener un mecanismo de grabación y nos necesitamos a nosotros. […] En ausencia de observadores, nuestro universo está muerto. [109]
Según la filosofía de Linde, los fósiles de dinosaurio no existen realmente hasta que los vemos. Pero, cuando los vemos, aparecen como si hubieran existido hace millones de años. (Los físicos que mantienen este punto de vista procuran señalar que esta imagen es experimentalmente coherente con un mundo en el que los fósiles de dinosaurio tienen en realidad millones de años).
(Algunas personas a quienes les disgusta introducir la conciencia en la física afirman que una cámara puede hacer una observación de un electrón y, por tanto, las funciones de onda pueden colapsar sin recurrir a los seres conscientes. Pero ¿quién dice entonces si la cámara existe? Es necesaria otra cámara para observar a la primera y una tercera para observar a la segunda, ad infinitum. Así pues, introducir cámaras no responde la pregunta de cómo colapsan las funciones de onda).

9. Decoherencia
Una manera de resolver parcialmente algunas de estas espinosas cuestiones que ha adquirido popularidad entre los físicos es la llamada «decoherencia». Fue formulada por primera vez por el físico alemán Dieter Zeh en 1970. Se dio cuenta de que en el mundo real no se puede separar al gato de su entorno. El gato está en contacto constante con las moléculas del aire, la caja e incluso los rayos cósmicos que pasan a través del experimento. Estas interacciones, por pequeñas que sean, afectan radicalmente a la función de onda: si la función de onda se ve perturbada, por poco que sea, ésta se parte súbitamente en dos funciones de onda del gato muerto o el gato vivo, que dejan de interaccionar. Zeh demostró que una colisión con una sola molécula de aire era suficiente para colapsarla, obligando a la separación permanente de las funciones de onda del gato muerto y el gato vivo, que ya no pueden comunicarse uno con otro. Dicho de otro modo, antes incluso de abrir la caja, el gato ha estado en contacto con moléculas de aire y, por tanto, está ya vivo o muerto.
Zeh hizo la observación clave que se había pasado por alto: para que el gato estuviera al mismo tiempo vivo y muerto, la función de onda del gato muerto y la del gato vivo deberían estar vibrando casi en sincronización exacta, un estado llamado «coherencia». Pero, experimentalmente, esto es casi imposible. Crear objetos coherentes que vibren al unísono en el laboratorio es extremadamente difícil. (En la práctica, es difícil conseguir que vibren coherentemente más de un puñado de átomos a causa de la interferencia del mundo exterior). En el mundo real, los objetos interaccionan con el entorno, y la interacción más ligera con el mundo exterior puede perturbar las dos funciones de onda, lo cual haría que, a continuación, empezase la «decoherencia», es decir, la pérdida de la sincronización y separación. Zeh demostró que una vez las dos funciones de onda dejan de vibrar en fase una con otra, éstas dejan de interaccionar una con otra.

10. Muchos mundos
De entrada, la decoherencia suena muy satisfactoria, porque la función de onda no se colapsa por la conciencia, sino por las interacciones aleatorias con el mundo exterior. Pero sigue sin resolver la cuestión fundamental que preocupaba a Einstein: ¿cómo «elige» la naturaleza en qué estado se colapsa? Cuando una molécula de aire golpea al gato, ¿quién o qué determina el estado final de éste? Sobre esta cuestión, la teoría de la decoherencia simplemente afirma que las dos funciones de onda se separan y no interaccionan, pero no responde a la pregunta original: ¿el gato está vivo o muerto? En otras palabras, la decoherencia hace innecesaria la conciencia en la mecánica cuántica, pero no resuelve la cuestión clave que preocupaba a Einstein: ¿cómo elige la naturaleza el estado final del gato? Sobre esta cuestión, la teoría de la decoherencia guarda silencio.
Sin embargo, hay una extensión natural de la decoherencia que resuelve esta cuestión y actualmente está consiguiendo mucha aceptación entre los físicos. Este segundo enfoque fue promovido por otro de los discípulos de Wheeler, Hugh Everett III, que comentó la posibilidad de que tal vez el gato pudiera estar vivo y muerto al mismo tiempo pero en dos universos diferentes. Cuando Everett terminó su tesis doctoral en 1957, apenas tuvo impacto. Sin embargo, a lo largo de los años, empezó a aumentar el interés por la interpretación de «muchos mundos». Hoy en día, ha generado una marea de interés renovado en las paradojas de la teoría cuántica.
En esta interpretación radicalmente nueva, el gato está vivo y muerto al mismo tiempo porque el universo se ha partido en dos. En un universo, el gato está muerto; en otro, está vivo. En realidad, en cada coyuntura cuántica, el universo se divide por la mitad, en una secuencia interminable de división de universos. Todos los universos son posibles en este guión, cada uno tan real como el otro. Los que viven en cada universo podrían protestar vigorosamente diciendo que su universo es el real y que todos los demás son imaginarios o fraudulentos. Estos universos paralelos no son mundos fantasmagóricos con una existencia efímera; dentro de cada universo, tenemos el aspecto de objetos sólidos y acontecimientos concretos y tan objetivos como los otros.
La ventaja de esta interpretación es que podemos omitir la condición número tres, el colapso de la función de onda. Las funciones de onda nunca colapsan, simplemente siguen evolucionando, dividiéndose siempre en otras funciones de onda, en un árbol interminable en el que cada rama representa todo un universo. La gran ventaja de la teoría de muchos mundos es que es más sencilla que la interpretación de Copenhague: no requiere el colapso de la función de onda. El precio que pagamos es que ahora tenemos universos que se dividen continuamente en millones de ramas. (A algunos les parece difícil mantener el rastro de toda esta proliferación de universos. Sin embargo, la ecuación de onda de Schrödinger lo hace automáticamente. Siguiendo simplemente la evolución de la ecuación de onda, uno encuentra inmediatamente todas las demás ramas de la onda).
Si esta interpretación es correcta, en este mismo instante nuestro cuerpo coexiste con las funciones de onda de unos dinosaurios enzarzados en un combate mortal. Coexistiendo en la habitación donde estamos está la función de onda de un mundo en el que los alemanes ganaron la Segunda Guerra Mundial, en el que deambulan alienígenas del espacio exterior, en el que no habríamos nacido. Los mundos de El hombre en el castillo y Dimensión desconocida están entre los universos existentes en nuestra sala de estar. El truco es que ya no podemos interaccionar con ellos, porque están en decoherencia con nosotros.
Como ha dicho Alan Guth: «Hay un universo en el que Elvis sigue vivo». [110] El físico Frank Wilczek ha escrito: «Nos ronda la conciencia de que un número infinito de copias con ligeras variaciones de nosotros mismos viven sus vidas paralelas y que en cada momento surgen más duplicados y adoptan nuestros muchos futuros alternativos». [111] Apunta que la historia de la civilización griega, y, por tanto, del mundo occidental podría haber sido diferente si Helena de Troya no hubiera sido una belleza tan cautivadora y hubiera tenido una horrible verruga en la nariz. «Bueno, las verrugas pueden aparecer por mutaciones de células, a menudo provocadas por la exposición a los rayos ultravioleta del sol». Sigue diciendo: «Conclusión: hay muchos, muchos mundos en los que Helena de Troya tenía una verruga en la punta de la nariz».
Me hace pensar en el pasaje de la obra clásica de ciencia ficción de Olaf Stapledon, Hacedor de estrellas: «Siempre que una criatura se enfrentaba a varios cursos de acción posible, los tomaba todos, creando de este modo muchas […] historias distintas del cosmos. Como en cada secuencia evolutiva del cosmos había muchas criaturas y cada una se enfrentaba constantemente a muchos cursos posibles, y las combinaciones de todos sus cursos eran innumerables, una infinidad de universos distintos se exfolian de cada momento de cada secuencia temporal». [112]
Nuestro pensamiento se tambalea cuando nos damos cuenta de que, según esta interpretación de la mecánica cuántica, todos los mundos posibles coexisten con nosotros. Aunque podrían necesitarse agujeros de gusano para alcanzar estos mundos alternativos, estas realidades cuánticas existen en la misma habitación en la que vivimos nosotros. Coexisten con nosotros allí donde vamos. La cuestión clave es: si esto es verdad, ¿por qué no vemos estos universos alternativos en nuestra sala de estar? Aquí es donde entra la decoherencia: nuestra función de onda está en decoherencia con estos otros mundos (es decir, las ondas ya no están en fase unas con otras). Ya no estamos en contacto con ellas. Eso significa que hasta la menor contaminación con el entorno impedirá que las varias funciones de onda interaccionen unas con otras. (En el capítulo 11 menciono una posible excepción de esta norma, en la que los seres inteligentes pueden ser capaces de viajar entre realidades cuánticas).
¿Parece esto demasiado raro para ser posible? El premio Nobel Steven Weinberg equipara esta teoría del universo múltiple a la radio. A nuestro alrededor, hay cientos de ondas de radio diferentes que se emiten desde emisoras distantes. En cualquier momento dado, nuestra oficina, coche o sala de estar está llena de estas ondas de radio. Sin embargo, si conectamos la radio, podremos escuchar sólo una frecuencia cada vez; estas otras frecuencias están en decoherencia y dejan de estar en fase una con otra. Cada estación tiene una energía diferente, una frecuencia diferente. Como resultado, nuestra radio sólo puede sintonizar una emisora cada vez.
Del mismo modo, en nuestro universo estamos «sintonizados» en una frecuencia que corresponde a la realidad física. Pero hay un número infinito de realidades paralelas que coexisten con nosotros en la misma habitación, aunque no podamos «sintonizarlas». Aunque estos mundos son muy parecidos, cada uno tiene una energía diferente. Y como cada mundo consiste en billones de billones de átomos, esto significa que la diferencia de energía puede ser muy grande. Como la frecuencia de estas ondas es proporcional a su energía (según la ley de Planck), esto significa que las ondas de cada mundo vibran a frecuencias diferentes y no pueden interaccionar entre ellas. A efectos prácticos, las ondas de estos mundos varios no interaccionan ni se influyen unas a otras.
Sorprendentemente, los científicos, al adoptar este extraño punto de vista, pueden rederivar todos los resultados del enfoque de Copenhague sin tener siquiera que colapsar la función de onda.
Dicho de otro modo, los experimentos hechos con la interpretación de Copenhague o la interpretación de muchos mundos dan exactamente los mismos resultados experimentales. El colapso de la función de onda de Bohr es matemáticamente equivalente al contacto con el entorno. En otras palabras, el gato de Schrödinger puede estar muerto y vivo al mismo tiempo si de algún modo podemos aislar al gato de la posible contaminación de cada átomo o rayo cósmico. Desde luego, esto es prácticamente imposible. Una vez el gato entra en contacto con un rayo cósmico, las funciones de onda del gato muerto y el gato vivo precipitan la decoherencia y parece como si la función de onda se hubiera colapsado.

11. «It from bit»
Con todo este interés renovado por el problema de la medición en la teoría cuántica, Wheeler se ha convertido en el anciano venerable de la física cuántica y aparece en numerosas conferencias en su honor. Ha llegado incluso a ser saludado como una especie de gurú por los defensores de la Nueva Era, que se sienten fascinados por la cuestión de la conciencia en la física. (No obstante, él no siempre ve con agrado estas asociaciones. En una ocasión, constató con disgusto que compartía programa con tres parapsicólogos. Rápidamente emitió un comunicado en el que, entre otras cosas, decía: «Donde hay humo, hay humo»). [113]
Tras observar setenta años las paradojas de la teoría cuántica, Wheeler es el primero en admitir que no tiene todas las respuestas. Sigue cuestionando siempre sus planteamientos. Cuando se le pregunta por el problema de la medición en la mecánica cuántica, dice:
«Esta cuestión me está volviendo loco. Confieso que a veces me tomo con una seriedad del 100% la idea de que el mundo es producto de la imaginación y, otras veces, que el mundo existe independientemente de nosotros. Sin embargo, suscribo de todo corazón las siguientes palabras de Leibniz: "El mundo puede ser un fantasma y la existencia un mero sueño, pero un sueño o un fantasma bastante real si aplicando bien la razón nunca nos vemos engañados por ella"». [114]
Hoy en día, la teoría de los muchos mundos o de la decoherencia está adquiriendo popularidad entre los físicos. Pero a Wheeler le preocupa que requiera «demasiado exceso de equipaje». Está acariciando la idea de dar otra explicación más al problema del gato de Schrödinger. Se trata de una teoría poco ortodoxa, a la que denomina «It from bit», que empieza con la presunción de que la información está en la raíz de toda existencia. Cuando miramos a la Luna, una galaxia o un átomo, su esencia, según afirma él, se encuentra en la información almacenada dentro de ellos. Pero esta información empieza a existir cuando el universo se observa a sí mismo. Dibuja un diagrama circular que representa la historia del universo. Al principio del universo, éste empezó a existir porque fue observado. Esto significa que it (la materia en el universo) empezó a existir cuando se observó la información ( bit) del universo. Llama a esto el «universo participativo», la idea de que el universo se adapta a nosotros del mismo modo que nosotros nos adaptamos a él, que nuestra mera presencia lo hace posible. (Como no hay un consenso universal sobre el problema de la medición en la mecánica cuántica, la mayoría de los físicos prefieren esperar a ver qué pasa con esta teoría).

12. La computación cuántica y la teleportación
Estas discusiones filosóficas pueden parecer completamente fútiles, desprovistas de cualquier aplicación práctica en nuestro mundo. En lugar de debatir cómo pueden bailar muchos ángeles en la cabeza de un alfiler, los físicos cuánticos debaten, según parece, en cuántos sitios puede estar un electrón al mismo tiempo.
Sin embargo, éstas no son las reflexiones ociosas de los académicos en su torre de marfil. Es posible que un día tengan la aplicación más práctica de todas: dirigir las economías del mundo. Un día, la riqueza de naciones enteras puede depender de las sutilezas del gato de Schrödinger. En ese momento, a lo mejor nuestros ordenadores estarán calculando en universos paralelos. Casi toda la infraestructura de nuestros ordenadores se basa hoy en día en transistores de silicio. La ley de Moore, que establece que la potencia informática se dobla cada dieciocho meses, es posible por nuestra capacidad de grabar transistores cada vez más pequeños en los chips de silicio mediante rayos de radiación ultravioleta. Aunque la ley de Moore ha revolucionado el paisaje tecnológico, no puede seguir para siempre. El chip Pentium más avanzado tiene una lámina de veinte átomos de espesor. Dentro de quince o veinte años, los científicos tal vez estén calculando sobre láminas de quizá cinco átomos de diámetro. A estas distancias increíblemente pequeñas, tenemos que abandonar la mecánica newtoniana y adoptar la mecánica cuántica, donde entra en acción el principio de incertidumbre de Heisenberg. En consecuencia, ya no sabremos exactamente dónde está el electrón. Esto significa que se producirán cortocircuitos cuando los electrones se vean empujados fuera de los aislantes y semiconductores en lugar de quedarse dentro de ellos.
En el futuro, alcanzaremos los límites de grabación en láminas de silicio. La era del silicio pronto llegará a su fin. Quizá será el preludio de la era cuántica. Silicon Valley [«Valle de Silicio»] podría convertirse en el Cinturón de Óxido. Un día quizá nos veamos obligados a calcular sobre los propios átomos, introduciendo una nueva arquitectura para los equipos informáticos. Los ordenadores de hoy en día se basan en el sistema binario: los números se forman a partir de ceros y unos. Sin embargo los átomos pueden tener su spin orientado hacia arriba, hacia abajo o a un lado, indistintamente. Los bits de ordenador (0 y 1) pueden ser reemplazados por «qubits» (algo entre 0 y 1), convirtiendo la computación cuántica en una herramienta mucho más potente que los ordenadores comunes.
Un ordenador cuántico, por ejemplo, podría sacudir los fundamentos de la seguridad internacional. Actualmente, los grandes bancos, las corporaciones multinacionales y los países industrializados codifican sus secretos mediante complejos algoritmos informáticos. Muchos códigos secretos se basan en factorizar grandes números. Se necesitarían siglos, por ejemplo, para que un ordenador normal factorizase un número que contuviera un centenar de dígitos. Pero, para un ordenador cuántico, estos cálculos pueden ser realizados sin esfuerzo; podrían descifrar los códigos secretos de las naciones del mundo.
Para ver cómo funciona un ordenador cuántico, digamos que alineamos una serie de átomos, con sus spines apuntando en una dirección en un campo magnético. A continuación dirigimos un rayo láser hacia ellos, de modo que muchos de los spines cambian de dirección cuando el rayo láser se refleja en ellos. Midiendo la luz de láser reflejada, habremos registrado una operación matemática compleja, gracias a la dispersión de luz desde los átomos. Si calculamos este proceso utilizando la teoría cuántica, siguiendo a Feynman, deberemos añadir todas las posiciones posibles de los átomos, girando en todas las direcciones posibles. Incluso un sencillo cálculo cuántico, que tomaría una fracción de segundo, sería casi imposible de realizar en un ordenador estándar, por mucho tiempo que se le concediera.
En principio, como ha subrayado David Deutsch, de Oxford, esto significa que cuando utilicemos ordenadores cuánticos, tendremos que sumar todos los universos paralelos posibles. Aunque no podemos establecer contacto directamente con estos universos alternativos, un ordenador atómico podría calcularlos utilizando los estados de spin existentes en universos paralelos. (Aunque nosotros ya no somos coherentes con los otros universos de nuestra sala de estar, los átomos de un ordenador cuántico están diseñados para vibrar coherentemente y al unísono).
Si bien el potencial de los ordenadores cuánticos es verdaderamente sorprendente, en la práctica los problemas también son enormes. En el presente el récord mundial del número de átomos utilizados en un ordenador cuántico es de siete. En el mejor de los casos, en un ordenador cuántico podemos multiplicar tres por cinco para conseguir quince, lo cual es poco impresionante. Para que un ordenador cuántico sea competitivo incluso con un portátil normal, necesitaríamos cientos, quizá millones de átomos vibrando coherentemente. Como incluso la colisión con una sola molécula de aire podría hacer que los átomos perdieran la coherencia, tendrían que darse unas condiciones extraordinariamente limpias para aislar los átomos de prueba del entorno. (Para construir un ordenador cuántico que exceda la velocidad de los ordenadores modernos se necesitarían de miles a millones de átomos, por lo que la computación cuántica está todavía a unas décadas de distancia).

13. Teleportación cuántica
En última instancia, puede haber otra aplicación práctica para la discusión aparentemente inútil de los físicos sobre los universos cuánticos paralelos: la teleportación cuántica. El «transportador» utilizado en Star Trek y otros programas de ciencia ficción para transportar personas y equipo a través del espacio parece una manera maravillosa de recorrer distancias inmensas. Pero, a pesar de lo atractiva que es, la idea de la teleportación ha confundido a los físicos porque parece violar el principio de incertidumbre. Haciendo una medición en un átomo, se perturba el estado del átomo y, por tanto, no puede hacerse una copia exacta.
Pero en 1993 los científicos encontraron una fisura en este argumento a través del llamado «enmarañamiento cuántico». Se basa en un viejo experimento propuesto en 1935 por Einstein y sus colegas Boris Podolsky y Nathan Rosen (la llamada «paradoja EPR») para demostrar hasta qué punto la teoría cuántica es una locura. Digamos que hay una explosión y dos electrones vuelan en direcciones opuestas, viajando casi a la velocidad de la luz. Como los electrones pueden girar como una peonza, partimos de la base de que están correlacionados: es decir; si un electrón tiene su eje de giro orientado hacia arriba, el otro lo tiene hacia abajo (de modo que el spin total es cero). Sin embargo, antes de hacer una medición, no sabemos en qué dirección gira cada electrón.
Ahora esperemos varios años. Una vez transcurridos, los dos electrones están a muchos años luz de distancia. Si hacemos una medición del spin de un electrón y encontramos que su eje de giro apunta hacia arriba, instantáneamente sabemos que el otro electrón se encuentra girando hacia abajo (y viceversa). En realidad, el hecho de que el electrón se encuentre girando hacia arriba obliga al otro electrón a girar hacia abajo. Esto significa que ahora sabemos algo sobre un electrón a muchos años luz de distancia, al instante. (La información, por lo que parece, ha viajado más deprisa que la velocidad de la luz, en aparente violación de la relatividad especial de Einstein). Mediante un sutil razonamiento, Einstein pudo demostrar que, haciendo mediciones sucesivas en un par, podría infringirse el principio de incertidumbre. Más importante es que demostró que la mecánica cuántica es más rara de lo que nadie había previsto.
Hasta entonces, los físicos creían que el universo era local, que las perturbaciones en una parte del universo sólo se esparcían localmente desde la fuente. Einstein demostró que la mecánica cuántica es esencialmente no local: las perturbaciones desde una fuente pueden afectar instantáneamente a distintas partes del universo. Einstein lo llamó una «espeluznante acción a distancia», lo que le parecía absurdo. Así pues, su deducción fue que la teoría cuántica tiene que ser errónea.
(Los críticos de la mecánica cuántica consiguieron resolver la paradoja de Einstein-Podolsky-Rosen partiendo de la base de que, si nuestros instrumentos fueran lo bastante sensibles, podrían determinar hacia qué lado giran los electrones. La incertidumbre aparente en el spin y posición de un electrón era una ficción, debido a que nuestros instrumentos eran demasiado rudimentarios. Introdujeron el concepto llamado «variables ocultas»; es decir, debe haber una teoría subcuántica oculta, en la que no hay incertidumbre en absoluto, basada en nuevas variables llamadas «variables ocultas»).
Las espadas estaban en alto en 1964 cuando el físico John Bell hizo pasar la prueba de fuego a la paradoja EPR y las variables ocultas. Demostró que si uno realizaba el experimento EPR, debía haber una correlación numérica entre los spines de los dos electrones, dependiendo de qué teoría usaba. Si la teoría de las variables ocultas era correcta, como creían los escépticos, los spines deberían estar correlacionados de una manera. Si la mecánica cuántica era correcta, los spines deberían estar correlacionados de otra manera. Dicho de otro modo, la mecánica cuántica (la base de toda la física atómica moderna) se afianzaría o caería sobre la base de un solo experimento.
Pero los experimentos han demostrado concluyentemente que Einstein se equivocaba. A principios de la década de 1980, en Francia, Alan Aspect y otros colegas realizaron el experimento EPR con dos detectores a 13 metros de distancia, que medían los spines de los fotones emitidos por átomos de calcio. En 1997, el experimento EPR fue realizado con detectores separados por 11 kilómetros. En ambas ocasiones ganó la teoría cuántica. Una determinada forma de conocimiento viaja realmente más rápido que la luz. (Aunque Einstein se equivocó en el experimento EPR, tenía razón en la cuestión más amplia de la comunicación más rápida que la luz. El experimento EPR, aunque permite saber algo instantáneamente sobre el otro lado de la galaxia, no nos permite enviar un mensaje de este modo. No podemos, por ejemplo, enviar un código Morse. En realidad, un «transmisor EPR» enviaría sólo señales aleatorias, ya que los spines que medimos son aleatorios cada vez que los medimos. El experimento EPR nos permite adquirir información sobre el otro lado de la galaxia, pero no nos permite transmitir información útil, es decir, no aleatoria).
A Bell le gustaba describir el efecto utilizando el ejemplo de un matemático llamado Bertelsman. Éste tenía el extraño hábito de llevar siempre un calcetín verde en un pie y uno azul en el otro, en orden aleatorio. Si un día uno veía que llevaba un calcetín azul en el pie izquierdo, sabía, con la rapidez del rayo, que el otro calcetín era verde. Pero el hecho de saberlo no le permitía comunicar información de este modo. Revelar información es diferente de enviarla. El experimento EPR no significa que podamos comunicar información a través de la telepatía, el viaje más rápido que la luz, o el viaje en el tiempo, pero significa que es imposible separarnos completamente de la unicidad del universo.
Nos obliga a mantener una imagen diferente de nuestro universo. Hay un «entrelazamiento» cósmico entre cada átomo de nuestro cuerpo y los átomos que se encuentran a años luz de distancia. Como toda la materia procede de una sola explosión, el big bang, en cierto sentido los átomos de nuestro cuerpo están vinculados con algunos átomos del otro lado del universo, en alguna especie de red cuántica cósmica. Las partículas enmarañadas son en cierto modo como gemelos unidos todavía por un cordón umbilical (su función de onda) que puede tener un diámetro de años luz. Lo que le pasa a un miembro afecta automáticamente al otro y, así, el conocimiento que concierne a una partícula puede revelar instantáneamente conocimiento sobre su pareja. Las parejas enredadas actúan como si fueran un solo objeto, aunque pueden estar separadas por una larga distancia. (Más exactamente, como las funciones de onda de las partículas en el big bang estuvieron en otros tiempos conectadas y eran coherentes, sus funciones de onda podrían estar todavía parcialmente conectadas miles de millones de años después del big bang, de modo que las perturbaciones en una parte de la función de onda pueden influir a otra parte distante de la función de onda).
En 1993, los científicos propusieron utilizar el concepto de enmarañamiento EPR con el fin de proporcionar un mecanismo para la teleportación cuántica. En 1997 y 1998, científicos de Cal Tech, la Universidad de Aarhus de Dinamarca y la Universidad de Gales hicieron la primera demostración experimental de teleportación cuántica cuando un único fotón fue teleportado a través del tablero de una mesa. Samuel Braunstein, de la Universidad de Gales, que formaba parte de este equipo, ha comparado los pares enmarañados a unos amantes «que se conocen tan bien que pueden responder uno por otro aunque les separe una larga distancia».[6.28]
(Los experimentos de teleportación cuántica requieren tres objetos, llamados A, B y C. Pensemos que B y C son dos gemelos que están enmarañados. Aunque B y C puedan estar separados por una larga distancia, siguen enmarañados uno con otro. Ahora hagamos que B establezca contacto con A, que es el objeto a teleportar. B «explora» a A, de modo que la información contenida en A es transferida a B. Esta información después es transferida automáticamente al gemelo C. Así, C se convierte en una réplica exacta de A).
El progreso en la teleportación cuántica avanza con rapidez. En 2003, los científicos de la Universidad de Ginebra, en Suiza, pudieron transportar fotones a una distancia de 2 kilómetros a través de cable de fibra óptica. Fotones de luz (con una longitud de onda de 1,3 mm) en un laboratorio fueron teleportados a fotones de luz de una longitud de onda diferente (1,55 mm) en otro laboratorio conectado a este largo cable. Nicolas Gisin, un físico de este proyecto, ha dicho: «Posiblemente, dentro del ciclo de mi vida se teleportarán objetos más grandes, como una molécula, pero realmente los objetos grandes no son teleportables utilizando tecnologías previsibles».
En 2004 hubo otro avance significativo cuando los científicos del Instituto Nacional de Standards y Tecnología (NIST) teleportaron no sólo un cuanto de luz, sino un átomo entero. Enmarañaron con éxito tres átomos de berilio y pudieron transferir las características de uno a otro, un gran logro.
Las aplicaciones prácticas de la teleportación cuántica son potencialmente enormes, aunque debería apuntarse que hay varios problemas prácticos. En primer lugar, el objeto original queda destruido en el proceso, por lo que no pueden hacerse copias exactas del objeto teleportado. Sólo es posible una copia. En segundo lugar, no se puede teleportar un objeto más rápido que la luz. La relatividad todavía tiene vigor, incluso para teleportación cuántica. (Para teleportar el objeto A al objeto C, todavía se necesita un objeto B intermedio que los conecte a ambos y que viaje a una velocidad menor que la de la luz). En tercer lugar, quizá la limitación más importante a la teleportación cuántica es la misma a la que se enfrenta la computación cuántica: los objetos en cuestión tienen que ser coherentes. El mínimo contacto con el entorno destruirá la teleportación cuántica. Pero es concebible que durante el siglo XXI pueda teleportarse el primer virus.
Teleportar un ser humano puede plantear otros problemas. Braunstein observa: «De momento, el punto clave es la cantidad de información implicada. Incluso con los mejores canales de comunicación que pudiéramos concebir en este momento, transferir toda esta información costaría todo el tiempo de vida del universo».

14. La función de onda del universo
Pero quizá la realización definitiva de la teoría cuántica puede llegar cuando apliquemos la mecánica cuántica no sólo a fotones individuales sino a todo el universo. Stephen Hawking ha bromeado con que siempre que oye hablar del problema del gato, echa mano a su pistola. Ha propuesto su propia solución al problema: tener una función de onda de todo el universo. Si todo el universo es parte de la función de onda, no hay necesidad de un observador (que debe estar fuera del universo).
En la teoría cuántica, toda partícula está asociada con una onda. La onda, a su vez, nos dice la probabilidad de encontrar la partícula en un punto. Sin embargo, el universo, en su primera juventud, era más pequeño que una partícula subatómica. Por tanto, quizás el propio universo tiene una función de onda. Como el electrón puede existir en muchos estados al mismo tiempo, y como el universo era más pequeño que un electrón, quizás el universo también existía simultáneamente en muchos estados, descritos por una función de superonda.
Ésta es una variación de la teoría de muchos mundos: no hay necesidad de invocar a un observador cósmico que pueda observar todo el universo al mismo tiempo. Pero la función de onda de Hawking es bastante diferente de la de Schrödinger. En la función de onda de este último, en cada punto del espacio-tiempo hay una función de onda. En la función de onda de Hawking, para cada universo hay una onda. En lugar de la función psi de Schrödinger que describe todos los estados posibles del electrón, Hawking introduce una función psi que representa todos los estados posibles del universo. En la mecánica cuántica ordinaria, el electrón existe en el espacio ordinario. Sin embargo, en la función de onda del universo, la función de onda existe en el «superespacio», el espacio de todos los universos posibles, introducido por Wheeler.
Esta función de onda maestra (la madre de todas las funciones de onda) no obedece a la ecuación de Schrödinger (que sólo funciona para electrones individuales), sino a la ecuación de Wheeler-De Witt, que funciona para todos los universos posibles. A principios de la década de 1990, Hawking escribió que era capaz de resolver parcialmente su función de onda del universo y demostrar que el universo más probable era uno con una constante cosmológica menguante. Este trabajo provocó cierta controversia porque dependía de sumar todos los universos posibles. Hawking realizó esta suma incluyendo los agujeros negros que conectan nuestro universo con todos los universos posibles. (Imaginemos un mar infinito de pompas de jabón flotando en el aire, todas conectadas por finos filamentos o agujeros de gusano, y después todas unidas).
En última instancia, se plantearon dudas sobre el ambicioso método de Hawking. Se señaló que la suma de todos los universos posibles era matemáticamente poco fidedigna, al menos hasta que tuviéramos una «teoría del todo» que nos guiara. Hasta que se construya una teoría del todo, los críticos han afirmado que no es posible confiar en ninguno de los cálculos sobre las máquinas del tiempo, agujeros de gusano, el instante del big bang y las funciones de onda del universo.
Sin embargo, actualmente decenas de físicos creen que hemos encontrado finalmente la teoría del todo, aunque todavía no en su forma final: la teoría de cuerdas o la teoría M. ¿Nos permitirá «leer la Mente de Dios» como creía Einstein?

Capítulo 7
Teoría M: la madre de todas las cuerdas

Para alguien que pudiera entender el Universo desde un punto de partida unificado, toda la creación le parecería una única verdad y necesidad.
J. D'Alembert
Tengo la sensación de que estamos tan cerca de la teoría de cuerdas que —en los momentos de mayor optimismo— me imagino que cualquier día puede caer del cielo la forma final de la teoría y aterrizar en el regazo de alguien. Pero, en plan más realista, siento que estamos en el proceso de construcción de una teoría mucho más profunda que ninguna de las que hemos tenido hasta ahora, y que, bien entrado el siglo XXI, cuando yo sea demasiado viejo para tener ideas útiles sobre el tema, los físicos más jóvenes tendrán que decidir si realmente hemos encontrado la teoría definitiva.
Edward Witten

Contenido:
  1. La teoría M
  2. Historia de la teoría de cuerdas
  3. Diez dimensiones
  4. La carroza de las cuerdas
  5. Música cósmica
  6. Problemas en el hiperespacio
  7. Supersimetría
  8. Derivaciones del Modelo Estándar
  9. Más sobre la teoría M
  10. El misterio de la supergravedad
  11. Undécima dimensión
  12. El mundo brana
  13. Dualidad
  14. Lisa Randall
  15. Universos en colisión
  16. Miniagujeros negros
  17. Los agujeros negros y la paradoja de la información
  18. El universo holográfico
  19. ¿Es el universo un programa informático?
  20. ¿El final?

El hombre invisible , la novela clásica de H. G. Wells del año 1897, empieza con una curiosa historia. Un frío día de invierno, llega de la oscuridad un forastero con una extraña indumentaria. Lleva la cara totalmente cubierta: gafas azul oscuro y vendas blancas cubriéndole el rostro.
Al principio, la gente del pueblo siente lástima por él pensando que ha sufrido un horrible accidente. Pero empiezan a pasar cosas raras en el pueblo. Un día, la patrona entra en la habitación vacía del visitante y lanza un grito al ver que la ropa se mueve sola. Ve sombreros bailando por la habitación, sábanas que se elevan por los aires, sillas que se mueven y «los muebles enloquecidos», como recuerda ella luego con horror.
Pronto empiezan a correr miles de rumores sobre estos sucesos tan poco habituales. Finalmente, un grupo de ciudadanos se reúne y decide enfrentarse al misterioso extranjero. Para su sorpresa, el hombre empieza a quitarse lentamente las vendas. Todo el mundo está horrorizado. Sin las vendas, la cara del forastero ha desaparecido. En realidad, el hombre es invisible. Se produce el caos y la gente se pone a gritar y a chillar. Los ciudadanos intentan perseguir al hombre invisible, pero él se esfuma sin dificultades.
Después de cometer una serie de delitos menores, el hombre invisible busca a un viejo conocido y le cuenta una historia notable. Su verdadero nombre es Griffen, del University College. Aunque empezó estudiando medicina, dio con una manera revolucionaria de cambiar las propiedades refractivas y reflectoras de la piel. Su secreto es la cuarta dimensión. Le dice al doctor Kemp: «Encontré un principio general […] una fórmula, una expresión geométrica que implicaba cuatro dimensiones». [115]
Tristemente, en lugar de utilizar este gran descubrimiento para ayudar a la humanidad, sólo piensa en robar y en lo que puede llegar a ganar. Le propone a su amigo que actúe como cómplice. Juntos, le dice, podrán saquear el mundo. Pero el amigo está horrorizado y revela a la policía la presencia del señor Griffen. Esto lleva a una persecución final a raíz de la cual el hombre invisible queda mortalmente herido.
Como ocurre en las mejores novelas de ciencia ficción, hay un germen de ciencia en muchas historias de H. G. Wells. Cualquier persona que pueda acceder a la cuarta dimensión espacial (o lo que hoy se llama la quinta dimensión, con el tiempo en la cuarta) puede volverse realmente invisible e incluso puede asumir los poderes que normalmente se atribuyen a fantasmas y dioses. Imaginemos, por el momento, que una raza de seres míticos puede habitar el mundo bidimensional de un tablero de mesa, como en Planilandia, la novela que Edwin Abbot escribió en 1884. Se ocupan de sus asuntos sin tener conciencia de que un universo entero, la tercera dimensión, los rodea.
Pero si un científico de Planilandia pudiese hacer un experimento que le permitiera alzarse unos centímetros sobre la mesa, se volvería invisible, porque la luz le pasaría por debajo, como si él no existiera. Flotando justo encima de Planilandia, podría ver desplegarse los acontecimientos de abajo sobre el tablero de una mesa. Flotar en el hiperespacio tiene ventajas decisivas, porque quien mirase hacia abajo desde el hiperespacio tendría los poderes de un dios.
La luz no sólo pasaría por debajo de él, haciéndolo invisible, sino que él también podría pasar por encima de los objetos. Dicho de otro modo, podría desaparecer cuando quisiera y atravesar las paredes. Simplemente entrando en la tercera dimensión, desaparecería del universo de Planilandia y, si saltase sobre el tablero de la mesa, se rematerializaría súbitamente de la nada. Así pues, podría escapar de cualquier cárcel. Una cárcel en Planilandia consistiría en un círculo dibujado alrededor de un prisionero, por lo que sería fácil simplemente saltar a la tercera dimensión para salir fuera.
Sería imposible mantener secretos ante un hiperser de este tipo. El oro encerrado en una cámara acorazada podría verse fácilmente desde la posición de la tercera dimensión, ya que la cámara acorazada no sería más que un rectángulo descubierto. Sería un juego de niños entrar en el rectángulo y sacar el oro sin siquiera romper la cámara. Sería posible la cirugía sin cortar la piel.
De manera similar, H. G. Wells quería transmitir la idea de que en un mundo de cuatro dimensiones, nosotros somos los planilandeses, ignorantes del hecho de que justo encima de nosotros podría haber planos superiores de existencia. Creemos que nuestro mundo consiste en todo lo que podemos ver, inconscientes de que puede haber universos enteros justo delante de nuestras narices. Aunque pudiera haber otro universo suspendido a unos centímetros de nosotros, flotando en la cuarta dimensión, parecería invisible.
Como un hiperser poseería los poderes suprahumanos que suelen atribuirse a un fantasma o un espíritu, en otra historia de ciencia ficción H. G. Wells reflexionó sobre si los seres sobrenaturales podían habitar dimensiones superiores. Planteó una cuestión clave que todavía hoy es tema de gran especulación e investigación: ¿podría haber nuevas leyes de la física en estas dimensiones superiores? En La visita maravillosa, una novela que escribió en 1895, la pistola de un vicario hiere accidentalmente a un ángel que resulta estar pasando por nuestra dimensión. Por alguna razón cósmica, nuestra dimensión y un universo paralelo colisionan temporalmente y ello provoca que este ángel caiga en nuestro mundo. Contando la historia, Wells escribe: «Puede haber una serie de universos tridimensionales yuxtapuestos». [116] El vicario interroga al ángel herido y se sorprende al descubrir que nuestras leyes de la naturaleza no son aplicables al mundo del ángel. En su universo, por ejemplo, no hay planos, sino más bien cilindros, de modo que el propio espacio está curvado. (Más de veinte años antes de la teoría de la relatividad general, Wells empezaba a pensar en la existencia de universos en superficies curvadas). Tal como dice el vicario: «Su geometría es diferente porque su espacio es curvo, de modo que todos los planos son cilindros; su ley de la gravitación no concuerda con la ley de cuadrados inversos y hay veinticuatro colores primarios en lugar de sólo tres». Más de un siglo después de que Wells escribiera su historia, los físicos han tomado conciencia de que podrían existir nuevas leyes de la física, con series diferentes de partículas subatómicas, átomos e interacciones químicas en universos paralelos. (Como veremos en el capítulo 9, se están llevando a cabo varios experimentos para detectar la presencia de universos paralelos que podrían estar suspendidos justo encima del nuestro).
El concepto de hiperespacio ha intrigado a artistas, músicos, místicos, teólogos y filósofos, especialmente desde principios del siglo XX. Según la historiadora del arte Linda Dalrymple Henderson, el interés de Pablo Picasso por la cuarta dimensión influyó en la creación del cubismo. (Los ojos de las mujeres que pintó nos miran directamente, aunque sus narices apunten hacia un lado, lo que nos permite verlas en su totalidad. De manera similar, un hiperser que nos mire desde arriba nos verá enteros: frente, espalda y lados simultáneamente). En su famoso cuadro Christus Hypercubus, Salvador Dalí pintó a Jesucristo crucificado frente a un hipercubo desplegado (o teseracto) de cuatro dimensiones. En La persistencia de la memoria, Dalí intentó transmitir la idea del tiempo como la cuarta dimensión con relojes fundidos. En Desnudo bajando la escalera (nº 2), de Marcel Duchamp, vemos un desnudo en movimiento secuencial bajando las escaleras, en otro intento de capturar la cuarta dimensión del tiempo en una superficie bidimensional.

1. La teoría M
Hoy en día, el misterio y la leyenda que envuelve a la cuarta dimensión están siendo resucitados por una razón totalmente diferente: el desarrollo de la teoría de cuerdas y su última encarnación, la teoría M. Históricamente, los físicos se han resistido enérgicamente al concepto de hiperespacio; decían con menosprecio que las dimensiones superiores eran competencia de místicos y charlatanes. Los científicos que proponían seriamente la existencia de mundos no vistos quedaban expuestos al ridículo.
Con la llegada de la teoría M, todo esto ha cambiado. Las dimensiones superiores están ahora en el centro de una profunda revolución en la física porque los físicos se ven obligados a enfrentarse al mayor problema que se plantea hoy en día en esta disciplina: el abismo que se abre entre la relatividad general y la teoría cuántica. Sorprendentemente, estas dos teorías comprenden la suma total de todo el conocimiento físico sobre el universo al nivel fundamental. En el presente, sólo la teoría M tiene la capacidad de unificar estas dos grandes teorías del universo, aparentemente contradictorias, en un todo coherente para crear una «teoría del todo». De todas las teorías propuestas en el siglo pasado, la única candidata con posibilidades de «leer la Mente de Dios», como dijo Einstein, es la teoría M.
Sólo en el hiperespacio de diez u once dimensiones tenemos «espacio suficiente» para unificar todas las fuerzas de la naturaleza en una sola teoría elegante. Una teoría tan fabulosa como ésta sería capaz de responder a las preguntas eternas: ¿Qué pasó antes del principio? ¿Puede el tiempo ser invertido? ¿Pueden llevarnos a través del universo los pasadizos dimensionales? (Aunque sus críticos apuntan con razón que comprobar esta teoría supera nuestra capacidad experimental, hay una serie de experimentos en curso que pueden cambiar esta situación, como veremos en el capítulo 9).
Todos los intentos de los últimos cincuenta años de crear una descripción verdaderamente unificada del universo han terminado en un fracaso ignominioso. Conceptualmente, es fácil de entender. La relatividad general y la teoría cuántica son diametralmente opuestas en casi todos los aspectos. La relatividad general es una teoría de lo muy grande: agujeros negros, big bangs, quásares y el universo en expansión. Se basa en las matemáticas de las superficies suaves, como las sábanas y las redes de las camas elásticas. La teoría cuántica es exactamente lo contrario, describe el mundo de lo muy pequeño: átomos, protones y neutrones y quarks. A diferencia de la relatividad, la teoría cuántica establece que sólo puede calcularse la probabilidad de sucesos, por lo que nunca podemos saber exactamente dónde está situado un electrón. Estas dos teorías se basan en cálculos diferentes, presupuestos diferentes, principios físicos diferentes y dominios diferentes. No es sorprendente que todos los intentos de unificarlas hayan fracasado.
Muchos gigantes de la física —Erwin Schrödinger, Werner Heisenberg, Wolfgang Pauli y Arthur Eddington— después de Einstein han intentado encontrar una teoría del campo unificado, sólo para fracasar miserablemente. En 1928, Einstein creó accidentalmente un revuelo en la prensa con una versión anterior de su teoría del campo unificado. El New York Times incluso publicó partes del trabajo, incluyendo sus ecuaciones. Más de cien periodistas se reunieron a las puertas de su casa. En una carta desde Inglaterra, Eddington le comentó a Einstein: «Te divertirá saber que uno de nuestros grandes almacenes de Londres (Selfridges) ha puesto en el escaparate tu trabajo (las seis páginas pegadas una al lado de la otra) para que puedan leerlo los transeúntes. Se reúnen grandes multitudes para leerlo». [117]
En 1946, a Erwin Schrödinger también le entró la fiebre y descubrió lo que le pareció que era la legendaria teoría del campo unificado. Presurosamente, hizo algo poco habitual para su época (aunque hoy no es tan raro): convocó una conferencia de prensa. Acudió a escucharle incluso el primer ministro de Irlanda, Eamon De Valera. Cuando le preguntaron hasta qué punto estaba seguro de haber conseguido la teoría del campo unificado, Schrödinger contestó: «Creo que tengo razón. Si me equivoco, quedaré como un idiota». [118] (El New York Times tuvo conocimiento finalmente de esta conferencia de prensa y envió el manuscrito a Einstein y otros para que lo comentaran. Con tristeza, Einstein se dio cuenta de que Schrödinger había redescubierto una vieja teoría que él mismo había propuesto y rechazado años atrás. Einstein envió una respuesta educada, pero Schrödinger se sintió humillado).
En 1958, el físico Jeremy Bernstein asistió a una conferencia en la Universidad de Columbia en la que Wolfgang Pauli presentó su versión de la teoría del campo unificado, que desarrolló junto con Werner Heisenberg. Niels Bohr, que se hallaba entre el público, no quedó impresionado. Finalmente, Bohr se levantó y dijo: «Los de aquí detrás estamos convencidos de que su teoría es una locura. Lo que nos divide es el grado de locura de su teoría». [119]
Pauli supo de inmediato lo que quería decir Bohr: que la teoría de Heisenberg-Pauli era demasiado convencional, demasiado ordinaria para ser la teoría del campo unificado. «Leer la Mente de Dios» requeriría introducir cálculos e ideas radicalmente diferentes.
Muchos físicos están convencidos de que detrás de todo hay una teoría sencilla, elegante y convincente que, sin embargo, es lo bastante loca y absurda para ser verdad. John Wheeler señala que, en el siglo XIX, explicar la inmensa diversidad de la vida que se encuentra en la Tierra parecía imposible, pero entonces Charles Darwin introdujo la teoría de la selección natural, y una sola teoría proporcionó la arquitectura para explicar el origen y la diversidad de toda la vida en la Tierra.
El premio Nobel Steven Weinberg utiliza una analogía diferente. Después de Colón, los mapas que detallan las temerarias hazañas de los primeros exploradores europeos indicaban que tenía que haber un «polo norte», pero no había prueba directa de su existencia. Como todos los mapas de la Tierra mostraban un gran espacio vacío donde debía encontrarse el polo norte, los primeros exploradores simplemente presumieron que debía de existir, aunque ninguno de ellos lo hubiera visitado todavía. De manera similar, los físicos actuales, como los primeros exploradores, tienen grandes pruebas indirectas que apuntan a la existencia de una teoría del todo, aunque de momento no haya un consenso universal sobre cuál es esta teoría.

2. Historia de la teoría de cuerdas
Una teoría que sin duda es «lo bastante loca» para ser la teoría del campo unificado es la teoría de cuerdas o teoría M, que posiblemente tiene la historia más extraña de todas las que pueden encontrarse en los anales de la física. Fue descubierta casi por accidente, aplicada al problema erróneo, relegada a la oscuridad y súbitamente resucitada como una teoría del todo. Y, a fin de cuentas, como es imposible hacer pequeños ajustes sin destruir la teoría, será o bien una «teoría del todo», o bien una «teoría de la nada».
La razón de esta extraña historia es que la teoría de cuerdas ha evolucionado hacia atrás. Normalmente, en una teoría como la relatividad, uno empieza con principios físicos fundamentales; más tarde, estos principios son reducidos a una serie de ecuaciones básicas clásicas y, finalmente, se calculan las fluctuaciones cuánticas de estas ecuaciones. La teoría de cuerdas evolucionó hacia atrás, empezando con el descubrimiento accidental de su teoría cuántica; los físicos todavía se preguntan qué principios físicos pueden guiar la teoría.
El origen de la teoría se remonta a 1968, cuando dos jóvenes físicos del laboratorio nuclear del CERN, en Ginebra, Gabriele Veneziano y Mahiko Suzuki, hojeaban independientemente un libro de matemáticas y se encontraron con la función de Euler Beta, una oscura expresión matemática del siglo XVIII, descubierta por Leonard Euler, que parecía describir el mundo subatómico. Se quedaron asombrados contemplando aquella fórmula matemática abstracta que parecía describir la colisión de dos partículas mesón a energías enormes. El modelo Veneziano pronto creó sensación en la física y de él derivaron literalmente cientos de artículos que intentaban generalizarlo para describir las fuerzas nucleares.
En otras palabras, la teoría se descubrió por puro accidente. Edward Witten, del Instituto de Estudios Avanzados (que muchos creen que fue el motor creativo de los asombrosos avances de la teoría), ha dicho: «Por derecho propio, los físicos del siglo XX no deberían haber tenido el privilegio de estudiar esta teoría. Por derecho propio, la teoría de cuerdas no debería haber sido inventada». [120]
Recuerdo vívidamente la conmoción que causó la teoría. En aquel tiempo, yo estudiaba física en Berkeley, en la Universidad de California, y recuerdo haber visto a los físicos mover la cabeza afirmando que la física no era aquello. En el pasado, la física solía basarse en observaciones de la naturaleza cuidadosamente detalladas, se formulaban algunas hipótesis parciales, se comprobaba minuciosamente la idea comparándola con los datos y después se repetía tediosamente el proceso, una y otra vez. La teoría de cuerdas era un método que se basaba simplemente en adivinar la respuesta. No parecía posible que hubiera fórmulas mágicas tan imponentes.
Como las partículas subatómicas no pueden verse ni siquiera con nuestros mejores instrumentos, los físicos han recurrido a un método brutal pero eficaz para analizarlas, haciéndolas colisionar con energías enormes. Se han gastado miles de millones de dólares para construir grandes «colisionadores de átomos» o aceleradores de partículas, que tienen muchos kilómetros de diámetro y que generan rayos de partículas subatómicas que colisionan unas con otras. Los físicos analizan después, meticulosamente, los restos de la colisión. El objetivo de este proceso exasperante y arduo es construir una serie de números, llamados «matriz de dispersión» o «matriz S». Este conjunto de números es crucial porque codifica en su interior toda la información de la física subatómica; es decir, si se conoce la matriz S, pueden deducirse todas las propiedades de las partículas elementales.
Uno de los objetivos de la física elemental es predecir la estructura matemática de la matriz S para las interacciones fuertes, un objetivo tan difícil que algunos físicos creían que superaba los conocimientos de la física. Es fácil imaginarse la sensación causada por Veneziano y Suzuki cuando simplemente dedujeron la matriz S hojeando un libro de matemáticas.
El modelo era un «bicho» completamente distinto de lo que se había visto hasta entonces. Normalmente, cuando alguien propone una nueva teoría (como la de los quarks), los físicos intentan retocarla, cambiando parámetros simples (como las masas de las partículas o las fuerzas acopladas). Pero el modelo Veneziano estaba tan bien construido que la mínima perturbación en sus simetrías básicas arruinaba toda la fórmula. Como en una pieza de cristal delicadamente trabajada, cualquier intento de alterar su forma la rompía.
De los cientos de artículos que modificaron trivialmente sus parámetros, destruyendo de este modo su belleza, no ha sobrevivido ninguno. Los únicos que todavía se recuerdan son los que intentaban entender por qué la teoría funcionaba; es decir, los que intentaban revelar sus simetrías. Finalmente, los físicos se convencieron de que la teoría no tenía parámetros ajustables de ningún tipo.
El modelo Veneziano, a pesar de lo notable que era, presentaba varios problemas. En primer lugar, los físicos eran conscientes de que se trataba simplemente de una primera aproximación a la matriz S final y que no daba toda la imagen. Bunji Sakita, Miguel Virasoro y Keiji Kikkawa, entonces en la Universidad de Wisconsin, observaron que la matriz S podía ser vista como una serie infinita de términos y que el modelo Veneziano era sólo el primer término y el más importante de la serie. (Hablando en plata, cada término de la serie representa el número de maneras en que las partículas pueden colisionar una con otra. Postularon algunas de las normas mediante las que se podían construir los términos superiores en su aproximación. Para mi tesis de doctorado, decidí completar rigurosamente este programa y construir todas las correcciones posibles del modelo Veneziano. Junto con mi colega L. P. Yu, calculé la serie infinita de términos de corrección para el modelo).
Finalmente, Yoichiro Nambu, de la Universidad de Chicago, y Tetsuo Goto, de la Universidad de Nihon, identificaron la característica clave que hacía funcionar el modelo: una cuerda vibrante. (También trabajaron en esta línea Leonard Susskind y Holger Nielsen). Cuando una cuerda colisionaba con otra cuerda, generaba una matriz S descrita por el modelo Veneziano. En esta imagen, cada partícula no es nada más que una vibración o nota en la cuerda. (Comentaré detalladamente este concepto más adelante).
El progreso fue muy rápido. En 1971, John Schwarz, André Neveu y Pierre Ramond generalizaron el modelo de cuerdas de modo que incluía un nuevo parámetro llamado «spin», convirtiéndolo en un candidato realista para las interacciones de partículas. (Todas las partículas subatómicas, como veremos, parecen estar girando como una peonza en miniatura. La cantidad de spin de cada partícula subatómica, en unidades cuánticas, es o bien un entero como 0, 1, 2, o medio entero como 1/2, 3/2. Sorprendentemente, la cuerda de Neveu-Schwarz-Ramond dio exactamente esta pauta de spins).
Sin embargo, yo todavía me sentía insatisfecho. El modelo de resonancia dual, como se le llamaba entonces, era un conjunto suelto de viejas fórmulas y reglas generales. Toda la física de los 150 años anteriores se había basado en «campos», desde que fueron introducidos por primera vez por el físico británico Michael Faraday. Pensemos en las líneas de campos magnéticos creadas por un imán. Como una telaraña, las líneas de fuerza impregnan todo el espacio. En cada punto del espacio, puede medirse la energía y dirección de las líneas de fuerza magnéticas. De manera similar, un campo es un objeto matemático que asume diferentes valores en cada punto del espacio. Así, el campo mide la intensidad de la fuerza magnética, eléctrica o nuclear en cualquier punto del universo. Por esta razón, la descripción fundamental de la electricidad, el magnetismo, la fuerza nuclear y la gravedad se basa en campos. ¿Por qué las cuerdas tendrían que ser diferentes? Lo que se necesitaba era una «teoría de campo de cuerdas» que permitiera resumir todo el contenido de la teoría en una sola ecuación.
En 1974, decidí abordar el problema. Con mi colega Keiji Kikkawa, de la Universidad de Osaka, obtuve con éxito la teoría de campo de cuerdas. En una ecuación de apenas cuatro centímetros de longitud conseguí resumir toda la información contenida dentro de la teoría de cuerdas. [121] Una vez formulada, tuve que convencer a la comunidad de físicos de su potencia y belleza. Aquel verano asistí a una conferencia de física teórica en el Centro Aspen de Colorado y di un seminario ante un grupo reducido pero selecto de físicos. Me sentía bastante nervioso: entre el público había dos premios Nobel, Murray Gell-Mann y Richard Feynman, ambos famosos por sus preguntas agudas y penetrantes que a menudo hacían enrojecer al orador. (En una ocasión, cuando Steven Weinberg daba una charla, dibujó en la pizarra un ángulo llamado «ángulo Weinberg» en su honor y escribió en él la letra W. Feynman le preguntó entonces qué significaba la W de la pizarra. Cuando Weinberg iba a contestar, Feynman gritó «Wrong!», lo cual provocó la carcajada del público. Seguramente Feynman divirtió al público, pero Weinberg rió el último. Este ángulo representaba una parte crucial de la teoría de Weinberg que unía las interacciones electromagnética y débil, lo que finalmente le valdría el premio Nobel).
En mi charla, subrayé que la teoría de campo de cuerdas produciría la aproximación más sencilla y completa a la teoría de cuerdas, que era principalmente un conjunto variopinto de fórmulas inconexas. Con la teoría de campo de cuerdas, toda la teoría podía resumirse en una sola ecuación de apenas cuatro centímetros de longitud: todas las propiedades del modelo Veneziano, todos los términos de la aproximación de la perturbación infinita y todas las propiedades de las cuerdas giratorias podrían derivar de una ecuación que cabría en una galleta de la suerte. Subrayé las simetrías de la teoría de cuerdas que le daban su belleza y poder. Cuando las cuerdas se mueven en el espacio-tiempo, barren dos superficies bidimensionales que parecen una cinta. La teoría sigue siendo la misma con independencia de las coordenadas que utilicemos para describir esta superficie bidimensional. Nunca olvidaré que, después de la charla, Feynman se me acercó y me dijo: «Puede ser que no esté del todo de acuerdo con la teoría de cuerdas pero la charla que ha pronunciado es una de las más bellas que he oído en mi vida».

3. Diez dimensiones
Pero justo cuando empezaba a despegar, la teoría de cuerdas se desarrolló rápidamente. Claude Lovelace, de Rutgers, descubrió que el modelo original de Veneziano tenía un pequeño defecto matemático que sólo podía eliminarse si el espacio-tiempo tenía veintiséis dimensiones. De manera similar, el modelo de supercuerdas de Neveu, Schwarz y Ramond sólo podía existir en diez dimensiones. [122] Esto sorprendió a los físicos: era algo que no se había visto nunca en la historia de la ciencia. En ningún otro lugar encontramos una teoría que seleccione su propia dimensionalidad. Las teorías de Newton y Einstein, por ejemplo, pueden formularse en cualquier dimensión. La famosa ley de la gravedad del cuadrado inverso, por ejemplo, puede generalizarse en una ley del cubo inverso de cuatro dimensiones. Sin embargo, la teoría de cuerdas sólo podía existir en dimensiones específicas.
Desde un punto de vista práctico, esto era un desastre. Se creía universalmente que nuestro mundo existía en tres dimensiones de espacio (longitud, anchura y altura) y una de tiempo. Admitir un universo de diez dimensiones significaba que la teoría estaba al borde de la ciencia ficción. Los teóricos de cuerdas se convirtieron en el objetivo de los chistes. (John Schwarz recuerda que iba en el ascensor con Richard Feynman y éste le dijo en broma: «Bueno, John, ¿en cuántas dimensiones vives hoy?»). [123] Aunque los físicos de cuerdas se esforzaron por intentar salvar el modelo, murió rápidamente. Sólo los más convencidos siguieron trabajando en la teoría. Durante este periodo, fue un esfuerzo solitario.
Dos convencidos que siguieron trabajando durante estos años difíciles fueron John Schwarz, de Cal Tech, y Joël Scherk, de la École Normale Supérieure de París. Hasta entonces, se suponía que el modelo de cuerdas sólo describía las interacciones nucleares fuertes. Pero había un problema: el modelo predecía una partícula que no ocurría en las interacciones fuertes, una curiosa partícula de masa cero que poseía un spin igual a 2. Todos los intentos de liberarse de esta molesta partícula habían fracasado. Cada vez que se intentaba eliminar esta partícula de spin-2, el modelo colapsaba y perdía sus propiedades mágicas. De algún modo, esta partícula spin-2 indeseada parecía contener el secreto de todo el modelo.
Entonces Scherk y Schwarz hicieron una osada conjetura. Quizás el defecto era en realidad una bendición. Si reinterpretaban esta molesta partícula spin-2 como el gravitón (una partícula de gravedad que surgió de la teoría de Einstein), ¡la teoría realmente incorporaba la teoría de la gravedad de Einstein! (En otras palabras, la teoría de la relatividad general de Einstein emerge simplemente como la vibración o nota más grave de la supercuerda). Irónicamente, mientras en las otras teorías cuánticas los físicos intentaban evitar denodadamente la inclusión de cualquier mención a la gravedad, la teoría de cuerdas la exige. (Esto, en realidad, es una de las características atractivas de la teoría de cuerdas: que tenga que incluir la gravedad o, en caso contrario, la teoría no se sostiene). Con este salto tan audaz, los científicos se dieron cuenta de que el modelo de las cuerdas estaba siendo aplicado incorrectamente al problema erróneo. No estaba pensado para ser una teoría sólo de interacciones nucleares fuertes, sino que era una teoría del todo. Como ha subrayado Witten, una característica atractiva de la teoría de cuerdas es que exige la presencia de la gravedad. Mientras las teorías de campo estándar no han conseguido incorporar la gravedad durante décadas, en la teoría de cuerdas es obligatoria.
Sin embargo, la idea seminal de Scherk y Schwarz fue universalmente ignorada. Para que la teoría de cuerdas describiera tanto la gravedad como el mundo subatómico, las cuerdas tendrían que ser sólo de 10−33 cm de longitud (la longitud de Planck); en otras palabras, eran un billón de veces más pequeñas que un protón. Aquello era demasiado para que lo aceptaran los físicos.
Pero, a mediados de la década de 1980, otros intentos de una teoría del campo unificado habían fracasado. Las teorías que intentaban inocentemente incluir la gravedad en el modelo estándar se ahogaban en una ciénaga de infinidades (que explicaré en breve). Cada vez que alguien intentaba casar artificialmente la gravedad con las demás fuerzas cuánticas, llevaba la teoría a incoherencias matemáticas que la mataban. (Einstein creía que quizá Dios no tuvo opción cuando creó el universo. Una razón de ello podría ser que sólo hay una teoría que esté libre de todas estas incoherencias matemáticas).
Había dos tipos de incoherencias matemáticas. La primera era el problema de los infinitos. Normalmente, las fluctuaciones cuánticas son diminutas. Los efectos cuánticos suelen ser sólo una pequeña corrección de las leyes de la dinámica de Newton. Es por eso que, en general, podemos ignorarlas en nuestro mundo macroscópico: son demasiado pequeñas para que las constatemos. Sin embargo, cuando la gravedad se convierte en una teoría cuántica, estas fluctuaciones cuánticas se vuelven en realidad infinitas, lo cual es absurdo. La segunda incoherencia matemática tiene que ver con las «anomalías»; pequeñas aberraciones en la teoría que surgen cuando añadimos fluctuaciones cuánticas a una teoría. Estas anomalías echan a perder la simetría original de la teoría, robándole así su fuerza original.
Por ejemplo, pensemos en el diseñador de un cohete que tiene que crear un esbelto vehículo aerodinámico para deslizarse por la atmósfera. El cohete tiene que poseer una gran simetría para reducir la fricción y resistencia del aire (en este caso, la simetría cilíndrica, para que el cohete siga siendo el mismo cuando lo rotamos alrededor de su eje). Esta simetría se llama O (2). Pero hay dos problemas potenciales. En primer lugar, como el cohete viaja a tan gran velocidad, se producen vibraciones en las alas. Normalmente, estas vibraciones son bastante pequeñas en los aeroplanos subsónicos. Sin embargo, al viajar a velocidades hipersónicas, estas fluctuaciones pueden crecer en intensidad y acabar rompiendo el ala. Divergencias similares acosan a cualquier teoría cuántica de la gravedad. [124]Normalmente son tan pequeñas que pueden ignorarse, pero en una teoría cuántica de la gravedad te explotan en la cara.
El segundo problema con el cohete es que pueden producirse grietas diminutas en el casco. Estos defectos arruinan la simetría original O (2) del cohete. A pesar de ser tan diminutos, estos defectos pueden esparcirse y romper el casco. De manera similar, estas «grietas» pueden romper las simetrías de una teoría de la gravedad.
Hay dos maneras de resolver estos problemas. Una es poner parches, como arreglar las grietas con cola y apuntalar las alas con palos, esperando que el cohete no estalle en la atmósfera. Ésta es la aproximación que han hecho históricamente la mayoría de físicos al intentar casar la teoría cuántica con la gravedad. Intentaban esconder estos dos problemas debajo de la alfombra. La segunda manera de actuar es empezar de nuevo, con una nueva forma y nuevos materiales exóticos que puedan soportar las tensiones del viaje por el espacio.
Los físicos se han pasado décadas intentando poner parches a una teoría cuántica de la gravedad y sólo han conseguido verse inútilmente abrumados por nuevas divergencias y anomalías. Poco a poco vieron que la solución podía ser abandonar el enfoque de parches y adoptar una teoría totalmente nueva. [125]

4. La carroza de las cuerdas
En 1984, la marea contra la teoría de cuerdas de pronto cambió de sentido. John Schwarz, de Cal Tech, y Mike Green, a la sazón en el Queen Mary's College de Londres, demostraron que la teoría de cuerdas estaba desprovista de todas las incoherencias que habían acabado con muchas otras teorías. Los físicos ya sabían que la teoría de cuerdas estaba libre de divergencias matemáticas. Pero Schwarz y Green demostraron que también estaba libre de anomalías. Como resultado, la teoría de cuerdas se convirtió en la principal (y hoy única) candidata para una teoría del todo.
De pronto, una teoría que se había considerado esencialmente muerta fue resucitada. De una teoría de la nada, la teoría de cuerdas de pronto pasaba a ser una teoría del todo. Decenas de físicos intentaban desesperadamente leer los estudios sobre la teoría de cuerdas. De los laboratorios de investigación de todo el mundo empezó a surgir una avalancha de artículos. Los viejos artículos que estaban almacenando polvo en los estantes de la biblioteca se convirtieron en el tema más candente de la física. La idea de los universos paralelos, que se había considerado demasiado extravagante, pasó al centro de la escena de la comunidad de la física, con cientos de conferencias y literalmente decenas de miles de artículos dedicados al tema.
(A veces, las cosas se les iban de las manos, como cuando algunos físicos se vieron afectados por la «fiebre del Nobel». En agosto de 1991, la revista Discover llegó a sacar en portada el sensacional titular: «La nueva Teoría del Todo: un físico se enfrenta al enigma cósmico definitivo». El artículo citaba a un físico que perseguía con desesperación la fama y la gloria: «No es mi estilo ser modesto. Si esto funciona, representará un premio Nobel», [126] se jactó. Cuando tuvo que responder a la crítica de que la teoría de cuerdas estaba todavía en su infancia, contestó: «Los grandes partidarios de cuerdas dicen que tardaremos cuatrocientos años en demostrar la teoría, pero yo digo que es mejor que se callen»).
Había empezado la fiebre del oro.
Finalmente, hubo una reacción contra «la carroza de las supercuerdas». Un físico de Harvard adujo, con sorna, que la teoría de cuerdas no es en realidad una rama de la física, sino una rama de las matemáticas puras o de la filosofía, si no de la religión. El premio Nobel Sheldon Glashow, de Harvard, encabezó el ataque, comparando la carroza de las supercuerdas con el programa de la Guerra de las Galaxias (que consume grandes recursos pero nunca puede ser comprobada). Glashow ha dicho que está muy contento de que tantos físicos jóvenes trabajen en la teoría de cuerdas, porque, dice, eso los mantiene alejados. Cuando le preguntaron por el comentario de Witten de que la teoría de cuerdas podría dominar la física durante los próximos cincuenta años, del mismo modo que la mecánica cuántica dominó los últimos cincuenta, contestó que la teoría de cuerdas dominará la física de la misma manera que la teoría de Kaluza-Klein (que él considera una «chifladura») dominó la física durante los últimos cincuenta años, es decir, nada. Intentó impedir que la teoría de cuerdas entrara en Harvard, pero cuando la siguiente generación de físicos se pasó a esta teoría, incluso la voz solitaria de un premio Nobel quedó rápidamente ahogada. (Harvard ha contratado desde entonces a varios teóricos de cuerdas).

5. Música cósmica
Einstein dijo en una ocasión que si una teoría no ofrecía una imagen física que pudiera entenderla hasta un niño, probablemente era inútil. Afortunadamente, detrás de la teoría de cuerdas hay una imagen física simple, una imagen basada en la música.
Según la teoría de cuerdas, si uno tuviera un microscopio y pudiera observar el centro de un electrón, no vería una partícula puntual sino una cuerda vibrante. (La cuerda es extremadamente pequeña, mide la longitud de Planck de 10−33 cm un billón de veces más pequeña que un protón, de modo que todas las partículas subatómicas parecen un punto). Si pellizcáramos esta cuerda, la vibración cambiaría; el electrón podría convertirse en un neutrino. Si la volviéramos a pellizcar, podría convertirse en un quark. En realidad, si la pellizcásemos con bastante fuerza, podría convertirse en cualquiera de las partículas subatómicas conocidas. De este modo, la teoría de cuerdas puede explicar sin esfuerzo por qué hay tantas partículas subatómicas. Para hacer una analogía, en una cuerda de violín las notas la, si o do sostenido no son fundamentales. Pulsando simplemente la cuerda de diferentes maneras, podemos generar todas las notas de la escala musical. El si bemol mayor, por ejemplo, no es más fundamental que el sol. Todas ellas no son más que las notas de una cuerda de violín. Del mismo modo, los electrones y los quarks no son fundamentales, pero la cuerda sí. En realidad, todas las subpartículas del universo pueden verse como nada más que diferentes vibraciones de la cuerda. Las «armonías» de la cuerda son las leyes de la física.
Las cuerdas pueden interaccionar partiéndose y volviéndose a unir, creando de este modo las interacciones que vemos entre electrones y protones en los átomos. Así, mediante la teoría de cuerdas, podemos reproducir todas las leyes de la física atómica y nuclear. Las «melodías» que pueden escribirse sobre las cuerdas corresponden a las leyes de la química. El universo puede verse ahora como una inmensa sinfonía de cuerdas.
La teoría de cuerdas no sólo explica las partículas de la teoría cuántica como las notas musicales del universo, sino que también explica la teoría de la relatividad de Einstein: la vibración más grave de la cuerda, una partícula de spin dos con masa cero, puede ser interpretada como el gravitón, una partícula o cuanto de gravedad. Si calculamos las interacciones de estos gravitones, encontramos exactamente la vieja teoría de la gravedad de Einstein en forma cuántica. Cuando la cuerda se mueve, se rompe y toma una forma distinta, pone enormes restricciones al espacio-tiempo. Cuando analizamos estas limitaciones, volvemos a encontrar la vieja teoría de la relatividad general de Einstein. Así, la teoría de cuerdas explica claramente la teoría de Einstein sin ningún trabajo adicional. Edward Witten ha dicho que, si Einstein no hubiera descubierto la relatividad, su teoría podría haber sido descubierta como producto secundario de la teoría de cuerdas. La relatividad general, en cierto sentido, sale gratis.
La belleza de la teoría de cuerdas es que puede equipararse a la música. La música proporciona la metáfora mediante la que podemos entender la naturaleza del universo, tanto a nivel subatómico como a nivel cósmico. Como escribió en una ocasión el célebre violinista Yehudi Menuhin: «La música crea orden a partir del caos, porque el ritmo impone unanimidad sobre lo divergente, la melodía impone continuidad sobre lo inconexo, y la armonía impone compatibilidad a lo incongruente». [127]
Einstein escribió que su búsqueda de una teoría del campo unificado le permitiría finalmente «leer la Mente de Dios». Si la teoría de cuerdas es correcta, vemos ahora que la Mente de Dios representa la música cósmica que resuena a través del hiperespacio de diez dimensiones. Como dijo una vez Gottfried Leibniz: «La música es el ejercicio oculto de aritmética de un alma que no es consciente de que está calculando». [128]
Históricamente, el vínculo entre la música y la ciencia se forjó ya en el siglo V antes de Cristo, cuando los pitagóricos descubrieron las leyes de la armonía y las redujeron a matemáticas. Encontraron que el tono de la cuerda pulsada de una lira se relacionaba con su longitud. Si se doblaba la longitud de la cuerda de una lira, la nota descendía una octava entera. Si la longitud de una cuerda se reducía en dos tercios, el tono subía una quinta. Por tanto, las leyes de la música y de la armonía podían reducirse a relaciones precisas entre números. No es sorprendente que el lema de los pitagóricos fuera: «Todas las cosas son números». Originalmente, estaban tan encantados con este resultado que se atrevieron a aplicar estas leyes de la armonía a todo el universo. Su esfuerzo fracasó por la enorme complejidad de la materia. Sin embargo, en cierto sentido, con la teoría de cuerdas, los físicos están volviendo al sueño pitagórico.
Al comentar este vínculo histórico, Jamie James dijo en una ocasión: «La música y la ciencia se identificaron [en otro tiempo] tan profundamente que cualquiera que sugiriera que había una diferencia esencial entre ellas habría sido considerado un ignorante, [pero ahora] alguien que proponga que tienen algo en común corre el riesgo de ser tildado de ignorante por un grupo y de diletante por el otro; y, lo peor de todo, de popularizador por ambos». [129]

6. Problemas en el hiperespacio
Pero si las dimensiones superiores existen realmente en la naturaleza y no sólo en las matemáticas puras, los teóricos de las cuerdas tienen que enfrentarse al mismo problema que eludieron Theodor Kaluza y Felix Klein en 1921 cuando formularon la primera teoría de dimensiones superiores: ¿dónde están las dimensiones superiores?
Kaluza, antes un matemático ignorado, escribió una carta a Einstein proponiéndole formular sus ecuaciones en cinco dimensiones (una de tiempo y cuatro de espacio). Matemáticamente, no había ningún problema, porque las ecuaciones de Einstein pueden ser escritas trivialmente en cualquier dimensión. Pero la carta contenía una observación asombrosa: si uno separaba manualmente las piezas de cuatro dimensiones contenidas dentro de las ecuaciones de cinco dimensiones, encontraba automáticamente, casi por magia, la teoría de la luz de Maxwell. Dicho de otro modo, la teoría de Maxwell de la fuerza electromagnética sale justamente de las ecuaciones de gravedad de Einstein simplemente añadiendo una quinta dimensión. Aunque no podemos ver la quinta dimensión, pueden formarse ondas en ella que corresponden a ondas de luz. Es un resultado gratificante, porque generaciones de físicos e ingenieros han tenido que memorizar las difíciles ecuaciones de Maxwell en los últimos 150 años. Ahora estas ecuaciones complejas surgen sin esfuerzo como las vibraciones más sencillas que uno puede encontrar en la quinta dimensión.
Imaginemos unos peces nadando en un estanque de aguas someras, justo debajo de los nenúfares, pensando que su «universo» es sólo bidimensional. Nuestro mundo tridimensional puede resultar totalmente incomprensible para ellos. Pero hay una manera que les permite detectar la presencia de la tercera dimensión. Si llueve, pueden ver claramente las sombras de las ondas viajando por la superficie del estanque. De manera similar, no podemos ver la quinta dimensión, pero las ondas en la quinta dimensión se nos aparecen en forma de luz.
(La teoría de Kaluza era una revelación bella y profunda sobre el poder de la simetría. Se demostró más tarde que, si añadimos aún más dimensiones a la vieja teoría de Einstein y las hacemos vibrar, estas vibraciones de dimensiones superiores reproducen los bosones W y Z y los gluones que se encuentran en las interacciones nucleares débiles y fuertes. Si el programa defendido por Kaluza era correcto, el universo es aparentemente mucho más sencillo de lo que se había pensado antes. Simplemente haciendo vibrar las dimensiones superiores se reproducían muchas de las fuerzas que gobiernan el mundo).
Aunque Einstein se quedó sorprendido al ver este resultado, era demasiado bonito para ser verdad. A lo largo de los años, se descubrieron problemas que hicieron inútiles las ideas de Kaluza. En primer lugar, la teoría estaba plagada de divergencias y anomalías, lo que es característico de las teorías cuánticas de la gravedad. En segundo lugar, había una pregunta física mucho más inquietante: ¿por qué no vemos la quinta dimensión? Cuando disparamos flechas hacia el cielo, no las vemos desaparecer en otra dimensión. Pensemos en el humo, que lentamente impregna todas las regiones del espacio. Como no se observa nunca que el humo desaparezca en una dimensión superior, los físicos se dieron cuenta de que las dimensiones superiores, si es que existían, tenían que ser más pequeñas que un átomo. Durante el último siglo, los místicos y matemáticos han acariciado la idea de dimensiones superiores, pero los físicos se mofaban de la idea, porque nadie había visto objetos que entraran en una dimensión superior.
Para salvar la teoría, los físicos tuvieron que proponer que estas dimensiones superiores eran tan pequeñas que no podían ser observadas en la naturaleza. Como nuestro mundo tiene cuatro dimensiones, significaba que la quinta dimensión tiene que plegarse en un pequeño círculo más pequeño que un átomo, demasiado pequeño para ser observado experimentalmente.
La teoría de cuerdas tiene que enfrentarse al mismo problema. Tenemos que formar volutas con estas dimensiones superiores indeseadas en una pequeña bola (un proceso llamado «compactificación»). Según la teoría de cuerdas, el universo tenía originalmente diez dimensiones, con todas las fuerzas unificadas por la cuerda. Sin embargo, el hiperespacio de diez dimensiones era inestable, y seis de las diez dimensiones empezaron a rizarse hasta convertirse en una pequeña bola, dejando que las otras cuatro dimensiones se expandieran hacia fuera en un big bang. La razón por la que no vemos estas otras dimensiones es que son mucho más pequeñas que un átomo y, por tanto, nada puede entrar en ellas. (Por ejemplo, la manguera de un jardín o una paja, desde la distancia, parecen objetos unidimensionales definidos por su longitud. Pero si uno los examina de cerca, encuentra que en realidad son superficies bidimensionales, es decir, cilindros; simplemente, la segunda dimensión se ha rizado de modo que a distancia no se ve).
¿Por qué cuerdas?
Si bien los intentos anteriores de una teoría del campo unificada no han llegado a buen puerto, la teoría de cuerdas ha sobrevivido a todos los desafíos. En realidad, no tiene rival. Hay dos razones por las que la teoría de cuerdas ha triunfado donde decenas de otras teorías han fracasado.
En primer lugar, como es una teoría que se basa en un objeto extendido (la cuerda), evita muchas de las divergencias asociadas con partículas puntuales. Como observó Newton, la fuerza gravitatoria que rodea una partícula puntual se vuelve infinita cuando nos acercamos a ella. (En la famosa ley del cuadrado inverso de Newton, la fuerza de la gravedad crece como 1/r2, de modo que se eleva hacia el infinito cuando nos acercamos a la partícula puntual, es decir: cuando r vale cero, la fuerza gravitatoria deviene 1/0, que es infinito).
Incluso en una teoría cuántica, la fuerza sigue siendo infinita cuando nos acercamos a una partícula cuántica puntual. A lo largo de las décadas, Feynman y otros han inventado una serie de normas arcanas para esconder bajo la alfombra estos y muchos otros tipos de divergencias. Pero para una teoría cuántica de la gravedad, ni siquiera una bolsa de trucos diseñados por Feynman es suficiente para eliminar todos los infinitos de la teoría. El problema es que las partículas puntuales son infinitamente pequeñas, lo que significa que sus fuerzas y energías son potencialmente infinitas.
Pero cuando analizamos con cuidado la teoría de cuerdas, encontramos dos mecanismos que pueden eliminar estas divergencias. El primero es debido a la topología de las cuerdas; el segundo, debido a su simetría, se llama «supersimetría».
La topología de la teoría de cuerdas es totalmente diferente de la de las partículas puntuales y, por tanto, las divergencias son muy grandes. (Hablando en general, como la cuerda tiene una longitud finita, significa que las fuerzas no se elevan hasta el infinito cuando nos acercamos a la cuerda. Cerca de la cuerda, las fuerzas sólo crecen como 1/L2, donde L es la longitud de la cuerda, que está en el orden de la longitud de Planck de 10−33 cm. Esta longitud L actúa para reducir las divergencias). Como una cuerda no es una partícula puntual, sino que tiene una medida definida, puede demostrarse que las divergencias están distribuidas a lo largo de la cuerda y, por tanto, todas las cantidades físicas permanecen finitas.
Aunque parece intuitivamente obvio que las divergencias de la teoría de cuerdas están compensadas y, por tanto, son finitas, la expresión matemática precisa de este hecho es bastante difícil y viene dada por la «función modular elíptica», una de las funciones más extrañas en las matemáticas, con una historia tan fascinante que tuvo un papel clave en una película de Hollywood. Good Will Hunting (El indomable Will Hunting) es la historia de un chico problemático de clase trabajadora de los suburbios de Cambridge, interpretado por Matt Damon, que muestra unas capacidades matemáticas asombrosas. Cuando no se está peleando a puñetazos con sus vecinos, trabaja como conserje en el MIT. Los profesores del MIT se sorprenden al ver que aquel chico pendenciero de barrio es en realidad un genio matemático capaz de escribir las respuestas de problemas matemáticos aparentemente imposibles. Al darse cuenta de que el chico ha aprendido matemáticas avanzadas por su cuenta, uno de ellos grita que es el «próximo Ramanujan».
En realidad, Good Will Hunting está basado en cierto modo en la vida de Srivinasa Ramanujan, el mayor genio matemático del siglo XX, un hombre que vivió de pequeño en la pobreza y aislado cerca de Madrás, en la India, a principios del siglo XX. Como vivía aislado, tuvo que deducir por su cuenta la gran parte de las matemáticas del siglo XIX. Su carrera era como una supernova que iluminó brevemente los cielos con su brillo matemático. Trágicamente, murió de tuberculosis en 1920 a los treinta y siete años. Como Matt Damon en Good Will Hunting, soñaba con ecuaciones matemáticas, en este caso la función modular elíptica, que posee propiedades matemáticas extrañas pero bellas, que sólo se cumplían en veinticuatro dimensiones. Los matemáticos todavía intentan descifrar las «libretas de notas de Ramanujan» que se encontraron después de su muerte. Observando el trabajo de Ramanujan, vemos que puede generalizarse en ocho dimensiones, lo cual es directamente aplicable a la teoría de cuerdas. Los físicos añaden dos dimensiones más a fin de construir una teoría física. (Por ejemplo, las gafas de sol polarizadas utilizan el hecho de que la luz tiene dos polarizaciones físicas; pueden vibrar de izquierda a derecha o de arriba abajo. Pero la formulación matemática de la luz en la ecuación de Maxwell está dada con cuatro componentes. Dos de estas cuatro vibraciones son en realidad redundantes). Cuando añadimos dos dimensiones más a las funciones de Ramanujan, los «números mágicos» de las matemáticas llegan a ser 10 y 26, precisamente los «números mágicos» de la teoría de cuerdas. Así, en cierto sentido, ¡Ramanujan estaba haciendo teoría de cuerdas antes de la Primera Guerra Mundial!
Las fabulosas propiedades de estas funciones modulares elípticas explican por qué la teoría tiene que existir en diez dimensiones. Sólo en este número exacto de dimensiones desaparecen la mayoría de las divergencias que afectan a otras teorías, como por arte de magia. Pero la topología de las cuerdas, por sí misma, no es lo bastante potente para eliminar todas las divergencias. Las restantes divergencias de la teoría son eliminadas por una segunda característica de la teoría de cuerdas, su simetría.

7. Supersimetría
La cuerda posee algunas de las mayores simetrías conocidas en la ciencia. En el capítulo 4, al comentar la inflación y el modelo estándar, vimos que la simetría nos da una buena manera de disponer las partículas subatómicas en pautas agradables y elegantes. Los tres tipos de quarks pueden disponerse según la simetría SU (3), que intercambia tres quarks entre sí. Se cree que en la teoría GUT los cinco tipos de quarks y leptones podrían disponerse según la simetría SU (5).
En la teoría de cuerdas, estas simetrías anulan las divergencias restantes y las anomalías de la teoría. Como las simetrías se encuentran entre las herramientas más bellas y potentes que tenemos a nuestro alcance, podría esperarse que la teoría del universo posea la simetría más elegante y potente conocida por la ciencia. La opción lógica es una simetría que intercambie no sólo los quarks sino todas las partículas que se encuentran en la naturaleza, es decir, que las ecuaciones sigan siendo las mismas si reorganizamos todas las partículas atómicas entre ellas. Esto describe exactamente la simetría de las supercuerdas, llamada «supersimetría». [130]Es la única simetría que intercambia todas las partículas subatómicas conocidas en la física. Esto hace que sea un candidato ideal para la simetría que organiza todas las partículas del universo en un todo unificado, único y elegante.
Si observamos las fuerzas y partículas del universo, todas ellas entran en dos categorías: «fermiones» y «bosones», según su spin. Actúan como pequeñas peonzas giratorias que pueden girar a varias velocidades. Por ejemplo, el fotón, una partícula de luz que transmite la fuerza electromagnética, tiene spin 1. Las interacciones nucleares débil y fuerte son transmitidas por bosones W y gluones, que también tienen spin 1. El gravitón, una partícula de gravedad, tiene spin 2. Todas las que tienen spin entero se llaman «bosones». Igualmente, las partículas de la materia son descritas por partículas subatómicas con spin fraccionario: 1/2, 3/2, 5/2, etcétera. (Las partículas de spin fraccionario se llaman «fermiones» e incluyen el electrón, el neutrino y los quarks). Así, la supersimetría representa elegantemente la dualidad entre bosones y fermiones, entre energía y materia.
En una teoría supersimétrica, todas las partículas subatómicas tienen una pareja: cada fermión está aparejado con un bosón. Aunque nunca hemos visto estas parejas supersimétricas en la naturaleza, los físicos han dado a la pareja del electrón el nombre de «selectrón», con spin 0. (Los físicos añaden una «s» para describir la superpareja de una partícula). Las interacciones débiles incluyen partículas llamadas «leptones»; sus superparejas son los «sleptones». Del mismo modo, el quark puede tener una pareja de spin 0 llamada «squark». En general, las parejas de las partículas conocidas (los quarks, leptones, gravitones, fotones, etcétera) se llaman «spartículas», o «superpartículas». Estas spartículas todavía no se han podido detectar en nuestros colisionadores de átomos (probablemente porque nuestras máquinas no son lo bastante potentes para generarlas).
Pero como todas las partículas subatómicas son o bien fermiones, o bien bosones, una teoría supersimétrica tiene el potencial de unificar todas las partículas subatómicas conocidas en una simetría simple. Ahora tenemos una simetría lo bastante grande para incluir el universo entero.
Pensemos en un cristal de nieve. Cada una de sus seis puntas representa una partícula subatómica, tres bosones y tres fermiones intercalados alternadamente. La belleza de este «supercristal de nieve» es que, cuando lo hacemos girar, sigue siendo el mismo. De este modo, el supercristal de nieve unifica todas las partículas y sus spartículas. Así, si intentáramos construir una teoría del campo unificado hipotético con sólo seis partículas, el supercristal de nieve sería un candidato natural.
La supersimetría ayuda a eliminar las infinidades restantes que son fatales para otras teorías. Dijimos anteriormente que la mayoría de las divergencias son eliminadas por la topología de la cuerda; es decir, como la cuerda tiene una longitud finita, las fuerzas no se elevan hasta el infinito a medida que nos acercamos. Cuando examinamos las divergencias restantes, encontramos que son de dos tipos, a partir de las interacciones de bosones y fermiones. Sin embargo, estas dos contribuciones siempre ocurren con los signos opuestos, por lo que la contribución del bosón precisamente cancela la contribución del fermión. En otras palabras, como las contribuciones fermiónicas y bosónicas siempre tienen signos opuestos, las infinidades restantes de la teoría se cancelan una a otra. Así, la supersimetría es más que un escaparate; no sólo es una simetría agradable estéticamente porque unifica todas las partículas de la naturaleza, sino que también es esencial para cancelar las divergencias de la teoría de cuerdas.
Recordemos la analogía del diseño de un elegante cohete, en el que las vibraciones en las alas pueden crecer y acabar rompiéndolas. Una solución es explotar el poder de la simetría, rediseñar las alas de modo que las vibraciones en un ala se cancelen con las vibraciones en la otra. Cuando un ala vibra en la dirección de las agujas del reloj, la otra vibra en la dirección contraria, cancelando la primera vibración. Así, la simetría del cohete, en lugar de ser sólo un mecanismo artificial artístico, es crucial para cancelar y equilibrar las tensiones de las alas. De manera similar, la supersimetría anula divergencias al cancelarse una a otra las partes bosónica y fermiónica.
(La supersimetría también resuelve una serie de problemas altamente técnicos que son fatales para la teoría GUT. Las complicadas incoherencias matemáticas en la teoría GUT necesitan la supersimetría para ser eliminadas). [131]
Aunque la supersimetría representa una idea potente, en el presente no hay absolutamente ninguna prueba experimental que la sustente. Esto puede ser porque las superparejas de los electrones y protones familiares son simplemente demasiado masivas para poderlas generar en los aceleradores de partículas actuales. No obstante, hay un seductor indicio que marca el camino hacia la supersimetría. Ahora sabemos que las energías de las tres fuerzas cuánticas son bastante diferentes. De hecho, a baja intensidad, la interacción fuerte es treinta veces más fuerte que la débil y cien veces más potente que la fuerza electromagnética. Sin embargo, no siempre fue así. En el instante del big bang, sospechamos que las tres fuerzas tenían el mismo nivel de energía. Remontándose al pasado, los físicos pueden calcular cuáles habrían sido los niveles de energía de las tres fuerzas al principio de los tiempos. Analizando el modelo estándar, los físicos encuentran que tres fuerzas parecen converger en nivel energético cerca del big bang. Pero no son exactamente iguales. Sin embargo, cuando uno añade la supersimetría, las tres fuerzas encajan perfectamente y tienen un nivel energético igual, precisamente lo que sugeriría una teoría del campo unificado. Aunque no es una prueba directa de la supersimetría, demuestra al fin que la supersimetría es coherente con la física conocida.

07-01.jpg
Las fuerzas de las interacciones débil, fuerte y electromagnética son bastante diferentes en nuestro mundo cotidiano. Sin embargo, en las energías encontradas cerca del big bang, las interacciones de estas fuerzas deberían converger perfectamente. Esta convergencia ocurre si tenemos una teoría supersimétrica. Así, la supersimetría puede ser un elemento clave en cualquier teoría del campo unificado.

8. Derivaciones del Modelo Estándar
Aunque las supercuerdas no tienen parámetros ajustables en absoluto, la teoría de cuerdas puede ofrecer soluciones que están asombrosamente cerca del modelo estándar, con sus colecciones variopintas de partículas subatómicas extrañas y sus diecinueve parámetros libres (como las masas de las partículas y sus fuerzas emparejadas). Además, el modelo estándar tiene tres copias idénticas y redundantes de todos los quarks y leptones, que parecen totalmente innecesarias. Afortunadamente, la teoría de cuerdas puede obtener muchas de las características cualitativas del modelo estándar sin esfuerzo alguno. Es casi como conseguir algo a partir de nada. En 1984, Philip Candelas, de la Universidad de Texas, Gary Horowitz y Andrew Strominger, de la Universidad de California en Santa Bárbara, y Edward Witten demostraron que si se enrollaban seis de las diez dimensiones de la teoría de cuerdas y se seguía conservando la simetría en las restantes cuatro dimensiones, el pequeño mundo de seis dimensiones podía describirse con lo que los matemáticos llamaban una «multiplicidad de Calabi-Yau». Con unas cuantas opciones simples de los espacios de Calabi-Yau, demostraron que la simetría de las cuerdas puede reducirse a una teoría notablemente cercana al modelo estándar.
De este modo, la teoría de cuerdas ofrece una respuesta sencilla a por qué el modelo estándar tiene tres generaciones redundantes. En la teoría de cuerdas, el número de generaciones o redundancias en el modelo quark está relacionado con el número de «agujeros» que tenemos en la multiplicidad de Calabi-Yau. (Por ejemplo, un donut, el interior de un tubo y una taza de café son tres superficies que contienen un agujero. La montura de las gafas tiene dos agujeros. Las superficies de Calabi-Yau pueden tener un número arbitrario de agujeros). Así, eligiendo simplemente la multiplicidad de Calabi-Yau que tiene un número determinado de agujeros, podemos construir un modelo estándar con diferentes generaciones de quarks redundantes. (Como nunca vemos el espacio de Calabi-Yau porque es tan pequeño, tampoco nunca vemos el hecho de que este espacio tenga agujeros de donut). A lo largo de los años, equipos de científicos han intentado arduamente catalogar todos los espacios posibles de Calabi-Yau, constatando que la topología del espacio de seis dimensiones determina los quarks y leptones de nuestro universo cuatridimensional.

9. Más sobre la teoría M
La agitación alrededor de la teoría de cuerdas desatada en 1984 no podía durar para siempre. A mediados de la década de 1990, la carroza de las supercuerdas fue perdiendo gas poco a poco entre los físicos. Se eliminaron los problemas fáciles que planteaba la teoría y quedaron sólo los difíciles. Uno de estos problemas era que se estaban descubriendo miles de millones de soluciones de las ecuaciones de las cuerdas. Compactificando o rizando el espacio-tiempo de diferentes maneras, podían escribirse soluciones de cuerdas en cualquier dimensión, no sólo en cuatro. Cada una de los miles de millones de soluciones correspondía a un universo matemáticamente autocoherente.
De pronto los físicos se vieron inundados de soluciones de cuerdas. Sorprendentemente, muchas de ellas parecían muy similares a nuestro universo. Con una opción adecuada del espacio de Calabi-Yau, era relativamente fácil reproducir muchas de las características ordinarias del modelo estándar, con su extraña colección de quarks y leptones, incluso con su curiosa serie de copias redundantes. Sin embargo, era excesivamente difícil (y sigue siendo un reto todavía hoy) encontrar exactamente el modelo estándar, con los valores específicos de sus diecinueve parámetros y tres generaciones redundantes. (El número desconcertante de soluciones de cuerdas, en realidad, fue bien acogido por los físicos que creen en la idea del multiverso, ya que cada solución representa un universo paralelo totalmente autocoherente. Lo angustiante era que los físicos tenían problemas para encontrar precisamente nuestro universo entre esta selva de universos).
Una razón para que sea algo tan difícil es que a la larga tiene que romperse la supersimetría, ya que en nuestro mundo de baja energía no vemos supersimetría. En la naturaleza, por ejemplo, no vemos el selectrón, la superpareja del electrón. Si no se rompe la supersimetría, la masa de cada partícula debería igualar la masa de su superpartícula. Los físicos creen que la supersimetría se rompe, con el resultado de que las masas de las superpartículas son inmensas, más allá del alcance de los aceleradores de partículas actuales. Pero, de momento, nadie ha encontrado un mecanismo creíble para romper la supersimetría.
David Gross, del Instituto Kavli de Física Teórica de Santa Bárbara, ha señalado que hay millones de millones de soluciones a la teoría de cuerdas en tres dimensiones espaciales, lo cual es bastante embarazoso porque no hay una buena manera de elegir entre ellas.
Había otras cuestiones inquietantes. Una de las más molestas era que había cinco teorías de cuerdas autocoherentes. Era difícil imaginar que el universo pudiera tolerar cinco teorías del campo unificado distintas. Einstein creía que Dios no había tenido opción al crear el universo, ¿por qué pues iba a crear cinco?
La teoría original basada en la fórmula de Veneziano describe lo que se llama «teoría de supercuerdas de tipo I». La teoría de tipo I se basa tanto en cuerdas abiertas (cuerdas con dos extremos) como cerradas (cuerdas circulares). Ésta es la teoría que se estudió con más intensidad a principios de los años setenta. (Utilizando la teoría de campo de cuerdas, Kikkawa y yo pudimos catalogar la serie completa de interacciones de cuerda de tipo I. Demostramos que las cuerdas de tipo I requieren cinco interacciones; para cuerdas cerradas, demostramos que sólo es necesario un tipo de interacción).
07-02.jpg
Las cuerdas de tipo I sufren cinco interacciones posibles, en las que las cuerdas pueden romperse, unirse o fusionarse. En cuerdas cerradas, sólo es necesaria la última interacción (parecida a la mitosis de las células).
Kikkawa y yo también demostramos que es posible construir teorías autocoherentes sólo con cuerdas cerradas (las parecidas a un bucle). Hoy en día, estas teorías se llaman «de tipo II», en las que las cuerdas interaccionan pinzando una cuerda circular para obtener dos cuerdas más pequeñas (algo parecido a la mitosis de una célula).
La teoría de cuerdas más realista es la llamada «cuerda heterópica», formulada por el grupo de Princeton (que incluía a David Gross, Emil Martinec, Ryan Rohm y Jeffrey Harvey). Las cuerdas heteróticas pueden acomodar grupos de simetría llamados E (8) × E (8) u O (32), que son lo bastante grandes para absorber las teorías GUT. La cuerda heterópica se basa totalmente en las cuerdas cerradas. En los años ochenta y noventa, cuando los científicos se referían a la supercuerda, se referían tácitamente a la cuerda heterópica, porque era lo bastante rica para permitir analizar el modelo estándar y teorías GUT. El grupo de simetría E (8) × E (8), por ejemplo, puede reducirse a E (8), y después a E (6), que a su vez es lo bastante grande para incluir la simetría SU (3) × SU (2) × U (1) del modelo estándar.

10. El misterio de la supergravedad
Además de las cinco teorías de supercuerdas, hay otra cuestión inquietante que había quedado olvidada entre las prisas por resolver la teoría de cuerdas. En 1976, tres físicos, Peter Van Nieuwenhuizen, Sergio Ferrara y Daniel Freedman, que entonces trabajaban en Stony Brook, en la State University de Nueva York, descubrieron que la teoría original de la gravedad de Einstein podía volverse supersimétrica si se introducía sólo un campo nuevo, una superpareja del campo de gravedad original (llamado «gravitino», que significa «pequeño gravitón», con un spin de 3/2). Esta nueva teoría se llamó «supergravedad» y se basaba en partículas puntuales, no en cuerdas. A diferencia de la supercuerda, con su secuencia infinita de notas y resonancias, la supergravedad tenía sólo dos partículas. En 1978, Eugene Cremmer, Joel Scherk y Bernard Julia, de la École Normale Supérieure, demostraron que la supergravedad más general podía escribirse en nueve dimensiones. (Si intentásemos escribir la teoría de la supergravedad en doce o trece dimensiones, surgirían incoherencias matemáticas). A finales de los años setenta y principios de los ochenta, se pensaba que la supergravedad podía ser la legendaria teoría del campo unificado. La teoría inspiró incluso a Stephen Hawking a hablar del «final de la física teórica» en la conferencia inaugural que pronunció cuando ocupó el puesto de profesor Lucasiano de Matemáticas en la Universidad de Cambridge, el mismo puesto que ocupó en su tiempo Isaac Newton. Pero la supergravedad no tardó en chocar con problemas difíciles que habían dado al traste con teorías anteriores. Aunque tenía menos infinidades que la teoría de campo ordinaria, a fin de cuentas la supergravedad no era finita y estaba plagada de anomalías. Como todas las demás teorías de campo (excepto la teoría de cuerdas), estalló en la cara de los científicos.
Otra teoría supersimétrica que puede existir en once dimensiones es la teoría de la supermembrana. Aunque la cuerda tiene sólo una dimensión que define su longitud, la supermembrana puede tener dos o más dimensiones porque representa una superficie. Sorprendentemente, se demostró que dos tipos de membrana (una dos-brana y una cinco-brana) son también auto coherentes en once dimensiones.
Sin embargo, las supermembranas también tenían problemas; es notablemente difícil trabajar con ellas y en realidad sus teorías cuánticas divergen. Mientras las cuerdas del violín son tan sencillas que los pitagóricos griegos descubrieron sus leyes de armonía hace dos mil años, las membranas son tan difíciles que aún hoy nadie ha dado con una teoría satisfactoria de la música que se basa en ellas. Además, se demostró que estas membranas eran inestables y que finalmente se desintegraban en partículas puntuales.
Así, a mediados de los años noventa, los físicos afrontaban varios misterios. ¿Por qué había cinco teorías de cuerdas en diez dimensiones? ¿Y por qué había dos teorías en once dimensiones, supergravedad y supermembranas? Además, todas poseían la supersimetría.

11. Undécima dimensión
En 1994 cayó una nueva bomba. Se produjo un descubrimiento que volvió a cambiar todo el paisaje. Edward Witten y Paul Townsend, de la Universidad de Cambridge, encontraron matemáticamente que la teoría de cuerdas de diez dimensiones era en realidad una aproximación a una teoría superior y misteriosa de once dimensiones de origen desconocido. Witten, por ejemplo, demostró que si tomamos una teoría de membranas en once dimensiones y hacemos un ovillo con una dimensión, ¡se convierte en una teoría de cuerdas de diez dimensiones tipo IIa!
Poco después, se vio que podía demostrarse que las cinco teorías de las cuerdas eran la misma y que se trataba sólo de diferentes aproximaciones a la misma teoría misteriosa de once dimensiones. Como pueden existir membranas de diferentes tipos en once dimensiones, Witten dio a esta nueva teoría el nombre de teoría M. No sólo unificaba las cinco teorías de cuerdas diferentes, sino que de paso explicaba el misterio de la supergravedad.
La supergravedad, como recordará el lector, era una teoría de once dimensiones que contenía sólo dos partículas con masa cero, el gravitón original de Einstein y su pareja supersimétrica (llamada «gravitino»). En cambio, la teoría M tiene un número infinito de partículas con masas diferentes (correspondientes a las vibraciones infinitas que pueden encontrarse en algún tipo de membrana de once dimensiones). Pero la teoría M puede explicar la existencia de la supergravedad si partimos de la base de que una pequeña porción de la teoría M (simplemente las partículas sin masa) es la vieja teoría de la supergravedad. Dicho de otro modo, la teoría de la supergravedad es un pequeño subconjunto de la teoría M. De manera similar, si tomamos esta misteriosa teoría de membranas de once dimensiones y hacemos un ovillo de una dimensión, la membrana se convierte en cuerda. ¡En realidad, se convierte precisamente en una teoría de cuerdas de tipo II! Por ejemplo, si miramos una esfera en once dimensiones y luego plegamos una dimensión, la esfera colapsa y su ecuador se convierte en una cuerda cerrada. Observamos que la teoría de cuerdas puede verse como una rebanada de una membrana en once dimensiones si convertimos la undécima dimensión en un pequeño círculo.
De este modo encontramos una manera sencilla y bella de unificar toda la física de diez y once dimensiones en una sola teoría. Se trataba de un tour de force conceptual.
Aún recuerdo el trauma que generó este descubrimiento explosivo. En aquel momento yo iba a impartir una conferencia en la Universidad de Cambridge. Paul Townsend me presentó amablemente al público, pero, antes de que yo empezase, explicó con gran entusiasmo este nuevo resultado de que, en la undécima dimensión, las distintas teorías de cuerdas pueden unificarse en una sola. El título de mi conferencia mencionaba la décima dimensión. Antes de empezar, Townsend me dijo que, si esta teoría resultaba cierta, el título de mi conferencia quedaría obsoleto.
Yo pensé silenciosamente: «Ah, oh». O se había vuelto loco o la comunidad de la física se vería completamente revolucionada.

07-03.jpg
Una cuerda de diez dimensiones puede surgir de una membrana de once dimensiones cortando en rebanada una dimensión o haciendo un ovillo con ella. El ecuador de una membrana se convierte en la cuerda cuando una dimensión colapsa. Hay cinco maneras en que puede producirse esta reducción, que dan lugar a cinco teorías de supercuerdas distintas en diez dimensiones.

Como no podía creer lo que oía, le bombardeé con una salva de preguntas. Señalé que las supermembranas de once dimensiones, una teoría que él había ayudado a formular eran inútiles porque eran intratables matemáticamente y, peor aún, eran inestables. Admitió que era un problema, pero que estaba seguro que estas cuestiones se resolverían en el futuro.
También le dije que la supergravedad de once dimensiones no era finita; que explotaba, como todas las demás teorías excepto, la de las cuerdas. Aquello ya no era un problema, me contesto con calma, porque la supergravedad no era más que una aproximación a una teoría más grande y aún misteriosa, la teoría M, que era finita (en realidad, era la teoría de cuerdas reformulada en la undécima dimensión en términos de membranas).
Entonces le dije que las supermembranas eran inaceptables porque nadie había sido capaz de explicar cómo las membranas interaccionaban al colisionar y adoptar nuevas formas (como había hecho yo en mi tesis doctoral años antes para la teoría de cuerdas). Admitió que era un problema, pero que estaba seguro de que también podría resolverse.
Finalmente, le dije que en realidad la teoría M no era una teoría en absoluto, porque sus ecuaciones básicas no eran conocidas. A diferencia de la teoría de cuerdas (que podía expresarse en términos de las sencillas ecuaciones de campo de las cuerdas que encapsulaban toda la teoría y que había escrito yo mismo unos años antes), las membranas no tenían teoría de campo en absoluto. Admitió también este punto, pero seguía convencido de que con el tiempo se encontrarían las ecuaciones de la teoría M.
Yo estaba confundido. Si tenía razón, la teoría de cuerdas sería sometida nuevamente a una transformación radical. Las membranas, que se habían visto relegadas en el cubo de la basura de la historia de la física, de pronto resucitaban.
El origen de esta revolución es que la teoría de cuerdas todavía evoluciona hacia atrás. Aún hoy, nadie conoce los sencillos principios físicos que subyacen a toda la teoría. Me gusta visualizarlo como si andando por el desierto uno tropezara accidentalmente con una hermosa piedra pequeña. Al retirar los granos de arena, encontramos que la piedra es en realidad la parte superior de una pirámide gigantesca enterrada bajo toneladas de arena. Después de décadas de excavar pacientemente, encontramos jeroglíficos misteriosos, cámaras ocultas y túneles. Un día llegaremos a la planta baja y por fin atravesaremos el umbral.

12. El mundo brana
Una de las características novedosas de la teoría M es que no sólo introduce cuerdas, sino una colección completa de membranas de diferentes dimensiones. En esta imagen, las partículas punto se llaman «cero-branas», porque son objetos infinitamente pequeños y no tienen dimensiones. Una cuerda es uno-brana porque es un objeto unidimensional definido por su longitud. Una membrana es «dos-brana», como la superficie de un balón de baloncesto, definida por longitud y anchura. (Un balón de baloncesto puede flotar en tres dimensiones, pero su superficie es sólo bidimensional). Nuestro universo puede ser algún tipo de «tres-brana», un objeto tridimensional que tiene longitud, anchura y altura. (Como apuntó una persona ingeniosa, si el espacio tiene p dimensiones, siendo p un número entero, nuestro universo es un p-brana, que en inglés se pronunciaría como pea-brain [«cerebro de guisante»]. El gráfico que muestra todos esos pea-brains se llama «brane-scan»).
Hay varias maneras de tomar una membrana y colapsarla para convertirla en una cuerda. En lugar de plegar la undécima dimensión, también podemos cortar una rebanada en el ecuador de una membrana de once dimensiones, creando una cinta circular. Si dejamos que el grosor de la cinta se encoja, la cinta se convierte en una cuerda de diez dimensiones. Petr Horava y Edward Witten demostraron que es así como derivamos la cuerda heterótica.
En realidad, puede demostrarse que hay cinco maneras de reducir la teoría M de once dimensiones a diez dimensiones, produciendo de este modo las cinco teorías de supercuerdas. La teoría M nos da una respuesta rápida e intuitiva al misterio de por qué hay cinco teorías de cuerdas diferentes. Imaginemos que estamos de pie en lo alto de una gran montaña y miramos hacia la llanura de abajo. Desde el punto de vista de la tercera dimensión, podemos ver las diferentes partes de la llanura unificadas en una sola imagen coherente. Del mismo modo, desde el punto de vista de la undécima dimensión, mirando abajo hacia la décima, vemos el enloquecedor zurcido de cinco teorías de supercuerdas como nada más que distintos fragmentos de la undécima dimensión.

13. Dualidad
Aunque Paul Townsend no pudo responder a la mayoría de las preguntas que le formulé en aquel momento, lo que finalmente me convenció de que la idea era correcta fue el poder de otra simetría más. La teoría M no sólo tiene la serie más grande de simetrías conocidas por los físicos, sino que tiene otro truco en la manga: la dualidad, que le da la asombrosa capacidad de absorber las cinco teorías de supercuerdas en una sola.
Consideremos la electricidad y el magnetismo, que están gobernados por las ecuaciones de Maxwell. Se constató hace tiempo que si simplemente se intercambia el campo eléctrico con el magnético, las ecuaciones parecen casi iguales. Esta simetría puede hacerse exacta si pueden añadirse los monopolos (polos únicos de magnetismo) a las ecuaciones de Maxwell. Las ecuaciones revisadas de Maxwell permanecen exactamente iguales si intercambiamos el campo eléctrico por el magnético y la carga eléctrica e con la inversa de la carga magnética g. Eso significa que la electricidad (Si la carga eléctrica es baja) es exactamente equivalente al magnetismo (Si la carga magnética es alta). Esta equivalencia se llama «dualidad».
En el pasado, esta dualidad se consideró una simple curiosidad científica, un truco de salón, porque nadie ha visto nunca un monopolo, ni siquiera hoy. Sin embargo, los físicos consideraban que era notable que las ecuaciones de Maxwell tuvieran una simetría oculta que aparentemente la naturaleza no usa (al menos en nuestro sector del universo).
De manera similar, las cinco teorías de cuerdas son todas duales una con otra. Consideremos la teoría de cuerda del tipo I y la heterótica SO (32). Normalmente, estas dos teorías ni siquiera se parecen. La teoría del tipo I se basa en cuerdas cerradas y abiertas que pueden interaccionar de cinco maneras diferentes, con las cuerdas dividiéndose y uniéndose. La cuerda SO (32), por otro lado, se basa totalmente en cuerdas cerradas que tienen una manera posible de interaccionar, sufriendo una mitosis como una célula. La cuerda de tipo I se define totalmente en el espacio de diez dimensiones, mientras que la cuerda SO (32) se define con una serie de vibraciones definidas en un espacio de veintiséis dimensiones.
Normalmente, no pueden encontrarse dos teorías que parezcan tan distintas. Sin embargo, como en el electromagnetismo, las teorías poseen una dualidad poderosa: Si dejamos que aumente la fuerza de las interacciones, las cuerdas de tipo I se vuelven cuerdas heteróticas SO(32), como por arte de magia. (Este resultado es tan inesperado que, cuando lo vi por primera vez, la sorpresa me dejó sacudiendo un rato la cabeza. En física, raramente vemos dos teorías que parezcan tan distintas en todos los aspectos y que resulten matemáticamente equivalentes).

14. Lisa Randall
Tal vez la mayor ventaja de la teoría M sobre la teoría de cuerdas es que estas dimensiones superiores, en lugar de ser bastante pequeñas, en realidad pueden ser bastante grandes e incluso observables en el laboratorio. En la teoría de cuerdas, seis de las dimensiones superiores tienen que ser convertidas en una pequeña bola, una multiplicidad de Calabi-Yau, demasiado pequeña para ser observada con los instrumentos de hoy en día. Estas seis dimensiones han sido todas compactificadas de modo que es imposible entrar en una dimensión superior: lo que es bastante decepcionante para los que un día confiaron en elevarse hacia un hiperespacio infinito, en lugar de limitarse a tomar breves atajos por el hiperespacio compactificado a través de los agujeros de gusano.
Sin embargo, la teoría M también presenta membranas; es posible ver todo nuestro universo como una membrana flotando en un universo mucho más grande. Como resultado, no todas estas dimensiones superiores tienen que ser convertidas en bolas. Algunas de ellas, en realidad, pueden ser inmensas, de extensión infinita.
Una física que ha intentado explotar esta nueva imagen del universo es Lisa Randall, de Harvard. Randall, que tiene cierto parecido con la actriz Jodie Foster, parece fuera de lugar en la profesión de la física teórica, ferozmente competitiva, intensamente masculina y dominada por la testosterona. Randall estudia la idea de que, si el universo es realmente una tres-brana flotando en el espacio superdimensional, tal vez esto explique por qué la gravedad es tan débil comparada con las otras tres fuerzas.
Randall vivió de pequeña en Queens, Nueva York (el barrio inmortalizado por Archie Bunker). Aunque en su infancia no mostraba ningún interés particular por la física, le encantaban las matemáticas. Creo que, si bien de pequeños todos somos científicos, no todos siguen con su amor por la ciencia al alcanzar la edad adulta. Una razón es que topamos con la pared de las matemáticas.
Tanto si nos gusta como si no, para hacer una carrera en la ciencia, hay que aprender el «lenguaje de la naturaleza»: las matemáticas. Sin matemáticas, sólo podemos ser observadores pasivos del baile de la naturaleza y no participantes activos. Como dijo Einstein en una ocasión: «La matemática pura es, a su manera, la poesía de las ideas lógicas». [132] Permítanme ofrecer una analogía. Uno puede amar la civilización y la literatura francesa, pero, para entender la mente francesa, tendrá que aprender el francés y a conjugar sus verbos. Lo mismo puede decirse de la ciencia y las matemáticas. Galileo escribió en una ocasión: « [El universo] no puede leerse hasta que hayamos aprendido el lenguaje y nos hayamos familiarizado con los caracteres en que está escrito. Está escrito en lenguaje matemático y las letras son triángulos, círculos y otras figuras geométricas, sin los cuales es humanamente imposible entender una sola palabra». [133]
Pero los matemáticos a menudo se enorgullecen de ser los menos prácticos de todos los científicos. Cuanto más abstractas e inútiles sean las matemáticas, mejor. Lo que hizo tomar una dirección diferente a Randall cuando estudiaba en Harvard a principios de la década de 1980 fue que le gustaba la idea de que la física pudiera crear «modelos» del universo. Cuando los físicos proponemos una nueva teoría, ésta no se basa simplemente en un montón de ecuaciones. Las nuevas teorías de la física suelen basarse en modelos simplificados idealizados que se aproximan a un fenómeno. Esos modelos suelen ser gráficos, pictóricos y fáciles de entender. El modelo del quark, por ejemplo, se basa en la idea de que dentro de un protón hay tres pequeños componentes, los quarks. A Randall le impresionaba que modelos sencillos, basados en imágenes físicas, pudieran explicar adecuadamente gran parte del universo.
En la década de 1990, se interesó por la teoría M, por la posibilidad de que todo el universo fuera una membrana. Se centró en la que tal vez sea la característica más enigmática de la gravedad que su fuerza fuera astronómicamente pequeña. Ni Newton ni Einstein habían estudiado esta cuestión fundamental pero misteriosa. Mientras las otras tres fuerzas del universo (el electromagnetismo, la interacción nuclear débil y la interacción nuclear fuerte) tienen más o menos la misma fuerza, la gravedad es totalmente diferente.
En particular, las masas de los quarks son mucho más pequeñas que la masa asociada a la gravedad cuántica. «La discrepancia no es pequeña; ¡las dos escalas de masa están separadas por dieciséis órdenes de magnitud! Sólo las teorías que explican esta discrepancia enorme son probables candidatas a poder abarcar el modelo estándar», [134] dice Randall.
El hecho de que la gravedad sea tan débil explica por qué las estrellas son tan grandes. La Tierra, con sus océanos montañas y continentes, no es más que una pequeña mancha cuando se compara con las dimensiones masivas del Sol. Pero como la gravedad es tan débil, se necesita toda la masa de una estrella para acumular hidrógeno de manera que pueda superar la fuerza eléctrica de repulsión del protón. Así, las estrellas son tan masivas porque la gravedad es débil comparada con las otras fuerzas.
Mientras la teoría M estaba generando tanta agitación en la física, varios grupos intentaron aplicar esta teoría a nuestro universo. Partamos de la base de que el universo es una tres-brana flotando en un mundo de cinco dimensiones. Esta vez las vibraciones en la superficie de la tres-brana corresponden a los átomos que vemos a nuestro alrededor. Así, estas vibraciones nunca dejan la tres-brana y, por tanto, no pueden desviarse hacia la quinta dimensión. Aunque nuestro universo flote en la quinta dimensión, nuestros átomos no pueden dejar nuestro universo porque representan vibraciones en la superficie de la tres-brana. Así, esto puede responder a la pregunta que formularon Kaluza y Einstein en 1921: ¿dónde está la quinta dimensión? La respuesta es: estamos flotando en la quinta dimensión, pero no podemos entrar en ella porque nuestros cuerpos están pegados a la superficie de una tres-brana.
Pero hay un fallo potencial en esta imagen. La gravedad representa la curvatura del espacio. Así, inocentemente, podríamos esperar que la gravedad pudiese llenar todo el espacio de cinco dimensiones, y no sólo la tres-brana; de este modo la gravedad se diluiría al dejar la tres-brana, lo cual debilita la fuerza de la gravedad. Esto es bueno para apoyar la teoría, porque la gravedad, como sabemos, es mucho más débil que las otras fuerzas. Pero la debilita demasiado: se violaría la ley de cuadrado inverso de Newton, que, sin embargo, funciona perfectamente para los planetas, estrellas y galaxias. En ningún lugar del espacio encontramos una ley de cubo inverso para la gravedad. (Imaginemos una bombilla iluminando una habitación. La luz se esparce en una esfera. La potencia de la luz se diluye a través de esta esfera. Así, si doblamos el radio de la esfera, la luz se esparce por una esfera de un área cuatro veces mayor. En general, si existe una bombilla en un espacio dimensional n, su luz se diluye a través de una esfera cuya área aumenta según la potencia n−1 cuando el radio se eleva).
Para responder a esta pregunta, un grupo de físicos que incluye a N. Arkani-Hamed, S. Dimopoulos y G. Dvali ha sugerido que quizá la quinta dimensión no es infinita, sino que está a un milímetro de la nuestra, flotando justo por encima de nuestro universo, como en el relato de ciencia ficción de H. G. Wells. (Si la quinta dimensión estuviera a una distancia superior a un milímetro, podría crear violaciones mensurables de la ley del cuadrado inverso de Newton). Si la quinta dimensión está a sólo un milímetro, esta predicción podría ser comprobada buscando pequeñas desviaciones de la ley de la gravedad de Newton en distancias muy pequeñas. La ley de la gravedad de Newton funciona bien en distancias astronómicas, pero nunca ha sido probada en dimensiones de un milímetro. Los experimentalistas se apresuran ahora a comprobar pequeñas desviaciones de la ley del cuadrado inverso. Este resultado es actualmente el tema de varios experimentos en marcha, como veremos en el capítulo 9.
Randall y su colega Raman Sundrum decidieron adoptar un nuevo enfoque para reexaminar la posibilidad de que la quinta dimensión no estuviera a un milímetro de distancia, sino que quizá fuera incluso infinita. Para hacerlo, tuvieron que explicar cómo podría ser infinita la quinta dimensión sin destruir la ley de la gravedad de Newton. Aquí es donde Randall dio con una respuesta potencial al enigma. Encontró que la tres-brana tiene un tirón gravitatorio propio que impide a los gravitones ir libremente a la quinta dimensión. Los gravitones tienen que agarrarse a la tres-brana (como las moscas atrapadas en una tira matamoscas) a causa de la gravedad que ejerce la tres-brana. Así, cuando intentamos medir la ley de Newton, encontramos que es aproximadamente correcta en nuestro universo. La gravedad se diluye o se debilita al dejar la tres-brana y entrar en la quinta dimensión, pero no va muy lejos: la ley del cuadrado inverso todavía se mantiene más o menos porque los gravitones siguen atraídos por la tres-brana. (Randall también introdujo la posibilidad de que existiera una segunda membrana paralela a la nuestra. Si calculamos la sutil interacción de la gravedad a través de las dos membranas, puede ajustarse de modo que podamos explicar numéricamente la debilidad de la gravedad).
«Hubo mucha emoción cuando se sugirió por primera vez que las dimensiones extra proporcionan maneras alternativas de abordar el origen del problema de jerarquía», [135] dice Randall. «Las dimensiones espaciales adicionales pueden parecer una idea extravagante y loca al principio, pero hay razones poderosas para creer que realmente hay dimensiones extra del espacio».
Si estos físicos tienen razón, la gravedad es igual de potente que otras fuerzas, sólo que se atenúa porque parte de ella se filtra al espacio de dimensiones superiores. Una consecuencia profunda de esta teoría es que la energía en la que estos efectos cuánticos se hacen mensurables puede no ser la de Planck (1019 mil millones de electronvoltios), como se pensó anteriormente. Tal vez sólo sean necesarios billones de electronvoltios, en cuyo caso el Gran Colisionador de Hadrones (cuya finalización está prevista para 2008) podrá recoger efectos gravitatorios cuánticos durante esta década. Esto ha estimulado un interés considerable entre los físicos experimentales por ir en busca de partículas exóticas más allá del modelo estándar de partículas subatómicas. Tal vez estén a nuestro alcance los efectos gravitatorios cuánticos.
Las membranas también dan una respuesta plausible aunque especulativa al enigma de la materia oscura. En la novela de H. G. Wells El hombre invisible, el protagonista flotaba en la cuarta dimensión y, por tanto, era invisible. De manera similar, imaginemos que hay un mundo paralelo suspendido justo por encima de nuestro universo. Cualquier galaxia de este universo paralelo sería invisible para nosotros. Pero como la curvatura del hiperespacio es lo que causa la gravedad, ésta podría saltar a través de los universos. Cualquier galaxia grande en este otro universo se vería atraída a través del hiperespacio hacia una galaxia de nuestro universo. Así, al medir las propiedades de nuestras galaxias, encontraríamos que su tirón gravitatorio es mucho más fuerte que el previsto por las leyes de Newton, puesto que hay otra galaxia escondida justo detrás flotando en una brana cercana. Esta galaxia oculta suspendida detrás de nuestra galaxia sería totalmente invisible, flotando en otra dimensión, pero tendría el aspecto de un halo alrededor de nuestra galaxia que contendría el 90% de la masa. Así pues, la materia oscura puede ser causada por la presencia de un universo paralelo.

15. Universos en colisión
Puede ser un poco prematuro aplicar la teoría M a la cosmología seria. Sin embargo, los físicos han intentado aplicar la «física de branas» para dar un nuevo giro al enfoque inflacionario habitual del universo. Tres cosmologías posibles han atraído cierta atención.
La primera intenta responder a la pregunta: ¿por qué vivimos en cuatro dimensiones de espacio-tiempo? En principio, la teoría M puede ser formulada en todas las dimensiones hasta once, de modo que parece una especie de misterio que destaquen cuatro. Robert Brandenberger y Cumrun Vafa han especulado con que eso podía ser debido a la particular geometría de las cuerdas.
Desde su perspectiva, el universo empezó perfectamente simétrico, con todas las dimensiones superiores bien compactadas a la escala de Planck. Lo que impedía que el universo se expandiese eran bucles de cuerdas que se enroscaban estrechamente alrededor de varias dimensiones. Pensemos en un rollo comprimido que no puede expandirse porque está estrechamente envuelto con cuerdas. Si de algún modo las cuerdas se rompen, el rollo se libera de golpe y se expande.
En estas dimensiones diminutas, el universo no puede expandirse porque tenemos bobinas tanto de cuerdas como de anticuerdas (hablando en general, las anticuerdas se enrollan en la dirección opuesta a las cuerdas). Si una cuerda y una anticuerda colisionan, pueden aniquilarse y desaparecer, como cuando se deshace un nudo. En dimensiones muy grandes, hay tanto «espacio» que cuerdas y anticuerdas raramente colisionan y nunca se desmadejan. Sin embargo, Brandenberger y Vafa demostraron que en tres o menos dimensiones espaciales es más probable que las cuerdas se desmadejen y las dimensiones salten rápidamente hacia fuera, dándonos el big bang. La característica atractiva de esta imagen es que la tipología de las cuerdas explica aproximadamente por qué vemos a nuestro alrededor el espacio-tiempo de cuatro dimensiones. Los universos de dimensiones superiores son posibles pero es menos probable verlos porque todavía están estrechamente envueltos por cuerdas y anticuerdas.
Pero también hay otras posibilidades en la teoría M. Si los universos pueden pellizcarse o surgir uno de otro, produciendo nuevos universos, quizá pueda pasar lo contrario: los universos pueden colisionar, creando chispas en el proceso que producirán nuevos universos. En un guión así, quizás el big bang ocurrió por una colisión de dos universos-brana paralelos, más que porque brotara un universo.
Esta segunda teoría fue propuesta por los físicos Paul Steinhardt, de Princeton, Burt Ovrut, de la Universidad de Pennsylvania, y Neil Turok, de la Universidad de Cambridge, que crearon el universo «ekpirótico» (que significa «conflagración» en griego) para incorporar las nuevas características de la visión M-brana, en la que algunas de las dimensiones extra podrían ser grandes e incluso infinitas. Empiezan con dos tres-brana planas, homogéneas y paralelas que representan el estado de menor energía. En un principio empiezan como universos vacíos y fríos, pero la gravedad los va atrayendo lentamente. Finalmente colisionan y la vasta energía cinética de la colisión se convierte en la materia y radiación que forma nuestro universo. Algunos llaman a esta teoría «big splat» («gran plaf») en lugar de big bang, porque el guión implica la colisión de dos brana.
La fuerza de la colisión separa a los dos universos. Cuando estas dos membranas se separan una de otra, se enfrían rápidamente, dándonos el universo que vemos hoy. El enfriamiento y la expansión continúan durante billones de años, hasta que los universos se acercan al cero absoluto de temperatura y la densidad es de sólo un electrón por mil billones de años luz cúbicos. En efecto, el universo se vuelve vacío e inerte. Pero la gravedad continúa atrayendo las dos membranas hasta que, billones de años después, colisionan otra vez y el ciclo se repite en su totalidad.
Este nuevo guión es capaz de obtener los buenos resultados de la inflación (universo plano, uniformidad). Resuelve la cuestión de por qué el universo es tan plano: porque, para empezar, las dos branas eran planas. El modelo también puede explicar el problema del horizonte, es decir, por qué el universo parece tan notablemente uniforme en todas las direcciones. Es porque la membrana tiene mucho tiempo para alcanzar lentamente el equilibrio. Así, mientras la inflación explica el problema del horizonte haciendo que el universo se infle abruptamente, este guión resuelve el problema del horizonte de la manera opuesta, haciendo que el universo alcance el equilibrio en movimiento lento.
(Esto también significa que posiblemente haya otras membranas flotando en el hiperespacio que pueden colisionar con la nuestra en el futuro, creando otro «gran plaf». Dado que nuestro universo se está acelerando, en realidad es probable que haya otra colisión. Steinhardt añade: «Quizá la aceleración de la expansión del universo es precursora de esta colisión. No es una idea agradable»). [136]
Cualquier guión que desafíe espectacularmente la imagen prevaleciente de la inflación está condenado a provocar encendidas réplicas. En realidad, una semana después de que este trabajo apareciera en la red, Andrei Linde y su esposa, Renata Kallosh (también ella teórica de cuerdas), y Lev Kofman, de la Universidad de Toronto, publicaron una crítica de este guión. Linde criticaba este modelo porque algo tan catastrófico como la colisión de dos universos podría crear una singularidad en que las temperaturas y las densidades se acercaran al infinito. «Esto sería como tirar una silla a un agujero negro, el cual vaporizaría las partículas de la silla, y decir que ello preserva de algún modo la forma de la silla», [137] protestó Linde.
Steinhardt contestó diciendo: «Lo que parece una singularidad en cuatro dimensiones puede no serlo en cinco. […] Cuando las branas se aplastan, la quinta dimensión desaparece temporalmente, pero las branas en sí no desaparecen. Por tanto, la densidad y la temperatura no van al infinito y el tiempo continúa su marcha. Aunque la relatividad general se va al garete, la teoría de cuerdas no y lo que antes parecía un desastre en nuestro modelo, ahora parece manejable».
Steinhardt tiene de su parte el poder de la teoría M, que se sabe que elimina singularidades. En realidad, ésta es la razón por la que los físicos teóricos necesitan para empezar una teoría cuántica de la gravedad: para eliminar infinidades. Sin embargo, Linde destaca una vulnerabilidad conceptual de esta visión: que las branas existen en un estado plano y uniforme al principio. «Si uno empieza con perfección, podría llegar a explicar lo que ve […] pero todavía no habrá contestado a la pregunta: ¿por qué el universo empezó perfecto?», [138] dice Linde. Steinhardt responde: «Plano más plano igual a plano». [139] Dicho de otro modo, hay que partir de la base de que las membranas empezaron en el estado más bajo de energía: el plano.
Alan Guth se ha mantenido abierto. «No creo que Paul y Neil puedan llegar a demostrar lo que defienden, pero realmente vale la pena contemplar sus ideas», [140] dice. Plantea preguntas y desafía a los teóricos de cuerdas a explicar la inflación: «A la larga, pienso que es inevitable que la teoría de cuerdas y la teoría M necesiten incorporar la inflación, porque parece ser la solución a los problemas que pretendía resolver, es decir, ¿por qué el universo es tan uniforme y plano?» [141] Así pues, formula la pregunta: ¿puede la teoría M proporcionar la imagen estándar de la inflación?
Por último, hay otra teoría de la cosmología que compite con las anteriores y emplea la teoría de cuerdas: la teoría del «pre big bang» de Gabriele Veneziano, el físico que colaboró en el inicio de la teoría de cuerdas en 1968. En su teoría, el universo empezó en realidad como un agujero negro. Si queremos conocer cómo es el interior de un agujero negro, lo único que tenemos que hacer es mirar el exterior.
En esta teoría, el universo es en realidad infinitamente viejo y empezó en el pasado distante prácticamente vacío y frío. La gravedad empezó a crear en todo el universo aglomeraciones de materia que poco a poco se condensaron en regiones tan densas que se convirtieron en agujeros negros. Empezaron a formarse horizontes de sucesos alrededor de cada agujero negro, separando permanentemente el exterior del horizonte de sucesos de su interior. Dentro de cada horizonte de sucesos, la materia siguió siendo comprimida por la gravedad, hasta que el agujero negro alcanzó finalmente la longitud de Planck.
En este punto, entra la teoría de cuerdas. La longitud de Planck es la distancia mínima permitida por la teoría de cuerdas. El agujero negro empieza entonces a rebotar en una gran explosión, causando el big bang. Como este proceso puede repetirse por todo el universo, esto significa que puede haber otros agujeros negros/universos distantes.
(La idea de que nuestro universo pueda ser un agujero negro no es tan rocambolesca como parece. Tenemos la idea intuitiva de que un agujero negro tiene que ser extremadamente denso, con un campo gravitatorio enorme aplastante, pero no siempre es así. Las dimensiones del horizonte de sucesos de un agujero negro son proporcionales a su masa. Cuanto más masivo es un agujero negro, más grande es su horizonte de sucesos. Pero un horizonte de sucesos más grande significa que la materia se extiende por un volumen más grande; como resultado, la densidad en realidad decrece cuando la masa aumenta. De hecho, si un agujero negro pesara tanto como nuestro universo, su medida sería aproximadamente la de nuestro universo y su densidad sería bastante baja, comparable a la de nuestro universo).
Sin embargo, algunos astrofísicos no parecen muy impresionados con la aplicación de la teoría de cuerdas y la teoría M a la cosmología. Joel Primack, de la Universidad de California en Santa Cruz, es menos caritativo que otros: «Me parece una tontería montar tanto revuelo con este material. […] Las ideas de estos artículos son esencialmente improbables». [142] Sólo el tiempo dirá si Primack tiene razón, pero como el ritmo de la teoría de cuerdas se ha ido acelerando, podríamos encontrarnos pronto con una resolución de este problema, que podría proceder de nuestros satélites espaciales. Como veremos en el capítulo 9, en 2020 se enviará al espacio una nueva generación de detectores de ondas de gravedad, como LISA, que puede darnos la capacidad de descartar o verificar algunas de estas teorías. Si la teoría de la inflación es correcta, por ejemplo, LISA debería detectar ondas de gravedad violentas creadas por el proceso inflacionario original. Sin embargo, el universo ekpirótico predice una lenta colisión entre los universos y, por tanto, ondas de gravedad mucho más suaves. LISA debería permitirnos descartar una de estas teorías experimentalmente. Dicho de otro modo, codificados dentro de las ondas de gravedad creadas por el big bang original, están los datos necesarios para determinar qué guión es el correcto. LISA podría, por primera vez, dar resultados experimentales sólidos relativos a la inflación, la teoría de cuerdas y la teoría M.

16. Miniagujeros negros
Como la teoría de cuerdas es en realidad una teoría de todo el universo, para comprobarla se necesita crear un universo en el laboratorio (véase capítulo 9). Normalmente, esperamos que los efectos cuánticos de la gravedad ocurran en la energía de Planck, que es mil billones de veces más potente que nuestro acelerador de partículas más potente, lo que hace imposible comprobar directamente la teoría de cuerdas. Pero si realmente hay un universo paralelo que existe a menos de un milímetro de nosotros, la energía a la que ocurren la unificación y los efectos cuánticos puede ser bastante baja, dentro del alcance de la próxima generación de aceleradores de partículas, como el Gran Colisionador de Hadrones (LHC). Esto, a su vez, ha desencadenado una avalancha de desarrollos en la física de los agujeros negros, siendo el más excitante el «miniagujero negro». Los miniagujeros negros, que actúan como si fueran partículas subatómicas, son un «laboratorio» en el que pueden comprobarse algunas de las predicciones de la teoría de cuerdas. Los físicos están entusiasmados con la posibilidad de crearlos con el LHC (Los miniagujeros negros son tan pequeños, de dimensiones comparables a un electrón, que no existe la amenaza de que puedan tragarse la Tierra. Los rayos cósmicos suelen golpear la Tierra con energías que superan la de estos agujeros negros, sin ningún efecto nocivo para el planeta).
Aunque parezca muy revolucionario, un agujero negro disfrazado como una partícula subatómica es en realidad una idea antigua, introducida por primera vez por Einstein en 1935. En opinión de Einstein, tiene que haber una teoría del campo unificado en la que la materia, hecha de partículas subatómicas, podría ser vista como una especie de distorsión en la tela del espacio-tiempo. Para él, las partículas subatómicas como el electrón eran en realidad «roscas» o agujeros de gusano en el espacio curvado que, desde la distancia, parecían una partícula. Einstein, con Nathan Rosen, acariciaba la idea de que un electrón pudiera ser en realidad un miniagujero negro disfrazado. De este modo, intentó incorporar la materia en su teoría del campo unificado, que reduciría las partículas subatómicas a pura geometría.
Los miniagujeros negros fueron introducidos nuevamente por Stephen Hawking, que demostró que los agujeros negros deben evaporarse y emitir un resplandor débil de energía. Durante muchos millones de años, un agujero negro emitiría tanta energía que se encogería, alcanzando finalmente la medida de una partícula subatómica.
La teoría de cuerdas está ahora reintroduciendo el concepto de miniagujeros negros. Recordemos que los agujeros negros se forman cuando una gran cantidad de materia se comprime dentro de su radio de Schwarzschild. Como masa y energía pueden convertirse una en otra, los agujeros negros también pueden ser creados comprimiendo energía. Hay un interés considerable por comprobar si el LHC es capaz de producir miniagujeros negros entre los restos generados al colisionar dos protones a 14 billones de electronvoltios de energía. Estos agujeros negros serían muy pequeños, pesarían quizá sólo mil veces la masa de un electrón y durarían sólo 10−23 segundos, pero serían claramente visibles entre las trazas de partículas subatómicas creadas por el LHC.
Los físicos también confían en que los rayos cósmicos del espacio exterior puedan contener miniagujeros negros. El Observatorio de Rayos Cósmicos Pierre Auger, en Argentina, es tan sensible que puede detectar algunos de los estallidos más grandes de rayos cósmicos jamás registrados por la ciencia. La esperanza es que los miniagujeros negros puedan encontrarse naturalmente entre los rayos cósmicos, lo que crearía una lluvia de radiación característica cuando golpearan la atmósfera superior de la Tierra. Un cálculo demuestra que el detector de Rayos Cósmicos Auger podría ser capaz de detectar hasta diez efluvios de rayos cósmicos por año motivados por un miniagujero negro.
La detección de un miniagujero negro, bien en el LHC de Suiza, o bien en el detector de Rayos Cósmicos Auger de Argentina, quizá antes de 2010, podría proporcionar pruebas de la existencia de universos paralelos. Aunque no demostraría de manera concluyente la corrección de la teoría de cuerdas, convencería a toda la comunidad de la física de que la teoría de cuerdas es coherente con todos los resultados experimentales y está en la dirección correcta.

17. Los agujeros negros y la paradoja de la información
La teoría de cuerdas también puede clarificar una de las paradojas más profundas de la física de los agujeros negros, que es la de la información. Como recordará el lector, los agujeros negros no son totalmente negros, sino que emiten pequeñas cantidades de radiación a través de la tunelización. Debido a la teoría cuántica, siempre hay la mínima posibilidad de que la radiación pueda escapar de las tenazas de la gravedad de un agujero negro, Esto lleva a una filtración lenta de radiación de un agujero negro, que recibe el nombre de «radiación de Hawking».
Esta radiación, a su vez, tiene una temperatura asociada (que es proporcional al área de la superficie del horizonte de sucesos del agujero negro). Hawking obtuvo una derivación general de esta ecuación, pero una derivación rigurosa de este resultado exigiría usar todo el poder de la mecánica estadística (basada en contar los estados cuánticos de un agujero negro). Normalmente, los cálculos de la mecánica estadística se hacen contando el número de estados que un átomo o molécula puede ocupar. Pero ¿cómo contamos los estados cuánticos de un agujero negro? En la teoría de Einstein, los agujeros negros son perfectamente lisos, por lo que contar sus estados cuánticos era problemático.
Los teóricos de cuerdas estaban ansiosos por llenar esta laguna, por lo que Andrew Strominger y Cumrum Vafa, de Harvard, decidieron analizar un agujero negro utilizando la teoría M. Como era demasiado difícil trabajar con el agujero negro en sí, tomaron un enfoque diferente y formularon una pregunta inteligente: ¿qué es el dual de un agujero negro? (Recordemos que un electrón es el dual de un monopolo magnético, como un solo polo norte. Así pues, examinando un electrón en el campo eléctrico débil, que es fácil de hacer, podemos realizar un experimento mucho más difícil: un monopolo colocado en un campo magnético muy grande). La esperanza era que el dual del agujero negro fuera más fácil de analizar que el agujero negro en sí, aunque a fin de cuentas tuviera el mismo resultado final. Mediante una serie de manipulaciones matemáticas, Strominger y Vafa pudieron demostrar que el agujero negro era el dual de un grupo de uno-branas y cinco-branas. Fue un alivio tremendo, porque se sabía cómo contar los estados cuánticos de estas branas. Cuando Strominger y Vafa calcularon el número de estados cuánticos, descubrieron que la respuesta reproducía exactamente el resultado de Hawking.
La noticia era francamente buena. La teoría de cuerdas, que a veces es ridiculizada por no conectar con el mundo real, dio tal vez la solución más elegante a la termodinámica del agujero negro.
Ahora, los teóricos de cuerdas intentan abordar el problema más difícil en la física de los agujeros negros, la «paradoja de la información». Hawking ha argumentado que si tiramos algo a un agujero negro, la información que transporta se pierde para siempre, no vuelve jamás. (Esta sería una manera inteligente de cometer el crimen perfecto. Un criminal podría utilizar un agujero negro para destruir todas las pruebas incriminatorias). Desde la distancia, los únicos parámetros que podemos medir para un agujero negro son masa, spin y carga. No importa lo que se tira a un agujero negro, toda la información se pierde. (Esto confirma la afirmación de que los «agujeros negros no tienen pelo», es decir, han perdido toda la información, todo el pelo, excepto estos tres parámetros).
La pérdida de información de nuestro universo parece ser una consecuencia inevitable de la teoría de Einstein, pero esto viola el principio de la mecánica cuántica, que establece que la información nunca puede perderse realmente. En algún lugar, la información debe de estar flotando en nuestro universo aun en el caso de que el objeto original fuera engullido por un agujero negro.
«La mayoría de los físicos quieren creer que la información no se pierde», ha escrito Hawking, «porque de este modo el mundo es seguro y predecible. Pero yo creo que si uno se toma la relatividad general de Einstein en serio, debe dejar lugar a la posibilidad de que el espacio-tiempo se ate a sí mismo con nudos y que la información se pierda en los pliegues. Determinar si la información se pierde realmente o no es una de las cuestiones más importantes de la física teórica actual». [143]
Esta paradoja, que enfrenta a Hawking con la mayoría de los teóricos de cuerdas, todavía no ha quedado resuelta. Pero la apuesta entre los teóricos de cuerdas es que acabaremos encontrando dónde fue a parar la información perdida. (Por ejemplo, si tiramos un libro a un agujero negro, es concebible que la información contenida en el libro se filtre suavemente de regreso a nuestro universo en forma de pequeñas vibraciones contenidas dentro de la radiación de Hawking de un agujero negro en evaporación. O quizá resurja de un agujero blanco al otro lado del agujero negro). Ésta es la razón por la que personalmente creo que cuando alguien finalmente calcule lo que pasa con la información cuando desaparece en un agujero negro en la teoría de cuerdas, este alguien descubrirá que la información no se ha perdido realmente, sino que reaparece sutilmente en algún otro sitio.
En 2004, Hawking salió en la portada del New York Times tras anunciar ante las cámaras de televisión que se había equivocado con el problema de la información. (Hace treinta años, apostó con otros físicos que la información nunca podría filtrarse desde un agujero negro. El perdedor de la apuesta debía darle al ganador una enciclopedia, en la que puede obtenerse fácilmente la información). Rehaciendo algunos de sus anteriores cálculos, llegó a la conclusión de que si un objeto como un libro caía en un agujero negro, podría perturbar el campo de radiación que emitía, permitiendo que la información se filtrara de regreso al universo. La información contenida dentro del libro sería codificada en la radiación que se filtraba lentamente del agujero negro, aunque de forma mutilada.
Por un lado, esto puso a Hawking en las filas de la mayoría de físicos cuánticos, que creen que la información no puede perderse. Pero planteó la pregunta: ¿puede la información pasar a un universo paralelo? Superficialmente, su resultado parecía proyectar dudas sobre la idea de que la información pueda pasar por un agujero de gusano a un universo paralelo. Sin embargo, nadie cree que ésta sea la última palabra sobre el tema. Hasta que no se haya desarrollado del todo la teoría de cuerdas, o no se haga un cálculo gravitatorio cuántico completo, nadie creerá que la paradoja de la información esté totalmente resuelta.

18. El universo holográfico
Finalmente, hay una predicción bastante misteriosa de la teoría M que todavía no se entiende pero que puede tener profundas consecuencias físicas y filosóficas. El resultado nos obliga a formularnos la pregunta: ¿es el universo un holograma? ¿Hay un «universo en las sombras» en el que nuestros cuerpos existen en una forma bidimensional comprimida? Esto también plantea otra pregunta igualmente perturbadora: ¿es el universo un programa de ordenador? ¿Puede el universo ponerse en un CD para reproducirlo cuando nos plazca?
Actualmente se encuentran hologramas en las tarjetas de crédito, en museos infantiles y en parques de atracciones. Lo que los hace notables es que pueden capturar una imagen tridimensional sobre una superficie bidimensional. Normalmente, si miramos una fotografía y a continuación movemos la cabeza, la imagen de la fotografía no cambia. Un holograma es diferente: cuando miramos una imagen holográfica y después movemos la cabeza, la imagen cambia como si la mirásemos a través de una ventana o por el ojo de una cerradura. (Los hologramas pueden acabar llegando a la televisión y al cine tridimensional. En el futuro, quizá nos relajaremos en nuestra sala y miraremos una pantalla en la pared que nos dará una imagen completa tridimensional de sitios lejanos, como si la pantalla de televisión fuera realmente una ventana a un nuevo paisaje. Además, si la pantalla de la pared tuviera forma de gran cilindro, con nuestra sala colocada en el centro, parecería como si fuéramos transportados a un nuevo mundo. Mirásemos donde mirásemos, veríamos la imagen tridimensional de una nueva realidad, indistinguible de la verdadera realidad).
La esencia del holograma es que su superficie bidimensional codifica toda la información necesaria para reproducir una imagen tridimensional. (Los hologramas se hacen en el laboratorio proyectando luz de láser sobre una placa fotográfica sensible y permitiendo que la luz interfiera con la luz de láser de la fuente original. La interferencia de las dos fuentes de luz crea una pauta de interferencia que «congela» la imagen sobre la placa bidimensional).
Algunos cosmólogos han conjeturado que esto también es aplicable al universo en sí, que tal vez vivimos en un holograma. El origen de esta extraña especulación surge de la física de los agujeros negros. Bekenstein y Hawking conjeturan que la cantidad total de información contenida en un agujero negro es proporcional al área de superficie de su horizonte de sucesos (que es una esfera). Se trata de un resultado extraño, porque normalmente la información almacenada en un objeto es proporcional a su volumen. Por ejemplo, la cantidad de información almacenada en un libro es proporcional a sus dimensiones, no al área de la superficie de su portada. Esto lo sabemos instintivamente, cuando decimos que no puede juzgarse un libro por su portada. Pero esta intuición falla para los agujeros negros: podemos juzgar un agujero negro por su aspecto.
Podemos descartar esta curiosa hipótesis porque los agujeros negros son rarezas extrañas en sí mismas donde la intuición normal se rompe. Sin embargo, este resultado también es aplicable a la teoría M, que puede darnos la mejor descripción de todo el universo. En 1997, Juan Maldacena, del Instituto de Estudios Avanzados de Princeton, creó sensación cuando demostró que la teoría de cuerdas lleva a un nuevo tipo de universo holográfico.
Empezó con un universo «anti-De Sitter» de cinco dimensiones que aparece a menudo en la teoría de cuerdas o en la teoría de la supergravedad. Un universo De Sitter es aquel con una constante cosmológica positiva que crea un Universo en aceleración. (Recordemos que la mejor representación de nuestro universo actualmente es un universo De Sitter, con una constante cosmológica que separa las galaxias cada vez a mayor velocidad. Un universo anti-De Sitter tiene una constante cosmológica negativa y, por tanto, puede implosionar). Maldacena demostró que hay una dualidad entre este universo de cinco dimensiones y su «límite», que es un universo de cuatro dimensiones. [144] Extrañamente, cualquier ser vivo en este espacio de cinco dimensiones sería matemáticamente equivalente a los seres vivos en este espacio de cuatro dimensiones. No hay manera de distinguirlos.
Haciendo una analogía rudimentaria, pensemos en los peces que nadan dentro de una pecera. Estos peces piensan que su pecera corresponde a la realidad. Ahora imaginemos una imagen holográfica bidimensional de estos peces proyectada sobre la superficie de la pecera. Esta imagen contiene una réplica exacta de los peces originales, sólo que están aplanados. Cualquier movimiento que haga el pez en la pecera se refleja en la imagen plana sobre la superficie de la pecera. Tanto los peces que nadan en la pecera como los peces planos que viven en la superficie piensan que ellos son los peces reales, que los otros son una ilusión. Todos los peces están vivos y actúan como si fueran los verdaderos. ¿Qué descripción es correcta? En realidad, ambos son verdaderos, porque son matemáticamente equivalentes e indistinguibles.
Lo que excitaba a los teóricos de cuerdas es el hecho de que el espacio anti-De Sitter de cinco dimensiones es relativamente fácil de calcular, mientras que las teorías de campo de cuatro dimensiones son notablemente difíciles de manejar. (Aún hoy, después de décadas de trabajo tenaz, nuestros ordenadores más potentes no pueden resolver el modelo de quark de cuatro dimensiones y derivar las masas del protón y el neutrón. Las ecuaciones de los propios quarks se entienden razonablemente bien, pero resolverlas en cuatro dimensiones para obtener las propiedades de los protones y neutrones ha demostrado ser más difícil de lo que se pensó previamente). Un objetivo es calcular las masas y propiedades del protón y del neutrón, utilizando esta extraña dualidad.
Esta dualidad holográfica también tiene aplicaciones prácticas, como la resolución del problema de información en la física de agujero negro. En cuatro dimensiones, es extremadamente difícil demostrar que la información no se pierde cuando lanzamos objetos a través de un agujero negro. Pero este espacio es dual con un mundo de cinco dimensiones, en el que la información quizá nunca se pierda. La esperanza es que problemas que son intratables en cuatro dimensiones (como el de la información, el cálculo de la masa del modelo quark, etcétera) puedan resolverse finalmente en cinco dimensiones donde las matemáticas son más sencillas. Y siempre es posible que esta analogía sea en realidad un reflejo del mundo real: que realmente existamos como hologramas.

19. ¿Es el universo un programa informático?
John Wheeler, como vimos antes, creía que toda la realidad física podía reducirse a pura información. Bekenstein lleva la idea de la información del agujero negro un poco más hacia aguas inexploradas formulando la siguiente pregunta: ¿es el universo un programa informático? ¿Somos simples bits en un CD cósmico?
La cuestión de si vivimos en un programa informático fue llevada con brillantez a la pantalla en la película Matrix, donde los alienígenas han reducido toda la realidad física a un programa informático. Miles de millones de humanos piensan que llevan una vida cotidiana, ignorantes del hecho de que todo aquello es una fantasía generada por ordenador; que sus cuerpos reales duermen en vainas mientras los alienígenas los utilizan como fuente de energía.
En la película es posible presentar programas informáticos pequeños que pueden crear minirrealidades artificiales. Si uno quiere convertirse en especialista en kung-fu o en piloto de helicóptero, sólo tiene que insertar un CD en un ordenador, el programa se carga en nuestro cerebro y, ¡sorpresa!, al instante aprende estas complicadas habilidades. Mientras el CD funciona, se crea toda una nueva subrealidad. Pero se plantea una pregunta intrigante: ¿puede toda la realidad colocarse en un CD? El poder de la informática para simular una realidad de miles de millones de humanos durmientes es realmente asombroso. Pero, en teoría: ¿puede todo el universo ser digitalizado en un programa informático finito?
Las raíces de esta cuestión se remontan a las leyes de la dinámica de Newton, con muchas aplicaciones prácticas para el comercio y nuestras vidas. Mark Twain pronunció una frase célebre: «Todo el mundo se queja del tiempo, pero nadie hace nada al respecto». La civilización moderna ni siquiera puede cambiar el curso de una sencilla tormenta, pero los físicos han formulado una pregunta más modesta: ¿podemos predecir el tiempo? ¿Puede concebirse un programa de ordenador que prediga el curso de pautas climáticas complejas en la Tierra? Esto tiene aplicaciones muy prácticas para todos los afectados por el tiempo, desde los agricultores que quieren saber cuándo cosechar sus cultivos a los meteorólogos que quieren saber el curso del calentamiento global en este siglo.
En principio, los ordenadores pueden usar las leyes de la dinámica de Newton para calcular con una exactitud casi absoluta el curso de las moléculas que forman el clima. Pero, en la práctica, los programas de ordenador son extremadamente rudimentarios y no son fiables para predecir el clima más allá de un par de días o tres, como máximo. Para predecir el clima, se necesitaría determinar el movimiento de cada molécula de aire (varios órdenes de magnitud fuera del alcance de nuestro más potente ordenador); también está el problema de la teoría del caos y el «efecto mariposa», según el cual incluso la más diminuta vibración del ala de una mariposa puede causar un efecto de ondas que, en coyunturas clave, podría cambiar decisivamente el tiempo a cientos de kilómetros de distancia.
Los matemáticos resumen esta situación estableciendo que el modelo más pequeño que puede describir con exactitud el tiempo es el propio tiempo. Más que microanalizar cada molécula, lo mejor que podemos hacer es buscar estimaciones del tiempo del día siguiente y también mayores tendencias y pautas a más largo plazo (como el efecto invernadero).
Así pues, es extremadamente difícil que un mundo newtoniano sea reducido a un programa informático, porque hay demasiadas variables y demasiadas «mariposas». Pero, en el mundo cuántico, pasan cosas extrañas.
Bekenstein, como vimos, demostró que el contenido de información total de un agujero negro es proporcional al área de la superficie de su horizonte de suceso. Hay una manera intuitiva de ver esto. Muchos físicos creen que la menor distancia posible es la longitud de Planck de 10−33 cm. A esta distancia increíblemente pequeña, el espacio-tiempo ya no es liso, sino que se vuelve «espumoso», con aspecto burbujeante. Podemos dividir la superficie esférica del horizonte en pequeños cuadrados, de manera que cada uno de ellos mida la longitud de Planck. Si cada uno de estos cuadrados contiene un bit de información, y añadimos todos los cuadrados, encontramos aproximadamente el contenido de información total del agujero negro. Esto parece indicar que cada uno de estos «cuadrados de Planck» es la menor unidad de información. Si esto es así, Bekenstein dice que quizá la información es el verdadero lenguaje de la física, no la teoría de campo. Como lo dice él: «La teoría de campo, con su infinito, no puede ser la historia definitiva». [145]
Desde el trabajo de Michael Faraday en el siglo XIX, la física se ha formulado en el lenguaje de campos, que son lisos y continuos y que miden la fuerza del magnetismo, la electricidad, la gravedad, etcétera, en cualquier punto del espacio-tiempo. Pero la teoría de campos se basa en estructuras continuas, no digitalizadas. Un campo puede ocupar cualquier valor, mientras que un número digitalizado sólo puede representar números discretos basados en 0 y 1. Ésta es la diferencia, por ejemplo, entre una lámina lisa de goma en la teoría de Einstein y una malla de alambre fino. La lámina de goma puede dividirse en un número infinito de puntos, mientras que una malla de alambre tiene una distancia mínima: la longitud de la malla. Bekenstein sugiere que «una teoría definitiva debe interesarse no por los campos, ni siquiera por el espacio-tiempo, sino más bien por el intercambio de información entre procesos físicos». [146]
Si el universo puede digitalizarse y reducirse a 0 y 1, ¿cuál es el contenido total de información del universo? Bekenstein estima que un agujero negro de un centímetro de diámetro podría contener 1066 bits de información. Pero si un objeto de un centímetro puede contener tantos bits de información, él estima que el universo visible probablemente contiene mucha más información, no menos de 10100 bits de información (que en principio puede comprimirse en una esfera de una décima parte de un año luz de diámetro. Este número colosal, un 1 seguido de 100 ceros, recibe el nombre de «googol»).
Si esta imagen es correcta, tenemos una extraña situación. Podría significar que mientras un mundo newtoniano no puede ser simulado por ordenador (o sólo puede serlo por un sistema tan grande como él mismo), en un mundo cuántico, quizás el propio universo pueda ponerse en un CD. En teoría, si ponemos 10 100 bits de información en un CD, podemos observar cómo se despliega cualquier acontecimiento en nuestra sala de estar. En principio, uno podría disponer o reprogramar los bits del CD de modo que la realidad física proceda de manera diferente. En cierto sentido, tendríamos una capacidad parecida a la de Dios de reescribir el guión.
(Bekenstein también admite que el contenido de información total del universo podría ser mayor. En realidad, el menor volumen que pueda contener la información del universo podría ser la medida del universo en sí. Si esto es así, volvemos al punto de partida: el sistema más pequeño que puede modelar el universo es el universo en sí).
Sin embargo, la teoría de cuerdas ofrece una interpretación ligeramente diferente de la «menor distancia» y de si podemos digitalizar el universo en un CD. La teoría M posee lo que se llama «dualidad T». Recordemos que el filósofo griego Zenón pensaba que una línea puede ser dividida en un número infinito de puntos, sin límite. Hoy en día, físicos cuánticos como Bekenstein creen que la menor distancia podría ser la distancia de Planck de 10−33 centímetros, donde la tela del espacio-tiempo se vuelve espumosa y burbujeante. Pero la teoría M da un nuevo giro. Digamos que tomamos una teoría de cuerdas y envolvemos una dimensión en un círculo de radio R. Después tomamos otra teoría de cuerdas y envolvemos una dimensión en un círculo de radio 1/R. Comparando estas dos teorías bastante diferentes, encontramos que son exactamente la misma.
Ahora hagamos que R se vuelva extremadamente pequeño, más pequeño que la longitud de Planck. Esto significa que la física dentro de la longitud de Planck es idéntica a la física fuera de ella. A la longitud de Planck, el espacio-tiempo puede volverse grumoso y espumoso, pero la física dentro de la longitud de Planck y la física a distancias muy grandes pueden encajar y en realidad son idénticas.
Esta dualidad fue encontrada por primera vez en 1984 por mi viejo colega Keiji Kikkawa y su discípulo Masami Yamasaki, de la Universidad de Osaka. Aunque aparentemente la teoría de cuerdas concluye que hay una «distancia mínima», la longitud de Planck, la física no termina abruptamente en ella. El nuevo giro es que la física menor a la longitud de Planck es equivalente a la física mayor que ella.
Si esta interpretación chocante es correcta, significa que incluso dentro de la «distancia más pequeña» de la teoría de cuerdas, puede existir un universo entero. Dicho de otro modo, podemos seguir usando la teoría de campo, con sus estructuras continuas (no digitalizadas) para describir el universo incluso a distancias dentro de la energía de Planck. Así, quizás el Universo no sea en absoluto un programa informático. En todo caso, como se trata de un problema bien definido, el tiempo lo dirá.
(Esta dualidad-T es la justificación del guión «pre big bang» de Veneziano que mencioné antes. En este modelo un agujero negro colapsa a la longitud de Planck y después «rebota» hacia el big bang. Este rebote no es un suceso abrupto, sino la fina dualidad T entre un agujero negro más pequeño que la longitud de Planck y un universo en expansión más grande que la longitud de Planck).

20. ¿El final?
Si la teoría M tiene éxito, si realmente es la teoría del todo, ¿es el final de la física tal como la conocemos?
La respuesta es que no. Permítaseme poner un ejemplo. Aunque sepamos las normas del ajedrez, el hecho de conocerlas no nos convierte en grandes jugadores. Igualmente, conocer las leyes del universo no significa que nos convirtamos en grandes maestros en cuanto a la comprensión de su rica variedad de soluciones.
Personalmente, creo que todavía sería un poco prematuro aplicar la teoría M a la cosmología, aunque nos ofrezca una nueva imagen asombrosa de cómo podría haber empezado el universo. Creo que el problema principal es que el modelo no está en su forma definitiva. La teoría M puede ser muy bien la teoría del todo, pero le falta bastante para estar terminada. La teoría ha ido evolucionando hacia atrás desde 1968 y todavía no se han encontrado sus ecuaciones finales. (Por ejemplo, la teoría de cuerdas puede formularse a través de la teoría de campo de cuerdas, como demostramos Kikkawa y yo hace años. La contrapartida de estas ecuaciones para la teoría M es desconocida).
La teoría M se enfrenta a varios problemas. Uno de ellos es que los físicos están ahora introduciendo p-branas. Se han escrito varios artículos que intentan catalogar la desconcertante variedad de membranas que existen en diferentes dimensiones. Hay membranas en forma de donut con un agujero, un donut con múltiples agujeros, membranas en intersección, etcétera.
Viene a la cabeza lo que les ocurre a los sabios ciegos de la fábula cuando se enfrentan a un elefante. Tocando distintos puntos del animal, cada uno elabora su propia teoría. Un sabio, al tocar la cola, dice que el elefante es una-brana (una cuerda). Otro sabio, al tocar la oreja, dice que el elefante es dos-brana (una membrana). Finalmente, el último dice que los otros dos sabios se equivocan. Tocándole las patas, que parecen troncos de árboles, el tercer sabio dice que el elefante es en realidad una tres-brana. Como son ciegos, no pueden ver la imagen global, que la suma total de una brana, dos-brana y tres-brana no es nada más que un solo animal, un elefante.
Igualmente, es difícil creer que los cientos de membranas encontrados en la teoría M sean fundamentales de un modo u otro. En el presente, no tenemos una comprensión global de la teoría M. Mi punto de vista, que ha guiado mi investigación actual, es que estas membranas y cuerdas representan la «condensación» del espacio. Einstein intentó describir la materia en términos puramente geométricos, como una especie de onda en la tela del espacio-tiempo. Si tenemos una sábana de cama, por ejemplo, y surge una onda, ésta actúa como si tuviera vida propia. Einstein intentó modelar el electrón y otras partículas elementales como algún tipo de perturbación en la geometría del espacio-tiempo. Aunque finalmente no lo consiguió, esta idea puede ser resucitada a un nivel mucho más alto en la teoría M.
Creo que Einstein estaba en el camino correcto. Su idea era generar la física subatómica mediante la geometría. En lugar de intentar encontrar un análogo geométrico a las partículas puntuales, que era la estrategia de Einstein, uno podía modificarlo para intentar construir un análogo geométrico de las cuerdas y membranas hechas de puro espacio-tiempo.
Una manera de ver la lógica de esta aproximación es observar la física históricamente. En el pasado, siempre que los físicos nos enfrentábamos a un espectro de objetos, éramos conscientes de que había algo más fundamental en la raíz. Por ejemplo, cuando descubrimos las líneas espectrales emitidas por el gas hidrógeno, pudimos constatar que se originaban en el átomo, en los saltos cuánticos que realizaba el electrón cuando daba vueltas alrededor del núcleo. De manera similar, ante la proliferación de partículas fuertes en la década de 1950, los físicos finalmente constataron que no había nada más que estados limitados de quarks. Y ante la proliferación de quarks y otras partículas «elementales» del modelo estándar; la mayoría de los físicos creemos ahora que surgen de las vibraciones de la cuerda.
Con la teoría M, nos enfrentamos a la proliferación de p-branas de todo tipo y variedades. Es difícil creer que esto pueda ser fundamental, porque simplemente hay demasiadas p-branas, y porque son inherentemente inestables y divergentes. Una solución más sencilla, que concuerda con el enfoque histórico, es partir de la base de que la teoría M se origina en un paradigma todavía más sencillo, quizá la propia geometría.
A fin de establecer esta cuestión fundamental, necesitamos saber el principio físico subyacente a la teoría, no sólo sus matemáticas arcanas. Como dice el físico Brian Greene:
«Actualmente, los teóricos de cuerdas están en posición análoga a un Einstein privado del principio de equivalencia. Desde la perspicaz suposición de Veneziano en 1968, la teoría se ha ido armando, descubrimiento tras descubrimiento, revolución tras revolución. Pero todavía carecemos de un principio organizador que englobe estos descubrimientos y todas las demás características de la teoría dentro de un marco general y sistemático, un marco que haga inevitable la existencia de cada ingrediente individual. El descubrimiento de este principio marcaría un momento capital en el desarrollo de la teoría de cuerdas, ya que probablemente expondría el funcionamiento interior de la teoría con una claridad imprevista». [147]
También daría sentido a los millones de soluciones encontradas hasta ahora en la teoría de cuerdas, que representan, cada una de ellas, un universo plenamente autocoherente. En el pasado se creía que, de esta selva de soluciones, sólo una representaba la verdadera solución de la teoría de cuerdas. Hoy, nuestras ideas están cambiando. Hasta ahora, no hay manera de seleccionar un universo de los millones que se han descubierto hasta el momento. Cada vez está más generalizada la opinión que establece que si no podemos encontrar una sola solución a la teoría de cuerdas, probablemente es porque no existe. Todas las soluciones son iguales. Hay un multiverso de universos, cada uno coherente con todas las leyes de la física. Esto nos lleva a lo que se llama «principio antrópico» y a la posibilidad de un «universo de diseño».

Capítulo 8
¿Un universo de diseño?

Seguramente en toda una eternidad se estropearon y echaron a perder numerosos universos antes de dar con este sistema; mucho trabajo perdido, muchas pruebas infructuosas y una mejora lenta pero continua llevada a cabo durante eras infinitas en el arte de creación del mundo.
David Hume

Contenido:
  1. Accidentes cósmicos
  2. El principio antrópico
  3. Multiverso
  4. Evolución de universos
Cuando era pequeño y estaba en mi segundo curso, mi maestra hizo una afirmación casual que nunca olvidaré. Dijo: «Dios quería tanto a la Tierra que la puso justo delante del Sol». A los seis años, me sorprendió la simplicidad y el poder del argumento de esta declaración. Si Dios hubiera puesto la Tierra demasiado lejos del Sol, los océanos se habrían congelado. Si la hubiera puesto demasiado cerca, los océanos habrían roto a hervir. Para ella, eso significaba no sólo que Dios existía, sino que también era benevolente y amaba tanto la Tierra que la puso justo delante del Sol. Me impresionó mucho.
Hoy en día, los científicos dicen que la Tierra vive en la «zona Goldilocks» del Sol, justo lo bastante lejos para que el agua líquida, el «disolvente universal», pueda existir para crear la química de la vida. Si la Tierra estuviera más lejos del Sol, podría ser como Marte, un «desierto helado», donde las temperaturas han creado una superficie áspera y estéril en la que el agua e incluso el dióxido de carbono a menudo son sólidos congelados. Incluso bajo la tierra de Marte se encuentra permafrost, una capa permanente de agua helada.
Si la Tierra estuviera más cerca del Sol, podría llegar a ser parecida al planeta Venus, cuyas dimensiones son casi idénticas a las de la Tierra pero que se conoce como el «planeta invernadero». Como Venus está tan cerca del Sol, y su atmósfera está formada por dióxido de carbono, el planeta retiene la energía solar y alcanza temperaturas que superan los 482° C. A causa de esto, Venus es el planeta más caliente, como promedio, del sistema solar. Con lluvias de ácido sulfúrico, presiones atmosféricas cien veces mayores que las encontradas en la Tierra y temperaturas abrasadoras, Venus es quizás el planeta más infernal del sistema solar, en buena medida porque está más cerca del Sol que la Tierra.
Analizando el argumento de mi maestra de segundo curso, los científicos dicen que su declaración es un ejemplo del principio antrópico, que establece que las leyes de la naturaleza están dispuestas de modo que hacen posibles la vida y la conciencia. Que estas leyes hayan sido dispuestas por un poderoso diseño o por accidente ha sido tema de grandes debates, sobre todo en años recientes, a causa del número abrumador de «accidentes» o coincidencias descubiertas que hacen posible la vida y la conciencia. Para algunos, esto es la prueba de que una deidad ha dispuesto deliberadamente las leyes de la naturaleza para hacer posible la vida, y a nosotros. Pero para otros científicos significa que somos el resultado de una serie de accidentes afortunados. O quizá, si uno cree en las ramificaciones de la inflación y la teoría M, que hay un multiverso de universos.
Para valorar la complejidad de estos argumentos, consideremos primero las coincidencias que hacen posible la vida en la Tierra. Vivimos no sólo dentro de la zona Goldilocks del Sol, sino también en una serie de otras zonas Goldilocks. Por ejemplo, nuestra Luna tiene exactamente la dimensión correcta para estabilizar la órbita de la Tierra. Si la Luna fuera mucho más pequeña, incluso perturbaciones diminutas en la rotación de la Tierra se habrían acumulado lentamente durante cientos de millones de años, haciendo que la Tierra se inclinara sobre su eje de manera desastrosa y causando cambios drásticos en el clima que harían imposible la vida. Los programas informáticos muestran que sin una Luna grande (aproximadamente un tercio de las dimensiones de la Tierra), el eje de la Tierra se habría desplazado unos 90° durante un periodo de muchos millones de años. Como los científicos creen que la creación del ADN necesitó cientos de millones de años de estabilidad climática, una Tierra que periódicamente se inclinara sobre su eje crearía cambios catastróficos en el clima que harían imposible la creación del ADN. Afortunadamente, nuestra Luna tiene la medida «exactamente correcta» para estabilizar la órbita de la Tierra, de modo que no ocurrirá un desastre así. (Las lunas de Marte no son lo bastante grandes para estabilizar su rotación. Como resultado, Marte empieza a entrar lentamente en otra era de inestabilidad. En el pasado, los astrónomos creen que Marte podría haberse inclinado unos 45° sobre su eje).
Debido a pequeñas fuerzas maremotrices, la Luna se aleja de la Tierra a un ritmo de unos 4 centímetros por año; en unos 2.000 millones de años, estará demasiado lejos para estabilizar la rotación de la Tierra. Esto puede ser desastroso para la vida en la Tierra. De aquí a miles de millones de años, el cielo nocturno no sólo estará desprovisto de luna, sino que podríamos ver una serie totalmente diferente de constelaciones al haberse inclinado la Tierra en su órbita. El clima de la Tierra se volverá irreconocible y la vida será imposible.
El geólogo Peter Ward y el astrónomo Donald Brownlee, de la Universidad de Washington, escriben: «Sin la Luna no habría rayos de luna, no habría meses, no habría lunáticos, no habría programa Apolo, habría menos poesía y un mundo en el que todas las noches serían oscuras y lúgubres. Sin la Luna también es probable que ni pájaros, secuoyas, ballenas, trilobites ni ningún tipo de vida avanzada habría ornado jamás la Tierra». [148]
Igualmente, los modelos informáticos muestran que la presencia del planeta Júpiter en nuestro sistema solar es afortunada para la vida en la Tierra, porque su inmensa gravedad ayuda a lanzar asteroides hacia el espacio exterior. Se tardó casi mil millones de años, durante la «era de los meteoritos» es decir, desde hace 4.500 millones a 3.500 millones años en «limpiar» nuestro sistema solar de los restos de asteroides y cometas presentes desde su creación. Si Júpiter fuera mucho más pequeño y su gravedad mucho más débil, nuestro sistema solar estaría plagado de asteroides que harían imposible la vida en la Tierra, porque los asteroides irían cayendo sobre los océanos y destruyendo la vida. Por tanto, Júpiter también tiene la dimensión correcta.
También vivimos en la zona Goldilocks de masas planetarias. Si la Tierra fuera un poco más pequeña, su gravedad sería tan débil que no podría retener el oxígeno. Si fuera demasiado grande, retendría muchos de sus gases primordiales venenosos, que imposibilitarían la vida. La Tierra tiene el peso «exactamente adecuado» para mantener una composición atmosférica beneficiosa para la vida.
También vivimos en la zona Goldilocks de órbitas planetarias permisibles. Sorprendentemente, las órbitas de los otros planetas, excepto Plutón, son casi todas circulares, lo que significa que los impactos planetarios son raros en el sistema solar. Esto implica que la Tierra no se acercará a ningún gigante gaseoso cuya gravedad podría interrumpir fácilmente la órbita de la Tierra. Esto también es bueno para la Tierra, que necesita cientos de millones de años de estabilidad.
Además, la Tierra también existe dentro de la zona Goldilocks de la galaxia de la Vía Láctea, a unos dos tercios de distancia del centro. Si el sistema solar estuviera demasiado cerca del centro galáctico, donde acecha un agujero negro, el campo de radiación sería tan intenso que la vida sería imposible. Y si el sistema solar estuviera demasiado lejos, no habría suficientes elementos químicos superiores para producir los compuestos necesarios para la vida.
Los científicos pueden proporcionar decenas de ejemplos en los que la Tierra se encuentra en miles de zonas Goldilocks. Los astrónomos Ward y Brownlee argumentan que vivimos dentro de tantas bandas estrechas de zonas Goldilocks que es posible que la vida inteligente en la Tierra sea la única en la galaxia, quizás incluso en el universo. Recitan una lista notable de maneras en que la Tierra tiene la cantidad «exactamente correcta» de océanos, placas tectónicas, contenido de oxígeno, contenido de calor, inclinación de su eje, etcétera, para crear vida inteligente. Si la Tierra estuviera fuera de sólo una de estas estrechas bandas, no estaríamos aquí para hablar de la cuestión.
¿Fue colocada la Tierra en medio de estas zonas Goldilocks porque Dios la amaba? Quizá. Sin embargo, podemos llegar a una conclusión que no se basa en la divinidad. A lo mejor hay millones de planetas muertos en el espacio que están demasiado cerca de sus soles, que tienen unas lunas demasiado pequeñas, que tienen unos Júpiter demasiado pequeños, o que están demasiado cerca de su centro galáctico. La existencia de zonas Goldilocks con respecto a la Tierra no significa necesariamente que Dios nos haya otorgado una bendición; podría tratarse de una simple coincidencia, un raro ejemplo entre millones de planetas muertos en el espacio, que están fuera de las zonas Goldilocks.
El filósofo griego Demócrito, que propuso la hipótesis de la existencia de los átomos, escribió: «Hay mundos infinitos en número y diferentes en medida. En algunos no hay ni Sol ni Luna. En otros, hay más de un Sol y una Luna. Las distancias entre los mundos son desiguales, en algunas direcciones hay más. […] Su destrucción se produce por colisión de uno con otro. Algunos mundos están desprovistos de vida animal y vegetal y de toda humedad». [149]
En 2002, los astrónomos habían descubierto un centenar de planetas extrasolares que giraban alrededor de otras estrellas. Se descubren planetas extrasolares a un ritmo de uno cada dos semanas aproximadamente. Como los planetas extrasolares no despiden luz propia, los astrónomos los identifican con distintos medios indirectos. El más fiable es buscar el balanceo de la estrella madre, que se mueve hacia delante y hacia atrás cuando un planeta de las dimensiones de Júpiter da vueltas alrededor de ella. Analizando el deslizamiento Doppler de la luz emitida por la estrella que se balancea, uno puede calcular con qué rapidez se mueve y utilizar las leyes de Newton para calcular la masa de su planeta.
«Podemos pensar en la estrella y el gran planeta como una pareja de bailarines que giran mientras juntan sus manos estiradas. La bailarina, más pequeña, recorre distancias mayores en un círculo más grande, mientras el bailarín, más grande, se limita a mover los pies en un círculo muy pequeño: el movimiento alrededor del círculo interior pequeño es el "balanceo" que vemos en estas estrellas», [150] dice Chris McCarthy, de la Carnegie Institution. Este proceso es tan exacto que podemos detectar mínimas variaciones en la velocidad de hasta 3 metros por segundo (la velocidad de un paseo a buen ritmo) en cientos de estrellas a años luz de distancia.
Se han propuesto otros métodos ingeniosos para encontrar más planetas. Uno de ellos consiste en buscar un planeta cuando eclipsa a la estrella madre, lo que produce una ligera reducción de su brillo en el momento en que el planeta pasa por delante de la estrella. Y, dentro de quince o veinte años, la NASA pondrá en órbita un satélite espacial con un Sistema de interferometría que podrá encontrar planetas más pequeños, como la Tierra, en el espacio exterior. (Como el brillo de la estrella madre abruma al planeta, este satélite utilizará la interferencia de luz para anular el halo intenso de la estrella madre, dejando al pequeño planeta sin oscurecer).
Hasta ahora, ninguno de los planetas extrasolares de las dimensiones de Júpiter que hemos descubierto se parece a nuestra Tierra, y todos están probablemente muertos. Los astrónomos los han descubierto en órbitas muy excéntricas o en órbitas extremadamente cercanas a sus estrellas madre; en ambos casos, un planeta como la Tierra dentro de una zona Goldilocks es imposible. En estos sistemas solares, el planeta de las dimensiones de Júpiter cruzaría la zona Goldilocks y lanzaría cualquier pequeño planeta de las dimensiones de la Tierra hacia el espacio exterior, impidiendo la formación de vida tal como la conocemos.
Las órbitas altamente excéntricas son comunes en el espacio, tan comunes, en realidad, que cuando se descubrió un sistema solar «normal» en el espacio en el año 2003 alcanzó los titulares. Los astrónomos de los Estados Unidos y Australia saludaron el descubrimiento de un planeta de las dimensiones de Júpiter que gira alrededor de la estrella HD 70642. Lo que era tan poco habitual en este planeta (con el doble de tamaño de Júpiter) es que estaba en órbita circular aproximadamente en la misma ratio que Júpiter con nuestro Sol. [151]
Sin embargo, en el futuro los astrónomos deberían ser capaces de catalogar todas las estrellas cercanas con posibles sistemas solares. «Trabajamos con el fin de someter a reconocimiento las 2.000 estrellas más cercanas parecidas al Sol, todas las estrellas del tipo del Sol que están a menos de 150 años luz», [152] dice Paul Buder, de la Carnegie Institution de Washington, que estuvo implicado en el primer descubrimiento de un planeta extrasolar en 1995. «Nuestro objetivo es doble: proporcionar un reconocimiento, un primer censo, de nuestros vecinos más cercanos en el espacio, y proporcionar los primeros datos para abordar la cuestión fundamental: hasta qué punto es común o raro nuestro propio sistema solar».

1. Accidentes cósmicos
Para crear vida, nuestro planeta tiene que haber sido relativamente estable durante cientos de millones de años, pero es francamente difícil hacer un mundo que sea estable durante todo este tiempo.
Empecemos con la manera como se generan los átomos, a partir del hecho de que un protón pesa ligeramente menos que un neutrón. Ello significa que los neutrones se descomponen finalmente en protones, que ocupan un estado de energía más bajo. Si el protón fuera sólo un 1% más pesado, se descompondría en un neutrón, todos los núcleos se volverían inestables y se desintegrarían. Los átomos una vez descompuestos harían imposible la vida.
Otro accidente cósmico que hace posible la vida es que el protón es estable y no se descompone en un antielectrón. Los experimentos han demostrado que el tiempo de vida de un protón es verdaderamente astronómico, mucho más largo que el del universo. Para el objetivo de crear un ADN estable, los protones tienen que ser estables como mínimo durante cientos de millones de años.
Si la interacción nuclear fuerte fuera un poco más débil, núcleos como el del deuterio se desintegrarían y no se habrían generado sucesivamente en el interior de las estrellas, a través de la nucleosíntesis, los elementos químicos que forman el universo. Si la interacción nuclear fuera un poco más fuerte, las estrellas quemarían su combustible nuclear con excesiva rapidez y la vida no tendría tiempo para evolucionar.
Si variamos la intensidad de la interacción débil, también encontramos que la vida vuelve a ser imposible. Los neutrinos, que actúan a través de la interacción nuclear débil, son cruciales para transportar la energía hacia fuera desde una supernova que ha estallado. Esta energía, a su vez, es responsable de la creación de los elementos superiores más allá del hierro. Si la interacción débil fuera un poco más débil, los neutrinos apenas interaccionarían, lo que significaría que las supernovas no podrían crear los elementos más allá del hierro. Si la interacción débil fuera un poco más fuerte, los neutrinos no podrían escapar adecuadamente del núcleo de una estrella, impidiendo nuevamente la creación de los elementos superiores que forman nuestros cuerpos y nuestro mundo.
En realidad, los científicos han reunido largas listas con decenas de estos «accidentes cósmicos felices». Cuando uno revisa esta lista imponente, es chocante descubrir cuántas de las constantes conocidas del universo se encuentran dentro de una banda muy estrecha que hace posible la vida. Si uno solo de estos accidentes fuera alterado, las estrellas nunca se formarían, el universo se desintegraría, el ADN no existiría, la vida como la conocemos sería imposible, la Tierra volcaría o se congelaría, etcétera.
El astrónomo Hugh Ross, para subrayar lo realmente sorprendente que es esta situación, la ha comparado con el montaje completo de un Boeing 747 como resultado de un tornado sobre una chatarrería.

2. El principio antrópico
Todos los argumentos presentados más arriba vuelven a reunirse bajo el principio antrópico. Pueden adoptarse distintas opiniones en relación con este controvertido principio. Mi maestra de segundo grado pensaba que estas felices coincidencias implicaban la existencia de un gran diseño o plan. Como dijo en una ocasión el físico Freeman Dyson: «Es como si el universo supiera que íbamos a llegar nosotros». Esto es un ejemplo de principio antrópico fuerte, la idea de que el ajuste preciso de las constantes físicas no es un accidente, sino que implica un diseño de algún tipo. (El principio antrópico débil establece simplemente que las constantes físicas del universo son tales que hacen posible la vida y la conciencia).
El físico Don Page ha resumido las distintas formas del principio antrópico que se han propuesto a lo largo de los años: [153] Un físico que se toma en serio el principio antrópico fuerte y dice que es una señal de Dios, es Vera Kistiakowsky, del MIT. Afirma: «El orden exquisito que se muestra en nuestra comprensión científica del mundo físico exige una divinidad». [154] Un científico que apoya esta opinión es John Polkinghorne, un físico de partículas que dejó su puesto en la Universidad de Cambridge y se hizo sacerdote de la Iglesia de Inglaterra. Escribe que el universo «no es "un mundo viejo cualquiera", sino que es especial y está bien afinado para la vida, porque es la creación de un Creador que desea que así sea». [155] Ciertamente, el propio Isaac Newton, que propuso el concepto de leyes inmutables que guiaban los planetas y las estrellas sin intervención divina, creía que la elegancia de estas leyes apuntaba a la existencia de Dios.
Pero el físico y premio Nobel Steven Weinberg no lo ve así. Reconoce el atractivo del principio antrópico: «Es casi irresistible para los humanos creer que tenemos alguna relación especial con el universo, que la vida humana no es sólo el resultado más o menos absurdo de una cadena de accidentes que se remontan a los primeros tres minutos, sino que de algún modo fuimos creados desde el principio». [156] Sin embargo, llega a la conclusión de que el principio antrópico fuerte es «poco más que una superchería».
También hay otros poco convencidos por el principio antrópico. El difunto físico Heinz Pagels quedó impresionado por el principio antrópico, pero finalmente perdió interés en él porque no tenía poder de predicción. La teoría no es comprobable ni hay una manera de extraer información de ella. En cambio, produce una cantidad interminable de tautologías vacías: que estamos aquí porque estamos aquí.
Guth también despacha el principio antrópico diciendo: «Me parece difícil creer que alguien pueda usar el principio antrópico si tiene una explicación mejor. Todavía no he oído hablar, por ejemplo, de un principio antrópico de la historia del mundo. […] El principio antrópico es algo que la gente hace cuando no se le ocurre nada mejor». [157]

3. Multiverso
Otros científicos, como Sir Martin Rees, de la Universidad de Cambridge, piensan que estos accidentes cósmicos son una prueba de la existencia del multiverso. Rees cree que la única manera de resolver el hecho de que vivamos dentro de una franja increíblemente estrecha de cientos de «coincidencias» equivale a postular la existencia de millones de universos paralelos. En este multiverso de universos, la mayoría de universos están muertos. El protón no es estable. Los átomos nunca se condensan. El ADN nunca se forma. El universo colapsa prematuramente o se congela casi inmediatamente. En cambio, en nuestro universo se ha producido una serie de accidentes cósmicos, no necesariamente provocados por la mano de Dios sino por la estadística.
En cierto sentido, Sir Martin Rees es la última persona de quien podríamos esperar que presentase la idea de universos paralelos. Es Astrónomo Real de Inglaterra y tiene una gran responsabilidad como representante del punto de vista oficial sobre el universo. De pelo cano, distinguido e impecablemente vestido, Rees habla con la misma facilidad de las maravillas del cosmos que de las preocupaciones del pueblo en general.
Él cree que no es un accidente que el universo tenga un ajuste preciso para permitir la existencia de vida. Simplemente hay demasiados accidentes para que el universo esté en esta banda tan estrecha que permite la vida. «El ajuste preciso aparente del que depende nuestra existencia podría ser una coincidencia», escribe Rees. «En otros tiempos lo creí. Pero ahora esta opinión me parece demasiado estrecha. […] Una vez aceptamos esto, distintas características aparentemente especiales de nuestro universo —las que algunos teólogos presentaron alguna vez como prueba de la Providencia o del diseño— no causan sorpresa». [158]
Rees ha intentado dar sustancia a este argumento cuantificando algunos de estos conceptos. Afirma que el universo parece gobernado por seis números, cada uno de los cuales es mensurable y está ajustado con precisión. Estos seis números tienen que satisfacer las condiciones para que haya vida, o en otro caso crean universos muertos.
  1. En primer lugar está Épsilon, que equivale a 0,007, la cantidad relativa de hidrógeno que se convierte en helio a través de la fusión en el big bang. Si este número fuera 0,006 en lugar de 0,007, la interacción nuclear se debilitaría y los protones y neutrones no se unirían. El deuterio (con un protón y un neutrón) no podría formarse, por tanto no se habrían creado los elementos más pesados en las estrellas, los átomos de nuestro cuerpo no se podrían haber formado y todo el universo se habría disuelto en hidrógeno. Incluso una pequeña reducción en la fuerza nuclear crearía inestabilidad en la tabla periódica de los elementos y habría menos elementos estables con los que crear vida.
    Si Épsilon fuera 0,008, la fusión habría sido tan rápida que el hidrógeno no habría sobrevivido al big bang y hoy no habría estrellas para dar energía a los planetas. O quizá se habrían unido dos protones, imposibilitando también la fusión en las estrellas. Rees señala el hecho de que Fred Hoyle encontró que incluso un cambio tan pequeño como el 4% en la interacción nuclear habría imposibilitado la formación de carbono en las estrellas, haciendo imposibles los elementos superiores y, por tanto, la vida. [159] Hoyle descubrió que si uno modificaba ligeramente la fuerza nuclear, el berilio sería tan inestable que no podría ser nunca un «puente» para formar átomos de carbono.
  2. En segundo lugar está N, que equivale a 1016, que es la energía de la fuerza eléctrica dividida por la fuerza de la gravedad, lo cual muestra el grado de debilidad de la gravedad. Si la gravedad fuera aún más débil, las estrellas no podrían condensarse y no generarían las altísimas temperaturas necesarias para la fusión. Por tanto, las estrellas no brillarían y los planetas se sumergirían en la oscuridad helada.
    Pero si la gravedad fuera un poco más fuerte, las estrellas se calentarían con excesiva rapidez y quemarían su combustible tan deprisa que no podría empezar la vida. Además, una gravedad más fuerte significaría que las galaxias se formarían antes y que serían bastante pequeñas. Las estrellas estarían más juntas y se producirían colisiones desastrosas entre estrellas y planetas.
  3. En tercer lugar está Omega, la densidad relativa del universo. Si Omega fuera demasiado pequeña, el universo se expandiría y se enfriaría progresivamente. Pero si Omega fuera demasiado grande, el universo se colapsaría antes de que pudiera empezar la vida. Rees escribe: «Un segundo después del big bang, Omega no podía diferir de la unidad en más de una parte entre mil billones (uno en 1015) a fin de que el universo estuviera todavía ahora, después de 10 mil millones de años, expandiéndose y con un valor de Omega que ciertamente no se ha alejado excesivamente de la unidad». [160]
  4. En cuarto lugar está Lambda, la constante cosmológica, que determina la aceleración del universo. Si fuera sólo unas cuantas veces más grande, la antigravedad que crearía haría explotar el universo y lo llevaría a una gran congelación inmediata, haciendo imposible la vida. Pero si la constante cosmológica fuera negativa, el universo se habría contraído violentamente en una gran implosión demasiado pronto para que se formara la vida. Dicho de otro modo, la constante cosmológica, como Omega, también debe estar dentro de una determinada banda estrecha para hacer posible la vida.
  5. En quinto lugar está Q, la amplitud de las irregularidades en el fondo cósmico de microondas, que equivale a 10 −5. Si el número fuera un poco más pequeño, el universo sería extremadamente uniforme, una masa sin vida de gas y polvo, que nunca se condensaría en las estrellas y galaxias de hoy. El universo sería oscuro, uniforme, monótono y sin vida. Si Q fuera mayor, la materia se habría condensado antes en la historia del universo en estructuras supergalácticas inmensas. Estos «grandes focos de materia se habrían condensado en grandes agujeros negros», [161] dice Rees. Estos grandes agujeros negros serían más pesados que un grupo entero de galaxias. Las estrellas que se pudieran formar en estos grandes grupos de gas, cualesquiera que fueran, estarían tan juntas que los sistemas planetarios serían imposibles.
  6. En último lugar está D, el número de dimensiones espaciales. Debido al interés por la teoría M, los físicos han vuelto a la cuestión de si la vida es posible en dimensiones superiores o inferiores. Si el espacio fuese unidimensional, probablemente la vida no podría existir porque el universo sería trivial. Normalmente, cuando los físicos intentamos aplicar la teoría cuántica a universos unidimensionales, encontramos que las partículas pasan una a través de otra sin interaccionar. Así pues, es posible que los universos existentes en una dimensión no puedan tener vida porque las partículas no pueden «unirse» para formar objetos cada vez más complejos.
En espacios de dos dimensiones, también tenemos un problema, porque las formas de vida probablemente se desintegrarían. Imaginemos una raza bidimensional de seres planos, llamados planilandeses, que vivieran en el tablero de una mesa. Imaginémoslos intentando comer. El camino que va de su boca a su trasero partiría al planilandés por la mitad y lo rompería. Así, es difícil imaginar cómo podría existir un planilandés como ser complejo sin desintegrarse o romperse en piezas separadas.
Otro argumento de la biología indica que la inteligencia no puede existir en menos de tres dimensiones. Nuestro cerebro consiste en un gran número de neuronas que se interrelacionan conectadas a una red eléctrica inmensa. Si el universo fuera uni o bidimensional, sería difícil construir redes neuronales complejas, especialmente si se cortocircuitan al colocarse una encima de otra. En dimensiones menores, estaríamos gravemente limitados por el número de circuitos lógicos complejos y neuronas que podemos colocar en un área plana. Nuestro propio cerebro, por ejemplo, consiste en unos 100 mil millones de neuronas, aproximadamente las estrellas que hay en la galaxia de la Vía Láctea, con cada neurona conectada a unas 10.000 neuronas más. Una complejidad así sería difícil de reproducir en menos de tres dimensiones.
En cuatro dimensiones del espacio, hay otro problema: los planetas no son estables en sus órbitas alrededor del Sol. La ley del cuadrado inverso de Newton es sustituida por una ley del cubo inverso. En 1917, Paul Ehrenfest, un colega de Einstein, especuló sobre qué aspecto podía tener la física en otras dimensiones. Analizó lo que se llama la «ecuación de Poisson-Laplace» (que gobierna el movimiento de objetos planetarios, así como las cargas eléctricas en los átomos) y encontró que las órbitas no son estables en cuatro o más dimensiones espaciales. Dado que los electrones, tanto en los átomos como en los planetas, experimentan colisiones aleatorias, los átomos y los sistemas solares probablemente no pueden existir en dimensiones superiores. Dicho de otro modo, tres dimensiones son un caso especial.
Para Rees, el principio antrópico es uno de los argumentos más convincentes del multiverso. Del mismo modo que la existencia de zonas Goldilocks para la Tierra implica planetas extrasolares, la existencia de zonas Goldilocks para el universo implica que hay universos paralelos. Rees comenta: «Si hay muchas existencias de ropa, no es sorprendente encontrar un traje adecuado. Si hay muchos universos, cada uno de ellos gobernado por una serie de números diferentes, habrá uno en el que haya una serie particular de números adecuada para la vida. Nosotros estamos en éste». [162] Dicho de otro modo, nuestro universo es como es por estadística aplicada a muchos universos en el multiverso, no porque sea un diseño fantástico.
Weinberg parece estar de acuerdo en este punto. En realidad, la idea de un multiverso le parece intelectualmente agradable. Nunca le gustó la idea de que el tiempo pudiera existir súbitamente en el big bang y que no existiera antes. En un multiverso, tenemos la creación eterna de universos.
Hay otra razón extravagante por la que Rees prefiere la idea del multiverso. Le parece que el universo contiene una pequeña cantidad de «fealdad». Por ejemplo, la órbita de la Tierra es ligeramente elíptica. Si fuera perfectamente circular, podría decirse, como han hecho los teólogos, que era resultado de la intervención divina. Pero no lo es, lo que indica una cantidad determinada de aleatoriedad dentro de la estrecha banda Goldilocks.
Igualmente, la constante cosmológica no es exactamente cero sino que es pequeña, lo que indica que nuestro universo no es «más especial que lo que requiere nuestra presencia». Todo esto es coherente con el hecho de que nuestro universo ha sido generado aleatoriamente por accidente.

4. Evolución de universos
Como es astrónomo, más que filósofo, Rees dice que lo esencial es que todas las teorías sean comprobables. En realidad, ésta es la razón por la que prefiere la idea del multiverso a las teorías místicas rivales. Cree que la teoría del multiverso puede ser comprobada en los próximos veinte años.
En realidad, hay una variación de la idea de multiverso comprobable hoy en día. El físico Lee Smolin va aún más allá que Rees y asume que se produjo una «evolución» de universos, parecida a la evolución darwinista, que llevó finalmente a universos como el nuestro. En la teoría inflacionaria caótica, por ejemplo, las constantes físicas de los universos «hijos» son ligeramente diferentes a las del universo madre. Si los universos pueden brotar de agujeros negros, como creen algunos físicos, los universos que dominan el multiverso son los que tienen más agujeros negros. Esto significa que, como en el reino animal, los universos que dan a luz más «niños» acaban dominando al extender más su «información genética»: las constantes físicas de la naturaleza. Si es así, nuestro universo podría haber tenido un número infinito de ancestros en el pasado y ser el resultado de billones de años de selección natural. Dicho de otro modo, nuestro universo es el resultado de la supervivencia de los más aptos, lo que significa que es hijo de universos con el máximo número de agujeros negros.
Aunque una evolución darwinista entre universos es una idea extraña y novedosa, Smolin cree que puede comprobarse contando simplemente el número de agujeros negros. Nuestro universo debería ser máximamente favorable a la creación de agujeros negros. (Sin embargo, todavía tiene que demostrarse que los universos con el mayor número de agujeros negros son los que favorecen la vida, como el nuestro).
Como esta idea es comprobable, pueden considerarse contraejemplos.
Así, quizá pueda demostrarse, ajustando hipotéticamente los parámetros físicos del universo, que los agujeros negros se producen más fácilmente en universos que no tienen vida. Por ejemplo, quizá podría demostrarse que un universo con una interacción nuclear mucho más fuerte tiene estrellas que se queman con una rapidez extrema, creando grandes cantidades de supernovas que después colapsan en agujeros negros. En un universo así, un mayor valor para la fuerza nuclear significa que las estrellas viven durante periodos breves y, en consecuencia, no puede empezar la vida. Pero este universo también podría tener más agujeros negros, descartando de este modo la idea de Smolin. La ventaja de esta idea es que puede ser demostrada, reproducida o falsada (el distintivo de cualquier verdadera teoría científica). El tiempo dirá si se sostiene o no.
Aunque cualquier teoría que implique agujeros de gusano, supercuerdas y dimensiones superiores está más allá de nuestra capacidad experimental actual, los nuevos experimentos que se están llevando a cabo y los que se prevén en el futuro podrán determinar si estas teorías son correctas o no. Estamos en plena revolución de la ciencia experimental, con todo el potencial de satélites, telescopios espaciales, detectores de ondas de gravedad y láseres preparados para abordar estas cuestiones. Una cosecha abundante de estos experimentos podría resolver algunas de las preguntas más profundas de la cosmología.

Capítulo 9
En busca de los ecos de la undécima dimensión

Las afirmaciones extraordinarias exigen pruebas extraordinarias.
Carl Sagan

Contenido:
  1. GPS y relatividad
  2. Detectores de ondas de gravedad
  3. Detector de ondas de gravedad LIGO
  4. Detector de ondas de gravedad LISA
  5. Lentes y anillos de Einstein
  6. Materia oscura en nuestra sala de estar
  7. Materia oscura (supersimétrica) SUSY
  8. Prospección digital del cielo Sloan
  9. Compensación de las fluctuaciones térmicas
  10. Acoplamiento de radiotelescopios
  11. Medición de la undécima dimensión
  12. Gran Colisionador de Hadrones
  13. Aceleradores de sobremesa
  14. El futuro
Los universos paralelos, los portales dimensionales y las dimensiones superiores, con toda su espectacularidad, exigen pruebas sólidas de su existencia. Como afirma el astrónomo Ken Croswell: «Los otros universos pueden ser embriagadores: puedes decir lo que quieras sobre ellos y nunca se demostrará que te equivocas, ya que los astrónomos nunca los ven». [163] Anteriormente parecía imposible comprobar muchas de estas predicciones, dado lo primitivo de nuestro equipo experimental. Sin embargo, los recientes avances en informática, láseres y tecnología de satélites han sometido a verificación experimental muchas de estas seductoras teorías.
La verificación directa de estas ideas puede resultar excesivamente difícil, pero la indirecta puede estar a nuestro alcance. A veces olvidamos que la mayor parte de la ciencia astronómica se hace indirectamente. Por ejemplo, nadie ha visitado nunca el Sol ni las estrellas; sin embargo, sabemos de qué están hechas analizando la luz que despiden estos objetos luminosos. Analizando el espectro de su luz, sabemos indirectamente que las estrellas están constituidas principalmente por hidrógeno y un poco de helio. Del mismo modo, en realidad nadie ha visto nunca un agujero negro ya que son invisibles y no pueden verse directamente. Sin embargo, vemos pruebas indirectas de su existencia buscando discos de acrecentamiento y calculando la masa de estas estrellas muertas.
En todos estos experimentos, buscamos «ecos» de las estrellas y agujeros negros para determinar su naturaleza. Del mismo modo, la undécima dimensión puede estar más allá de nuestro alcance directo, pero hay maneras de verificar la inflación y la teoría de cuerdas a la luz de los nuevos instrumentos revolucionarios que tenemos a nuestra disposición.

1. GPS y relatividad
El ejemplo más sencillo de la manera en que los satélites han revolucionado la investigación de la relatividad es el Sistema de Posicionamiento Global (GPS), en el que veinticuatro satélites orbitan continuamente alrededor de la Tierra emitiendo pulsaciones precisas y sincronizadas que nos permiten triangular nuestra posición en el planeta con una precisión notable. El GPS se ha convertido en un instrumento esencial en la navegación, el comercio y la guerra. Todo, desde los mapas informatizados dentro de los coches a los misiles de crucero, depende de la capacidad de sincronizar señales en 50 mil millonésimas de segundo para localizar un objeto en la Tierra con una precisión de unos 14 metros. [164] Pero para garantizar esta increíble exactitud, los científicos tienen que calcular ligeras correcciones de las leyes de Newton debidas a la relatividad, que establece que las ondas de radio cambiarán ligeramente de frecuencia cuando los satélites se eleven en el espacio exterior. [165] En realidad, si descartamos irreflexivamente las correcciones debidas a la relatividad, los relojes del GPS se adelantarán 40 billonésimas de segundo cada día y todo el sistema será poco fiable. La teoría de la relatividad es pues absolutamente esencial para el comercio y lo militar. El físico Clifford Will, que en una ocasión informó a un general de las Fuerzas Aéreas de los EE.UU. sobre las correcciones cruciales del GPS procedentes de la teoría de la relatividad, comentó que sabía que la teoría de la relatividad ya era antigua cuando los oficiales de más rango del Pentágono todavía tenían que ser informados sobre ella.

2. Detectores de ondas de gravedad
Hasta ahora, casi todo lo que sabemos de astronomía nos ha llegado en forma de radiación electromagnética, tanto si se trata de la luz de las estrellas como de señales de radio o de microondas procedentes del espacio profundo. Ahora los científicos están introduciendo el primer medio nuevo para el descubrimiento científico, la gravedad en sí. «Cada vez que miramos al cielo de un modo nuevo, vemos un nuevo universo», [166] dice Gary Sanders, de Cal Tech y subdirector del proyecto de ondas de gravedad.
Fue Einstein, en 1916, quien propuso por primera vez la existencia de ondas de gravedad. Consideremos lo que pasaría si el Sol desapareciera. ¿Recordamos la analogía de una bola de bolos sobre un colchón? ¿O, mejor aún, la red de la cama elástica? Si de pronto se retirase la bola, la red de la cama elástica inmediatamente volvería a su posición original, creando ondas de choque que se extenderían por toda la red. Si la bola de bolos es sustituida por el Sol, veremos que las ondas de choque de la gravedad viajan a una velocidad específica, la velocidad de la luz.
Aunque Einstein encontró más tarde una solución exacta de sus ecuaciones que permitía ondas de gravedad, no tenía esperanzas de ver verificada su predicción durante su vida. Las ondas de gravedad son extremadamente débiles. Incluso las ondas de choque de las estrellas en colisión no son lo bastante fuertes para que puedan medirse en los experimentos actuales.
En el presente, las ondas de gravedad sólo se han detectado indirectamente. Dos físicos, Russell Hulse y Joseph Taylor Jr., conjeturaron que si se analizan las estrellas binarias de neutrones que orbitan en círculos y se persiguen una a otra en el espacio, cada estrella emitiría una corriente de ondas de gravedad, similar a la estela creada al revolver una papilla en una licuadora, a medida que su órbita se descompone lentamente. Analizaron la espiral mortal de dos estrellas de neutrones que se acercaban lentamente una a otra en espiral. El centro de su investigación fue la doble estrella de neutrones PSR1913+16, a unos 16.000 años luz de la Tierra, que orbitan alrededor una de otra cada 7 horas y 45 minutos, emitiendo en el proceso ondas de gravedad hacia el espacio exterior.
Utilizando la teoría de Einstein, descubrieron que las dos estrellas deberían acercarse un milímetro en cada revolución. Aunque se trata de una distancia fantásticamente pequeña, suma un metro a lo largo de un año, mientras su órbita de 700.000 kilómetros disminuye lentamente de diámetro. Su trabajo pionero demostró que la órbita se reducía precisamente como había predicho la teoría de Einstein sobre la base de las ondas de gravedad. (Las ecuaciones de Einstein, en realidad, predicen que estas estrellas se sumergirán una en la otra dentro de 240 millones de años, debido a la pérdida de energía radiada hacia el espacio en forma de ondas de gravedad). Por su trabajo, ganaron el premio Nobel de Física en 1993. [167]
También podemos volver atrás y utilizar este experimento de precisión para medir la exactitud de la propia relatividad general. Cuando los cálculos se hacen hacia atrás, encontramos que la relatividad general es exacta al menos en un 99,7%.

3. Detector de ondas de gravedad LIGO
Pero para extraer información utilizable sobre el universo primigenio, deben observase directamente, y no indirectamente, las ondas de gravedad. En 2003 finalmente se puso en funcionamiento el primer detector de ondas de gravedad en tiempo real, el LIGO (Observatorio de Ondas Gravitatorias por Interferómetro Láser), realizando el sueño de décadas de explorar los misterios del universo con ondas de gravedad. El objetivo del LIGO es detectar los sucesos cósmicos demasiado distantes o pequeños para ser observados por los telescopios de la Tierra, como los agujeros negros en colisión o las estrellas de neutrones.
El LIGO consiste en dos centros gigantescos, uno en Hanford, Washington, y el otro en Livingston Parish, Louisiana. Cada uno de ellos tiene dos tubos, de 4 kilómetros de longitud, que crean una tubería gigantesca en forma de L. En el interior de cada tubo se ha dispuesto un rayo láser. En el ángulo de la L colisionan ambos rayos y sus ondas se interfieren mutuamente. Normalmente, si no hay perturbaciones, las dos ondas están sincronizadas de modo que se cancelan una a otra. Pero cuando incluso la menor onda de gravedad emitida por una colisión de agujeros negros o de estrellas de neutrones llega al aparato, provoca que un brazo se contraiga y expanda de manera diferente que el otro. Esta perturbación es suficiente para interrumpir la delicada cancelación de los dos rayos láser. Como resultado, los dos rayos, en lugar de anularse uno a otro, crean una pauta de interferencia característica en forma de ondas que puede ser analizada en detalle por un ordenador. Cuanto más grande es la onda de gravedad, mayor es la desigualdad entre los dos rayos láser y más grande la pauta de interferencia.
El LIGO es una maravilla de la ingeniería. Como las moléculas de aire pueden absorber la luz del láser, en los tubos que contienen la luz láser se genera un vacío equivalente a una billonésima parte de la presión atmosférica. Cada detector ocupa un espacio de 8.500 metros cúbicos, lo que significa que el LIGO tiene el vacío artificial más grande del mundo. Lo que le da tanta sensibilidad al LIGO, en parte, es el diseño de los espejos, que están controlados por pequeños imanes, seis en total, cada uno de ellos de las dimensiones de una hormiga. La superficie de los espejos está tan pulida que tienen una precisión de 75 nanómetros. «Imaginemos que la tierra fuera tan lisa como estos espejos. En tal caso, la montaña media no tendría más de 2,54 cm de altura», [168] dijo Gari Lynn Billingsley, que controla los espejos. Son tan delicados que sólo pueden moverse, como máximo, una millonésima de metro, lo que tal vez convierte a los espejos del LIGO en los más sensibles del mundo. «La mayoría de los ingenieros de sistemas de control se quedan con la boca abierta cuando se enteran de lo que intentamos hacer», [169]dice el científico del LIGO Michael Zucker.
Como el LIGO está equilibrado con tanta exquisitez, a veces se ve afectado por ligeras vibraciones indeseadas de los orígenes más improbables. El detector de Louisiana, por ejemplo, no puede funcionar durante el día por culpa de unos leñadores que cortan árboles a 500 metros del lugar. (El LIGO es tan sensible que aunque la tala se produjera al triple de distancia, no podría funcionar durante el día). Además, las vibraciones de los trenes de mercancías que pasan a medianoche y a las 6 de la mañana marcan los límites de tiempo continuo en que el LIGO puede funcionar por la noche.
Incluso un sonido tan apagado como el de las olas del mar que golpean la costa a varios kilómetros de distancia puede afectar los resultados. Las olas que rompen en las playas de Norteamérica llegan cada seis segundos, como promedio, lo que crea un bramido grave que, efectivamente, puede ser recogido por los láseres. En realidad, la frecuencia del ruido es tan baja que penetra a través de la Tierra. «Parece un ruido sordo», [170] dice Zucker, comentando este ruido de la marea. «Es una gran pesadilla durante la época de huracanes en Louisiana». El LIGO se ve afectado asimismo por las mareas creadas por la gravedad de la Luna y el Sol, que tiran de la Tierra, creando una perturbación de varios micrómetros.
A fin de eliminar estas perturbaciones increíblemente pequeñas, los ingenieros del LIGO han llegado a extremos extraordinarios para aislar gran parte del aparato. Cada sistema láser descansa sobre cuatro plataformas inmensas de acero inoxidable superpuestas; cada nivel está separado por muelles que sofocan cualquier vibración. Cada instrumento óptico sensible tiene sus propios sistemas de aislamiento sísmico; el suelo es una losa de cemento de 75 cm de grosor que no está acoplada a las paredes. [171]
En realidad, el LIGO forma parte de un consorcio internacional, que incluye el detector franco-italiano llamado VIRGO en Pisa, un detector japonés llamado TAMA en las afueras de Tokio, y un detector británico-alemán llamado GEO600 en Hannover. En conjunto, el coste final de la construcción del LIGO será de 292 millones de dólares (más 80 millones para contratación y actualizaciones), lo que lo convierte en el proyecto más caro jamás financiado por la Fundación Nacional para la Ciencia. [172]
Pero incluso con esta sensibilidad, muchos científicos reconocen que el LIGO quizá no sea lo bastante sensible para detectar sucesos realmente interesantes en su periodo de vida. La próxima actualización de sus prestaciones, LIGO II, estaba prevista para 2007 si se conseguía la financiación. Si el LIGO no detecta las ondas de gravedad, la apuesta es que el LIGO II sí lo hará. El científico del LIGO Kenneth Libbrecht dice que el LIGO II multiplicará por mil la sensibilidad del equipo: «Se pasará de [detectar] un suceso cada 10 años, que es bastante lamentable, a un suceso cada tres días, lo que es muy agradable». [173]
Para que el LIGO detecte la colisión de dos agujeros negros (dentro de una distancia de 300 millones de años luz), un científico podría tener que esperar desde un año hasta mil. Muchos astrónomos podrían desistir de investigar un suceso así con el LIGO si significa que los nietos de los nietos de sus nietos son los que llegarán a ser testigos del suceso. Pero, como ha dicho el científico del LIGO Peter Saulson: «A la gente le complace resolver estos desafíos técnicos, del mismo modo que los constructores de catedrales medievales seguían trabajando aunque sabían que posiblemente no llegarían a ver la iglesia terminada. Pero si no tuviera ninguna posibilidad de ver una onda de gravedad antes de morir, no estaría en este sector. No se trata de la fiebre del Nobel. […] Los niveles de precisión que buscamos caracterizan nuestro empeño; si lo hacemos así, "estaremos en el buen camino"». [174] Con el LIGO II, hay muchas más posibilidades de encontrar un suceso realmente interesante en nuestra vida: [175] el LIGO II podría detectar agujeros negros en colisión dentro de una distancia mucho más larga, de 6.000 millones de años luz, a una tasa que podría ir de diez por día a diez por año.
Sin embargo, ni siquiera el LIGO II será lo bastante poderoso para detectar ondas de gravedad emitidas en el instante de la creación. Para ello tendremos que esperar unos años a la llegada del LISA.

4. Detector de ondas de gravedad LISA
El LISA (Antena Espacial por Interferometría Láser) representa la siguiente generación de detectores de ondas de gravedad. A diferencia del LIGO, se basará en el espacio exterior. Alrededor de 2010, la NASA y la Agencia Espacial Europea tienen previsto lanzar tres satélites al espacio; orbitarán alrededor del Sol aproximadamente a 50 millones de kilómetros de la Tierra. Los tres detectores de láser formarán un triángulo equilátero en el espacio (de 5 millones de kilómetros de lado). Cada satélite tendrá dos láseres que permitirán el contacto continuo con los otros dos satélites. Aunque cada láser disparará un rayo con sólo medio vatio de energía, las ópticas serán tan sensibles que podrán detectar vibraciones procedentes de las ondas de gravedad con una exactitud de una parte en mil trillones (corresponde a un desplazamiento equivalente a una centésima del diámetro de un átomo). El LISA podría detectar las ondas de gravedad desde una distancia de 9.000 millones de años luz, lo que cubre la mayor parte del universo visible.
El LISA será tan preciso que podría detectar las ondas de choque originales del propio big bang. De este modo, tendremos con diferencia la visión más precisa del instante de la creación. Si todo va según lo previsto, el LISA podrá inspeccionar la primera billonésima de segundo después del big bang, lo que lo convertiría en la herramienta cosmológica más potente. [176] Se cree que el LISA podrá encontrar los primeros datos experimentales sobre la naturaleza precisa de la teoría del campo unificado, la teoría del todo.
Un objetivo importante del LISA es proporcionar la «prueba definitiva» de la teoría inflacionaria. Hasta ahora, la inflación es coherente con todos los datos cosmológicos (universo plano, fluctuaciones del fondo cósmico, etcétera). Pero esto no significa que la teoría sea correcta. Para cerrar la teoría, los científicos quieren examinar las ondas de gravedad provocadas por el propio proceso inflacionario. La «huella» de las ondas de gravedad creadas en el instante del big bang marcará o establecerá la diferencia entre la inflación y cualquier teoría rival. Algunos, como Kip Thorne, de Cal Tech, creen que el LISA será capaz de decir si alguna versión de la teoría de cuerdas es correcta. Como explico en el capítulo 7, la teoría del universo inflacionario predice que las ondas de gravedad que surgen del big bang deberían ser bastante violentas, correspondientes a la expansión exponencial del universo primigenio, mientras que el modelo ekpirótico predice una expansión más amable, acompañada de ondas de gravedad más suaves. El LISA debería ser capaz de eliminar varias teorías rivales del big bang y hacer una prueba crucial de la teoría de cuerdas.

5. Lentes y anillos de Einstein
Otra herramienta valiosa para la exploración del cosmos es el uso de las lentes gravitatorias y los «anillos de Einstein». Ya en 1801, el astrónomo berlinés Johann Georg von Soldner pudo calcular la posible desviación de la luz de las estrellas por la gravedad del Sol (aunque, como Soldner se basaba estrictamente en argumentos newtonianos, se equivocaba por un crucial factor de 2. Einstein escribió: «La mitad de esta desviación es producida por el campo newtoniano de atracción del Sol, la otra mitad por la modificación geométrica ["curvatura"] del espacio causado por el Sol»). [177]
En 1912, antes de completar la versión final de la relatividad general, Einstein contempló la posibilidad de utilizar esta desviación como «lente», del mismo modo que las gafas refractan la luz antes de llegar a nuestros ojos. En 1936, un ingeniero checo, Rudi Mandl, escribió a Einstein preguntándole si una lente gravitacional podía magnificar la luz de una estrella cercana. La respuesta fue que sí, pero que su detección superaba la tecnología.
En particular, Einstein constató que veríamos ilusiones ópticas, como dobles imágenes del mismo objeto o una distorsión de la luz en forma de anillo. La luz de una galaxia muy distante que pasa cerca de nuestro Sol, por ejemplo, viajaría tanto por el lado izquierdo como por el derecho de nuestro Sol antes de que sus rayos se unieran y llegaran a nuestro ojo. Cuando miramos la galaxia distante, vemos una pauta como de anillo, una ilusión óptica causada por la relatividad general. Einstein llegó a la conclusión de que no había «mucha esperanza de observar este fenómeno directamente». [178] En realidad escribió que este trabajo «tiene poco valor, pero hace feliz al pobre hombre [Mandl]».
Más de cuarenta años después, en 1979, Dennis Walsh, del Observatorio de Jordell Bank, en Inglaterra, quien descubrió el quásar doble Q0957+561, encontró la primera prueba parcial. [179] En 1988 se observó el primer anillo de Einstein desde la fuente de radio MG1131+0456. En 1997, el telescopio espacial Hubble y el complejo radiotelescópico del Reino Unido MERLIN captaron el primer anillo totalmente circular de Einstein al analizar la galaxia distante 1938+666, confirmando una vez más la teoría de Einstein. (El anillo es pequeño, sólo un segundo de arco, aproximadamente la dimensión de una moneda vista desde tres kilómetros de distancia). Los astrónomos describieron la emoción que sintieron al contemplar este acontecimiento histórico: «A primera vista, parecía artificial y pensamos que era alguna especie de defecto en la imagen, ¡pero entonces nos dimos cuenta de que estábamos viendo un anillo de Einstein perfecto!», dijo Ian Brown, de la Universidad de Manchester. Hoy en día, los anillos de Einstein son un arma esencial en el arsenal de los astrofísicos. [180] Se han visto cerca de sesenta y cuatro quásares dobles, triples y múltiples (ilusiones causadas por las lentes de Einstein) en el espacio exterior, o aproximadamente uno por cada quinientos quásares observados.
Incluso las formas invisibles de materia, como la materia oscura, pueden «verse» analizando la distorsión de las ondas de luz que crean. De este modo, pueden obtenerse «mapas» que muestran la distribución de materia oscura en el universo. Como las lentes de Einstein distorsionan los grupos galácticos creando grandes arcos (más que anillos), es posible estimar la concentración de materia oscura en estos grupos. En 1986, astrónomos del Observatorio de Astronomía Óptica Nacional de la Universidad de Stanford y del Observatorio Midi-Pyrénées, en Francia, descubrieron los primeros arcos galácticos. Desde entonces, se han descubierto unos cien arcos galácticos, el más espectacular, en el grupo galáctico Abell 2218. [181]
Las lentes de Einstein también pueden usarse como método independiente para medir la cantidad de MACHO (objetos de halo compactos masivos que consisten en materia ordinaria como estrellas muertas, enanas marrones y nubes de polvo) en el universo. En 1986, Bohdan Paczynski, de Princeton, se percató de que si uno de estos objetos pasaba por delante de una estrella, magnificaría su brillo y crearía una segunda imagen.
A principios de los años noventa, varios equipos de científicos (como el francés EROS, el americano-australiano MACHO y el polaco-americano OGLE) aplicaron este método al centro de la galaxia de la Vía Láctea y encontraron más de quinientos sucesos de microlentes (más de lo que esperaban, porque parte de esta materia consistía en estrellas de escasa o poca masa y no en verdaderos MACHO). Este mismo método puede usarse para encontrar planetas extrasolares orbitando alrededor de otras estrellas. Como un planeta ejercería un efecto gravitatorio pequeño pero perceptible en la luz de la estrella madre, la lente de Einstein en principio puede detectarlos. Este método ya ha identificado un puñado de candidatos a planetas extrasolares, algunos de ellos cerca del centro de la Vía Láctea.
Hasta la constante de Hubble y la constante cosmológica pueden ser medidas utilizando las lentes de Einstein. La constante de Hubble se mide haciendo una observación sutil. Los quásares adquieren brillo y lo pierden con el tiempo; podría esperarse que los quásares dobles, que son imágenes del mismo objeto, oscilaran al mismo ritmo. En realidad, estos quásares gemelos no oscilan exactamente al unísono. Utilizando la distribución de materia conocida, los astrónomos pueden calcular el lapso de tiempo dividido por el tiempo total que tarda la luz en llegar a la Tierra. Midiendo el lapso de tiempo en la luz emitida por los quásares dobles, puede calcularse su distancia de la Tierra. Conociendo su desplazamiento hacia el rojo, puede calcularse la constante de Hubble. (Este método fue aplicado al quásar Q0957+561, que se vio que estaba aproximadamente a 14.000 millones de años luz de la Tierra. Desde entonces, la constante de Hubble ha sido calculada analizando otros siete quásares. Dentro de los márgenes de error, estos cálculos concuerdan con los resultados conocidos. Lo interesante es que este método es totalmente independiente del brillo de estrellas, como las Cefeidas y las supernovas de tipo Ia, lo que da una comprobación independiente de los resultados).
La constante cosmológica, que puede tener la llave del futuro de nuestro universo, también puede medirse con este método. El cálculo es un poco rudimentario, pero también coincide con otros métodos. Como el volumen total del universo era inferior hace miles de millones de años, la probabilidad de encontrar quásares que formaran una lente de Einstein también era mayor en el pasado. Así, midiendo el número de quásares dobles en diferentes momentos de la evolución del universo, puede calcularse el volumen total del universo y, de ahí, la constante cosmológica, que ayuda a deducir la expansión del universo. En 1998, los astrónomos del Centro de Astrofísica Harvard-Smithsonian hicieron la primera valoración rudimentaria de la constante cosmológica y llegaron a la conclusión de que probablemente no formaba más del 62% del contenido total de materia/energía del universo. (El resultado real del WMAP es 73%). [182]

6. Materia oscura en nuestra sala de estar
La materia oscura, si llena el universo, no sólo existe en el vacío frío del espacio. En realidad, también debería encontrarse en nuestra sala de estar. Hoy en día, varios equipos de investigación compiten por ver quién llegará primero a atrapar la primera partícula de materia oscura en el laboratorio. Es mucho lo que está en juego: el equipo que sea capaz de capturar una partícula de materia oscura atravesando como una flecha sus detectores será el primero en detectar una nueva forma de materia en dos mil años.
La idea central que hay detrás de estos experimentos es disponer de un gran bloque de material puro (como yoduro de sodio, óxido de aluminio, freón, germanio o silicio) en el cual puedan interaccionar las partículas de materia oscura. De vez en cuando, una partícula de materia oscura puede colisionar con el núcleo de un átomo y causar una pauta de desintegración característica. Fotografiando las pistas de las partículas implicadas en esta desintegración, los científicos podrán confirmar la presencia de materia oscura.
Los experimentadores muestran un optimismo cauto, ya que la sensibilidad de sus equipos les da la mejor oportunidad hasta ahora de observar la materia oscura. Nuestro sistema solar orbita alrededor del agujero negro del centro de la galaxia de la Vía Láctea a 220 kilómetros por segundo. Como resultado, nuestro planeta pasa a través de una cantidad considerable de materia oscura. Los físicos estiman que cada segundo pasan por cada metro cuadrado de nuestro mundo, incluyendo nuestros cuerpos, mil millones de partículas de materia oscura [183].
Aunque vivimos inmersos en un «viento de materia oscura» que sopla a través del sistema solar, ha sido muy difícil realizar experimentos para detectarla en el laboratorio porque las partículas de materia oscura interaccionan muy débilmente con la materia ordinaria. Por ejemplo, los científicos esperarían encontrar en alguna parte de 0,01 a 10 sucesos por año que ocurrieran dentro de un kilogramo de material en el laboratorio. Dicho de otro modo, tendríamos que mirar con atención grandes cantidades de este material durante un periodo de muchos años para ver sucesos coherentes con las colisiones de materia oscura.
Hasta ahora, los experimentos con acrónimos como UKDMC en el Reino Unido, ROSEBUD en Canfranc (España), SIMPLE en Rustrel (Francia) y Edelweiss en Frejus (Francia) no han detectado todavía sucesos de este tipo. [184]] Un experimento llamado DAMA, en las afueras de Roma, causó gran revuelo en 1999, cuando los científicos avistaron supuestamente partículas de materia oscura. Como DAMA utiliza 100 kilogramos de yoduro de sodio, es el mayor detector del mundo. Sin embargo, cuando los demás detectores intentaron reproducir el resultado de DAMA, no encontraron nada, lo que arrojó dudas sobre los descubrimientos de este experimento.
El físico David B. Cline señala: «Si los detectores registran y verifican una señal, se reconocerá como uno de los grandes logros del siglo XXI. […] El mayor misterio de la astrofísica moderna puede resolverse pronto». [185]
Si se encontrase pronto la materia oscura, como esperan muchos físicos, podría dar apoyo a la supersimetría (y posiblemente, con el tiempo, a la teoría de las supercuerdas) sin el uso de colisionadores de partículas.

7. Materia oscura (supersimétrica) SUSY
Una rápida mirada a las partículas predichas por la supersimetría muestra que hay varios candidatos probables que pueden explicar la materia oscura. Una es el neutralino, una familia de partículas que contiene la superpareja del fotón. Teóricamente, el neutralino parece encajar con los datos. No sólo es de carga neutra, y por tanto invisible, y también masivo (por lo que sólo le afecta la gravedad), sino que también es estable. (Esto se debe a que tiene la masa más baja de cualquier partícula de su familia y, por tanto, no puede desintegrarse a un estado menor). Además, y quizás es lo más importante, el universo debería estar lleno de neutralinos, lo que los haría candidatos ideales para la materia oscura.
Los neutralinos tienen una gran ventaja: podrían resolver el misterio de por qué la materia oscura forma el 23% del contenido de material energía del universo, mientras el hidrógeno y el helio sólo forman un mísero 4%.
Recordemos que cuando el universo tenía 380.000 años, la temperatura descendió hasta que los átomos dejaron de dividirse por las colisiones causadas por el intenso calor del big bang. En aquel tiempo, la bola de fuego en expansión empezó a enfriarse, condensarse y formar átomos estables enteros. La abundancia de átomos en el presente se remonta aproximadamente a aquel periodo de tiempo. La lección es que la abundancia de materia en el universo se remonta a la época en que el universo se había enfriado lo suficiente para que la materia pudiera ser estable.
Este mismo argumento puede utilizarse para calcular la abundancia de neutralinos. Poco después del big bang, la temperatura era tan abrasadoramente elevada que incluso los neutralinos fueron destruidos por las colisiones. Pero, a medida que el universo se fue enfriando, en un momento dado la temperatura bajó lo suficiente para que los neutralinos pudieran formarse sin ser destruidos. La abundancia de neutralinos se remonta a esta época primigenia. Cuando hacemos este cálculo, encontramos que la abundancia de neutralinos es mucho mayor que la de átomos y, en realidad, corresponde aproximadamente a la abundancia actual de materia oscura. Las partículas supersimétricas, por tanto, pueden explicar la razón por la que la materia oscura es abrumadoramente abundante en todo el universo.

8. Prospección digital del cielo Sloan
Aunque muchos de los avances del siglo XXI se llevarán a cabo en la instrumentación relacionada con los satélites, eso no significa que la investigación con telescopios ópticos y radiotelescopios con base en la Tierra se haya dejado de lado. En realidad, el impacto de la revolución digital ha cambiado la manera de utilizar los telescopios ópticos y radiotelescopios, posibilitando el análisis estadístico de cientos de miles de galaxias. La tecnología del telescopio tiene ahora una segunda vida como resultado de esta nueva tecnología.
Históricamente, los astrónomos han luchado contra la limitada cantidad de tiempo que se les permitía utilizar los más grandes telescopios del mundo. Protegían celosamente su valioso tiempo en estos instrumentos y dedicaban muchas horas a trabajar durante toda la noche en habitaciones frías y húmedas. Este método de observación tan anticuado era muy ineficiente y a menudo provocaba amargas disputas entre los astrónomos que se sentían desairados por los «popes» que monopolizaban el telescopio. Todo esto está cambiando con la llegada de Internet y la informática de alta velocidad.
Hoy en día, muchos telescopios están plenamente automatizados y pueden programarse a miles de kilómetros de distancia por parte de astrónomos situados en diferentes continentes. Los resultados de estas prospecciones masivas de estrellas pueden digitalizarse y a continuación ponerse en Internet, donde potentes superordenadores pueden analizar los datos. Un ejemplo del potencial de este método digital es SETI@home, un proyecto con base en la Universidad de California, en Berkeley, para analizar señales de inteligencia extraterrestre. Los datos masivos del radiotelescopio Arecibo en Puerto Rico se reducen a pequeñas piezas digitales que después se envían por Internet a ordenadores de todo el mundo, sobre todo a aficionados. Un programa salvapantallas analiza los datos de señales inteligentes cuando no se usa el ordenador. Mediante este método, el grupo de investigación ha construido la mayor red de ordenadores del mundo, que vincula unos 5 millones de ordenadores de todos los puntos del planeta.
El ejemplo más destacado actualmente de la exploración digital del universo es la Prospección Digital Sloan, que es el reconocimiento más ambicioso del firmamento nocturno jamás emprendido. Tal como la anterior Prospección Digital de Palomar, que utilizaba anticuadas placas fotográficas almacenadas en grandes volúmenes, la Prospección Digital Sloan creará un mapa detallado de los objetos celestes del firmamento. Se han construido mapas tridimensionales de galaxias distantes en cinco colores, incluyendo el desplazamiento al rojo de más de un millón de galaxias. El resultado de la Prospección Digital Sloan es un mapa a gran escala de la estructura del universo varios cientos de veces más grande que el de los esfuerzos anteriores. Trazará con detalles exquisitos el mapa de una cuarta parte de la bóveda celeste y determinará la posición y brillo de 100 millones de objetos celestes. También determinará la distancia de más de un millón de galaxias y de unos 100.000 quásares. La información total generada por la prospección será de 15 terabytes (1 terabyte = un billón de bytes), que podría equipararse a la información almacenada en la Biblioteca del Congreso Norteamericano.
El corazón de la Prospección Digital es un telescopio de 2,5 metros, en el sur de Nuevo México, con una de las cámaras más avanzadas que ha habido jamás. Contiene treinta delicados sensores electrónicos de luz, llamados CCD (dispositivos de carga acoplada), cada 13 centímetros cuadrados, precintados al vacío. Cada sensor, que es enfriado a −80° C mediante nitrógeno líquido, contiene 4 millones de elementos de imágenes (o 4 megapíxeles). Por tanto, toda la luz recogida por el telescopio puede ser digitalizada al instante por el CCD y después introducida directamente en un ordenador para procesarla. Por menos de 20 millones de dólares, la prospección crea una imagen asombrosa del universo con un coste de una centésima del valor del telescopio espacial Hubble.
El programa introduce después estos datos digitalizados en Internet, donde pueden estudiarlos astrónomos de todo el mundo. De este modo, también podemos aprovechar el potencial intelectual de todos los científicos del mundo. En el pasado, los científicos del Tercer Mundo demasiado a menudo tenían problemas para conseguir acceso a los últimos datos telescópicos y a las últimas publicaciones, lo que significaba una pérdida tremenda de talento científico. Hoy en día, gracias a Internet, pueden bajarse los datos de las prospecciones del firmamento, leer los artículos cuando aparecen en la red e incluso publicar artículos a la velocidad de la luz.
La Prospección Sloan está cambiando rápidamente la manera de practicar la astronomía, con nuevos resultados basados en análisis de cientos de miles de galaxias, lo que habría sido prohibitivo hace unos cuantos años. Por ejemplo, en mayo de 2003, un equipo de científicos de España, Alemania y Estados Unidos anunció que habían analizado 250.000 galaxias en busca de pruebas de la materia oscura. De este número ingente, se centraron en tres mil galaxias con grupos de estrellas que orbitaban a su alrededor. Utilizando las leyes de la dinámica de Newton para analizar el movimiento de estos satélites, calcularon la cantidad de materia oscura que debe rodear la galaxia central. Estos científicos ya han descartado una teoría rival. (Una teoría alternativa, propuesta por primera vez en 1983, intentó explicar las órbitas anómalas de estrellas en las galaxias modificando las propias leyes de Newton. Quizás, en realidad, la materia oscura no existía, sino que se debía a un error de las leyes de Newton. Los datos de la prospección proyectan dudas sobre esta teoría).
En julio de 2003, otro equipo de científicos de Alemania y Estados Unidos anunció que había analizado 120.000 galaxias cercanas utilizando la Prospección Sloan para aclarar la relación entre las galaxias y los agujeros negros de su interior. La pregunta es: ¿qué fue primero, el agujero negro o la galaxia que lo alberga? El resultado de esta investigación indica que la galaxia y la formación del agujero negro están íntimamente ligadas y que probablemente se formaron al mismo tiempo. Se demostró que, de las 120.000 galaxias analizadas en la prospección, más de 20.000 contienen agujeros negros que todavía están creciendo (a diferencia del agujero negro de la galaxia de la Vía Láctea, que parece inmóvil). Los resultados muestran que las galaxias que contienen agujeros negros todavía en formación son mucho más grandes que la galaxia de la Vía Láctea, y que crecen tragando gas relativamente frío de la galaxia.

9. Compensación de las fluctuaciones térmicas
Los telescopios ópticos también se han revitalizado mediante láseres para compensar la distorsión de la atmósfera. Las estrellas no parpadean porque vibren; las estrellas parpadean principalmente debido a pequeñas fluctuaciones termales en la atmósfera. Esto significa que en el espacio exterior, lejos de la atmósfera, las estrellas brillan sobre los astronautas de forma continua. Aunque este parpadeo da gran parte de su belleza al cielo nocturno, para un astrónomo es una pesadilla que provoca imágenes borrosas de los cuerpos celestes. (De pequeño, recuerdo haber contemplado las imágenes difuminadas del planeta Marte deseando que hubiera alguna manera de obtener imágenes del planeta rojo claras como el cristal. Pensaba que sólo con que se pudieran eliminar las perturbaciones de la atmósfera redisponiendo los rayos de luz, podría resolverse el secreto de la vida extraterrestre).
Una manera de compensar esta falta de nitidez consiste en utilizar láseres y ordenadores de alta velocidad para eliminar la distorsión. Este método utiliza la «óptica adaptativa», de la que fue pionera una compañera mía de Harvard, Claire Max, del Laboratorio Nacional Lawrence Livermore, y otros, utilizando el gran telescopio W. M. Keck de Hawai (el más grande del mundo) y también el telescopio más pequeño, Shane, de tres metros, en el Observatorio Lick de California. Por ejemplo, disparando un rayo láser hacia el espacio exterior, pueden medirse las pequeñas fluctuaciones de temperatura en la atmósfera. Esta información es analizada por ordenador, que a su vez realiza pequeños ajustes en el espejo de un telescopio que compensan la distorsión de la luz de la estrella. De este modo, puede eliminarse prácticamente la perturbación de la atmósfera.
Este método fue comprobado con éxito en 1996 y desde entonces ha producido imágenes claras como el cristal de planetas, estrellas y galaxias. El sistema dispara luz desde un láser de color ajustable de 18 vatios de potencia hacia el cielo. El láser está unido al telescopio de 3 metros, cuyos espejos deformables están ajustados para compensar la distorsión atmosférica. La imagen en sí es captada por una cámara CCD y digitalizada. Con un presupuesto modesto, este sistema ha obtenido imágenes casi comparables a las del telescopio espacial Hubble. Utilizando este método, que insufla nueva vida a los telescopios ópticos, pueden verse detalles de planetas exteriores e incluso mirar al centro de un quásar.
Este método también ha incrementado la resolución del telescopio Keck por un factor de 10. El Observatorio Keck situado en la cima del volcán inactivo de Mauna Kea a casi 4.000 metros sobre el nivel del mar, consiste en dos telescopios gemelos que pesan 270 toneladas cada uno. Cada espejo, que mide 10 metros de diámetro, está formado por treinta y seis piezas hexagonales, cada una de las cuales puede ser manipulada independientemente por ordenador. En 1999 se instaló un sistema de óptica adaptativa en el Keck II, consistente en un espejo pequeño y deformable que puede cambiar de forma 670 veces por segundo. Este sistema ya ha capturado imágenes de estrellas orbitando alrededor de un agujero negro en el centro de nuestra galaxia de la Vía Láctea, la superficie de Neptuno y de Titán (una luna de Saturno) e incluso un planeta extrasolar que eclipsó a la estrella madre a 153 años luz de la Tierra. La luz de la estrella HD 209458 se debilitó exactamente como se había predicho a medida que el planeta se desplazaba por delante de la estrella.

10. Acoplamiento de radiotelescopios
La revolución informática también ha revitalizado los radiotelescopios. En el pasado, los radiotelescopios estaban limitados por las dimensiones de su antena parabólica o plato. Cuanto mayor fuese el plato, más señales de radio podrían recogerse desde el espacio y analizarse. Sin embargo, cuanto más grande es el plato, más caro se vuelve. Una manera de superar este problema consiste en juntar varias antenas parabólicas para imitar la capacidad de recepción de radio de un superradiotelescopio. (El mayor radiotelescopio que se puede acoplar sobre la Tierra tiene las dimensiones de la Tierra). Los esfuerzos anteriores de acoplar radiotelescopios en Alemania, Italia y Estados Unidos obtuvieron éxitos parciales.
Un problema que presenta este método es que las señales de los distintos radiotelescopios deben combinarse con exactitud y después introducirse en un ordenador. En el pasado, esto era prohibitivamente difícil. Sin embargo, con la llegada de Internet y los ordenadores económicos de alta velocidad, los costes han caído considerablemente. Hoy en día, construir radiotelescopios con las dimensiones efectivas del planeta Tierra ha dejado de ser una fantasía.
En los Estados Unidos, el mecanismo más avanzado que emplea esta tecnología de interferencia es el VLBA (complejo de muy larga base), que es una colección de diez antenas de radio localizadas en lugares como Nuevo México, Arizona, New Hampshire, Washington, Texas, las Islas Vírgenes y Hawai. Cada estación del VLBA contiene una gran antena parabólica de 27 metros de diámetro que pesa 240 toneladas y tiene la altura de un edificio de diez pisos. Las señales de radio son cuidadosamente grabadas en cinta en cada lugar y, a continuación, la cinta se envía al Centro de Operaciones de Socorro, Nuevo México, donde se correlacionan y analizan los datos. El sistema se puso en funcionamiento en 1993 con un coste de 85 millones de dólares.
La correlación de los datos de estas diez antenas equivale a un efectivo radiotelescopio gigante que tiene una base de 8.000 kilómetros y es capaz de producir algunas de las imágenes más precisas que se pueden obtener desde la Tierra. Es equivalente a estar en Nueva York y poder leer un periódico que está en Los Ángeles. El VLBA ha producido ya «películas» de chorros cósmicos y explosiones de supernova y ha conseguido la medición de distancia más precisa que se ha hecho jamás de un objeto fuera de la galaxia de la Vía Láctea.
En el futuro, incluso los telescopios ópticos podrán utilizar el poder de la interferometría, aunque es bastante difícil por la corta longitud de onda de la luz. Hay un plan para tomar los datos ópticos de los dos telescopios del Observatorio Keck en Hawai e interferirlos, creando esencialmente un telescopio gigante mayor que cada uno de ellos.

11. Medición de la undécima dimensión
Además de la búsqueda de materia oscura y agujeros negros, lo más intrigante para los físicos es la búsqueda de dimensiones superiores de espacio y tiempo. Uno de los intentos más ambiciosos de verificar la existencia de un universo cercano se hizo en la Universidad de Colorado, en Boulder. Los científicos intentaron medir las desviaciones de la famosa ley del cuadrado inverso de Newton.
Según la teoría de la gravedad de Newton, la fuerza de atracción entre dos cuerpos disminuye con el cuadrado de la distancia que los separa. Si se dobla la distancia de la Tierra al Sol, la fuerza de la gravedad se reduce por el cuadrado de 2, o sea, por 4. Esto, a su vez, mide la dimensionalidad del espacio.
Hasta ahora, la ley de gravedad de Newton se sostiene a distancias cosmológicas que implican grandes grupos de galaxias. Pero nadie ha comprobado adecuadamente su ley de la gravedad a pequeñas escalas de distancia porque era prohibitivamente difícil. Como la gravedad es una fuerza tan débil, incluso la menor perturbación puede destruir el experimento. Hasta los camiones que pasan crean vibraciones lo bastante grandes para invalidar experimentos que intentan medir la gravedad entre dos objetos pequeños.
Los físicos de Colorado construyeron un instrumento delicado, llamado «resonador de alta frecuencia», que fue capaz de comprobar la ley de la gravedad hasta una décima de milímetro, la primera vez que se ha hecho a escala tan pequeña. El experimento consistía en dos láminas muy finas de tungsteno suspendidas en un vacío. Una de las láminas vibraba a una frecuencia de 1.000 ciclos por segundo, con un aspecto parecido al de un trampolín vibrante. Los físicos buscaron a continuación vibraciones que se transmitieran a través del vacío a la segunda lámina. El aparato era tan sensible que podía detectar el movimiento de la segunda lámina causado por la fuerza de una mil millonésima parte del peso de un grano de arena. Si hubiera habido una desviación en la ley de la gravedad de Newton, se habrían grabado ligeras perturbaciones en la segunda lámina. Sin embargo, después de analizar distancias de hasta 108 millonésimas de metro, los físicos no encontraron esta desviación. «Hasta ahora, Newton se mantiene firme», [186] dijo C. D. Hoyle, de la Universidad de Trento (Italia), que analizó el experimento para la revista Nature.
El resultado fue negativo, pero esto no hizo más que estimular el interés de otros físicos que querían comprobar desviaciones de la ley de Newton a nivel microscópico.
Se está planeando otro experimento en la Universidad de Purdue. Los físicos quieren medir las pequeñas desviaciones de la gravedad de Newton, no al nivel milimétrico sino al nivel atómico. Planean hacerlo utilizando la nanotecnología para medir la diferencia entre el níquel 58 y el níquel 64. Estos dos isótopos tienen propiedades eléctricas y químicas idénticas, pero un isótopo tiene seis neutrones más que el otro. En principio, la única diferencia entre estos isótopos es su peso.
Estos científicos prevén crear un dispositivo de Casimir consistente en dos series de placas neutrales formadas por los dos isótopos. Normalmente, cuando estas placas se mantienen cercanas, no ocurre nada porque no tienen carga. Pero si se las acerca extremadamente una a otra, se produce el efecto Casimir y las dos placas se atraen ligeramente, un efecto que ha sido medido en el laboratorio. Como cada serie de placas paralelas está hecha de isótopos de níquel diferentes, se verán ligeramente atraídas de manera diferente, dependiendo de su gravedad.
A fin de maximizar el efecto Casimir, las placas tienen que acercarse extremadamente. (El efecto es proporcional al inverso de la cuarta potencia de la distancia de separación. Así pues, el efecto crece rápidamente cuando las placas se juntan). Los físicos de Purdue utilizarán la nanotecnología para hacer placas separadas por distancias atómicas. Utilizarán osciladores de torsión micro electromecánicos de última generación para medir pequeñas oscilaciones en las placas. Cualquier diferencia entre las placas de níquel 58 y níquel 64 puede atribuirse a la gravedad. De este modo, confían en medir desviaciones de las leyes de la dinámica de Newton a distancias atómicas. Si encuentran una desviación de la famosa ley del cuadrado inverso de Newton con este ingenioso mecanismo, ello puede señalar la presencia de un universo de dimensiones superiores separado de nuestro universo por la distancia de un átomo.

12. Gran Colisionador de Hadrones
Pero el mecanismo que puede resolver decididamente muchas de estas cuestiones es el LHC (Gran Colisionador de Hadrones), cuya construcción está a punto de finalizar cerca de Ginebra (Suiza), en el célebre laboratorio nuclear CERN. A diferencia de los experimentos anteriores sobre formas de materia extraña que ocurren naturalmente en nuestro mundo, el LHC podría tener suficiente energía para crearlas directamente en el laboratorio. EL LHC podrá explorar pequeñas distancias, de hasta 10−19 metros, o 10.000 veces menores que un protón, y generar temperaturas no vistas desde el big bang. «Los físicos están seguros de que la naturaleza tiene nuevos trucos en la manga que deben revelarse en estas colisiones: quizás una partícula exótica conocida como el "bosón de Higgs", [187]quizá pruebas de un efecto milagroso llamado "supersimetría" o quizás algo inesperado que pondrá patas arriba la física teórica de partículas», escribe Chris Llewellyn Smith, antiguo director general del CERN y ahora presidente del University College de Londres. El CERN tiene ya siete mil usuarios de su equipo, lo que significa más de la mitad de todos los físicos de partículas experimentales del planeta. Y muchos de ellos estarán directamente implicados en los experimentos del LHC.
El LHC es una máquina circular potente, de 27 kilómetros de diámetro, lo bastante grande para rodear completamente muchas ciudades del mundo. Su túnel es tan largo que en realidad traspasa la frontera franco-suiza. El LHC es tan caro que se ha necesitado un consorcio de varias naciones europeas para construirlo. Cuando finalmente esté terminado en 2008, los potentes imanes colocados a lo largo del tubo circular obligarán a un haz de protones a circular a energías cada vez mayores, hasta alcanzar cerca de 14 billones de electronvoltios.
La máquina consiste en una gran cámara de vacío circular con enormes imanes situados estratégicamente a lo largo de su longitud para desviar el potente haz, a fin de que siga una trayectoria circular. Mientras las partículas circulan en el tubo, se inyecta energía en la cámara para aumentar la velocidad de los protones. Cuando el haz finalmente colisiona con su objetivo, libera una ráfaga titánica de radiación. Los fragmentos creados por esta colisión son fotografiados después por baterías de detectores que buscan pruebas de nuevas partículas subatómicas exóticas.
EL LHC es realmente una máquina gigantesca. Mientras el LIGO y el LISA son excelentes por su sensibilidad, el LHC es definitivo en pura fuerza bruta. Sus potentes imanes, que desvían el haz de protones en un elegante arco, generan un campo de 8,3 teslas, que es 160.000 veces superior al campo magnético de la Tierra. Para generar estos campos magnéticos monstruosos, los físicos aplican 12.000 amperios de corriente eléctrica mediante una serie de bobinas que tienen que ser enfriadas a −271° C, ya que a esta temperatura las bobinas pierden toda resistencia y se vuelven superconductoras. En total, tiene 1.232 imanes de 15 metros de longitud, que se colocan a lo largo del 85% de toda la circunferencia de la máquina.
En el túnel, los protones se aceleran al 99,999999% de la velocidad de la luz hasta que llegan al objetivo, situado en cuatro puntos alrededor del tubo, creando así miles de millones de colisiones por segundo. Se colocan allí detectores inmensos (el más grande tiene la altura de un edificio de seis pisos) para analizar los restos y buscar las elusivas partículas subatómicas.
Como dijo Smith, uno de los objetivos del LHC es encontrar el elusivo bosón de Higgs, que es la última pieza del modelo estándar que todavía no se ha podido capturar. Es importante porque esta partícula es responsable de la ruptura de simetría espontánea en las teorías de partículas y aumenta las masas del mundo cuántico. Las estimaciones de la masa del bosón de Higgs lo sitúan en algún lugar entre 115 y 200 mil millones de electronvoltios (el protón, en contraste, pesa cerca de 1.000 millones de electronvoltios). [188] (El Tevatron, una máquina mucho más pequeña situada en el Fermilab, en las afueras de Chicago, puede ser en realidad el primer acelerador que capte al elusivo bosón de Higgs, si la masa de la partícula no es demasiado pesada. En principio, el Tevatron puede producir hasta 10.000 bosones de Higgs si opera como está previsto. Sin embargo, el LHC generará partículas con una energía 7 veces superior. Con 14 billones de electronvoltios, el LHC puede convertirse en una «fábrica» de bosones de Higgs, ya que creará millones de ellos en sus colisiones de protones).
Otro objetivo del LHC consiste en crear condiciones no vistas desde el big bang. En especial, los físicos creen que el big bang consistió originalmente en una amplia serie de quarks y gluones extremadamente calientes, el llamado «plasma quark-gluón». El LHC podrá producir este tipo de plasma quark-gluón, que dominaba el universo en los primeros 10 microsegundos de su existencia. En el LHC se podrán colisionar núcleos de plomo con una energía de 1,1 billones de electronvoltios. Con una colisión tan colosal, los cuatrocientos protones y neutrones pueden «fundirse» y liberar los quarks en plasma caliente. De este modo, la cosmología puede volverse una ciencia menos observacional y más experimental, con experimentos precisos en plasmas de quark-gluón hechos en el laboratorio.
También hay la esperanza de que el LHC pueda encontrar mini agujeros negros entre los restos creados por la colisión de protones a una energía fantástica, como se menciona en el capítulo 7. Normalmente, la creación de agujeros negros cuánticos debería tener lugar en la energía de Planck, que es mil billones de veces más elevada de la energía del LHC. Pero si existe un universo paralelo a un milímetro de nuestro universo, esto reduce la energía a la que los efectos gravitatorios cuánticos se hacen mensurables y pone los miniagujeros negros al alcance del LHC.
Y, finalmente, todavía hay la esperanza de que el LHC pueda encontrar pruebas de la supersimetría, lo que sería un avance histórico en la física de partículas. Se cree que estas partículas son parejas de las partículas ordinarias que vemos en la naturaleza. Aunque la teoría de cuerdas y la supersimetría predicen que cada partícula subatómica tiene una «gemela» con un spin diferente, la supersimetría nunca ha sido observada en la naturaleza, probablemente porque nuestras máquinas no son lo bastante potentes para detectarla.
La existencia de superpartículas ayudaría a responder a dos preguntas fastidiosas. La primera de ellas, ¿es correcta la teoría de cuerdas? Aunque es terriblemente difícil detectar directamente las cuerdas, puede ser posible detectar sus octavas más graves o resonancias. Descubrir partículas sería de gran ayuda para la justificación experimental de la teoría de cuerdas (aunque esto no sería todavía una prueba directa de su corrección).
En segundo lugar, quizá daría el candidato más plausible para la materia oscura. Si la materia oscura consiste en partículas subatómicas, deben ser de carga estable y neutra (de otro modo serían visibles), y tienen que interaccionan gravitacionalmente. Todas estas propiedades pueden encontrarse entre las partículas predichas por la teoría de cuerdas.
El LHC, que será el acelerador de partículas más potente cuando finalmente se ponga en marcha, es en realidad la segunda opción para la mayoría de los físicos. En la década de 1980, el presidente Ronald Reagan aprobó el Supercolisionador Superconductor (SSC), una máquina monstruosa de 80 kilómetros de circunferencia que tenía que construirse en las afueras de Dallas, Texas, y que habría eclipsado al LHC. Mientras el LHC es capaz de producir colisiones de partículas con 14 billones de electronvoltios de energía, el SSC fue diseñado para producir colisiones con 40 billones de electronvoltios. Inicialmente el proyecto fue aprobado, pero, en los últimos días de sesiones, el Congreso de los Estados Unidos lo canceló abruptamente. Fue un golpe tremendo para la física de alta energía y ha supuesto un retraso de toda una generación en el avance en este campo.
Principalmente, el debate se centró en el coste de 11.000 millones de la máquina y en las principales prioridades científicas. La comunidad científica estaba claramente dividida en cuanto al SSC, ya que algunos físicos consideraban que el SSC se llevaría fondos de sus propias investigaciones. La controversia llegó a encenderse tanto que incluso el New York Times escribió un editorial crítico sobre los peligros de que la «gran ciencia» sofocase a la «pequeña ciencia». (Estos argumentos eran engañosos, porque el presupuesto del SSC salía de una fuente diferente de la de la pequeña ciencia. El verdadero competidor en la financiación era la Estación Espacial, que muchos científicos consideran un verdadero despilfarro).
Pero hoy vemos que la clave también era aprender a dirigirse al público en un lenguaje que pueda entender. En cierto sentido, el mundo de la física estaba acostumbrado a conseguir que el Congreso aprobara los monstruosos colisionadores de átomos porque los rusos también los estaban construyendo. En realidad, los rusos estaban construyendo su acelerador de UNK para competir contra el SSC. Estaban en juego el prestigio nacional y el honor. Pero la Unión Soviética desapareció, su máquina fue anulada y el viento fue dejando de soplar sobre las velas del programa SSC. [189]

13. Aceleradores de sobremesa
Con el LHC, los físicos se acercan poco a poco al límite máximo de la energía que puede conseguirse con la presente generación de aceleradores, que han dejado pequeñas a muchas ciudades modernas y cuestan decenas de miles de millones de dólares. Son tan inmensos que sólo los grandes consorcios de naciones pueden permitírselos. Se necesitan nuevas ideas y principios para ampliar las barreras que encuentran los aceleradores convencionales. El santo grial de los físicos de partículas es crear un acelerador de «sobremesa» que pueda formar haces con miles de millones de electronvoltios de energía mediante una fracción de las dimensiones y del coste de los aceleradores convencionales.
Para entender el problema, imaginemos una carrera de relevos, en la que los corredores están distribuidos alrededor de una gran pista de atletismo circular. Los corredores intercambian un testigo cuando dan la vuelta a la pista. Ahora imaginemos que cada vez que el testigo pasa de un corredor a otro, los corredores reciben una ráfaga extra de energía, por lo que corren sucesivamente con mayor rapidez a lo largo de la pista.
Esto es similar a un acelerador de partículas, donde el testigo consiste en un haz de partículas subatómicas que viaja alrededor de la pista circular. Cada vez que el haz pasa de un corredor a otro, recibe una inyección de energía de radiofrecuencia (RF) que lo acelera a velocidades cada vez más elevadas. Así es cómo los aceleradores de partículas han sido construidos en el último medio siglo. El problema de los aceleradores de partículas convencionales es que están alcanzando el límite de la energía de RF que puede utilizarse para alimentar el acelerador.
Para resolver este enojoso problema, los científicos están experimentando con maneras radicalmente diferentes de bombear energía hacia el haz, por ejemplo, mediante potentes haces láser, cuya potencia está creciendo exponencialmente. Una ventaja de la luz láser consiste en que es «coherente», es decir, que las ondas de luz vibran en un preciso unísono, lo que hace posible generar rayos de enorme potencia. Hoy, los haces de láser pueden generar ráfagas de energía que transporten billones de vatios (teravatios) de potencia durante un breve periodo de tiempo. (En contraste, una planta de energía nuclear puede generar sólo unos míseros megavatios de potencia, pero a un ritmo constante). Empiezan a estar disponibles los láseres que generan hasta mil billones de vatios (ó 1 petavatio).
Los aceleradores de láser trabajan a partir del siguiente principio. La luz láser es lo bastante caliente como para generar un gas de plasma (un conjunto de átomos ionizados), que después vibra en oscilaciones como ondas a grandes velocidades, de forma semejante a una ola marina. A continuación, un haz de partículas subatómicas «surfea» en la cresta de esta ola de plasma. Inyectando más energía de láser, la ola de plasma viaja a mayor velocidad y estimula la energía del haz de la partícula que navega sobre ella. Recientemente, disparando un láser de 50 teravatios contra un objetivo sólido, los científicos del Laboratorio Rutherford Appleton de Inglaterra produjeron un haz de protones que emergió del objetivo con una energía de 400 millones de electronvoltios (MeV) de energía en un haz colimado. En la École Polytechnique de París, los físicos han acelerado electrones a 200 MeV en una distancia de un milímetro.
Los aceleradores de láser creados hasta ahora eran pequeños y no muy potentes. Pero pensemos por un momento que este acelerador pudiera ampliarse tanto que en lugar de operar sobre un milímetro lo hiciera sobre un metro. En este caso sería capaz de acelerar electrones a 200 gigaelectronvoltios sobre una distancia de un metro, cumpliendo el objetivo de un acelerador de sobremesa. Otro hito se alcanzó en 2001 cuando los físicos del SLAC (Stanford Linear Accelerator Center) consiguieron acelerar electrones a una distancia de 1,4 metros. En lugar de utilizar un haz de láser, crearon una onda de plasma inyectando un haz de partículas cargadas. Aunque la energía que alcanzaron era baja, demostraron que las ondas de plasma pueden acelerar partículas en distancias de un metro.
El progreso en esta prometedora área de investigación es extremadamente rápido: la energía alcanzada por estos aceleradores crece por un factor de 10 cada cinco años. A este ritmo, el prototipo de un acelerador de sobremesa puede estar cerca. Si tiene éxito, puede hacer que el LHC parezca el último de los dinosaurios. Sin embargo, aunque es prometedor, todavía hay muchos obstáculos para la construcción de un acelerador de sobremesa. Como el surfista que se desliza sobre las traidoras olas del mar al navegar sobre ellas, mantener el haz de modo que cabalgue adecuadamente sobre la ola de plasma es difícil (los problemas incluyen centrar el haz y mantener su estabilidad e intensidad). Pero ninguno de estos problemas parece insuperable.

14. El futuro
Hay algunas posibilidades remotas de demostrar la teoría de cuerdas. Edward Witten mantiene la esperanza de que, en el instante del big bang, el universo se expandió con tanta rapidez que quizás una cuerda se expandió con él, dando lugar a una inmensa cuerda de proporciones astronómicas que navega a la deriva por el espacio. Señala: «Aunque un poco descabellado, éste es mi guión favorito para confirmar la teoría de cuerdas, ya que no habría una manera más espectacular de resolver la cuestión que viendo una cuerda en un telescopio» [190].
Brian Greene hace una lista de cinco ejemplos de datos experimentales [191]que podrían confirmar la teoría de cuerdas o al menos le darían credibilidad:
Podría determinarse experimentalmente la pequeña masa del elusivo y fantasmagórico neutrino, y la teoría de cuerdas podría explicarla.
Podrían encontrarse pequeñas violaciones del modelo estándar que violarían la física de partículas puntuales, como la desintegración de determinadas partículas subatómicas.
Podrían encontrarse experimentalmente nuevas fuerzas de largo alcance (distintas de la gravedad y del electromagnetismo) que señalasen una determinada elección de una multiplicidad de Calabi-Yau.
Podrían encontrarse partículas de materia oscura en el laboratorio y compararlas con las predicciones de la teoría de cuerdas.
La teoría de cuerdas podría calcular la cantidad de energía oscura en el universo.
Mi opinión particular es que la verificación de la teoría de cuerdas podría partir de las matemáticas puras y no de la experimentación. Como se supone que la teoría de cuerdas es una teoría del todo, debería ser una teoría de las energías cotidianas así como de las cósmicas. Por tanto, si finalmente logramos resolver la teoría del todo, podremos calcular las propiedades de los objetos ordinarios y no sólo de los exóticos encontrados en el espacio exterior. Por ejemplo, sería un logro de primera magnitud que la teoría de cuerdas pudiera calcular las masas del protón, el neutrón y el electrón a partir de primeros principios. En todos los modelos de la física (excepto la teoría de cuerdas) las masas de estas partículas familiares se ponen a mano. No necesitamos un LHC, en cierto sentido, para verificar la teoría, puesto que ya sabemos las masas de decenas de partículas subatómicas, todas las cuales deberían ser determinadas mediante la teoría de cuerdas sin necesidad de parámetros ajustables.
Como dijo Einstein: «Estoy convencido de que podemos descubrir por medios de construcción puramente matemática los conceptos y las leyes […] que proporcionan la clave para entender los fenómenos naturales. La experiencia puede sugerir los conceptos matemáticos apropiados, pero sin duda éstos no pueden ser deducidos de ella. […] En cierto sentido, por tanto, sostengo que, tal como soñaron los antiguos, el pensamiento puro puede captar la realidad». [192]
Si es así, quizá la teoría M (o cualquier teoría que nos lleve finalmente a una teoría cuántica de la gravedad) hará posible el viaje final de toda la vida inteligente en el universo, la huida desde nuestro universo moribundo dentro de billones de billones de años hacia un nuevo hogar.

LIBRO III
HUIDA HACIA EL HIPERESPACIO

Capítulo 10
El final de todo

[Consideremos] la opinión que sostienen ahora la mayoría de los físicos, a saber, que el Sol con todos sus planetas devendrá con el tiempo demasiado frío para la vida, a no ser que algún cuerpo grande se introduzca en él y le insufle nueva vida. Creyendo, como creo yo, que el hombre en el futuro lejano será una criatura mucho más perfecta que lo que es ahora, es intolerable la idea de que él y todos los demás seres sensibles estén condenados a una completa aniquilación después de este lento progreso continuado.
Charles Darwin

Contenido:
  1. Las tres leyes de la termodinámica
  2. El «big crunch» o la gran implosión
  3. Las cinco fases del universo
  4. ¿Puede sobrevivir la inteligencia?
Según la leyenda nórdica, el día del juicio final o Ragnarok, el Crepúsculo de los Dioses, irá acompañado de grandes cataclismos. Tanto Midgard (la Tierra Media) como los cielos se verán sometidos a una helada paralizante. Vientos cortantes, tormentas cegadoras, terremotos devastadores y hambrunas asediarán la tierra, mientras los hombres y mujeres perecerán irremediablemente en gran número. Tres inviernos así paralizarán la tierra, sin alivio de ningún tipo, mientras lobos voraces se comerán el Sol y la Luna y hundirán el mundo en la más completa oscuridad. Caerán las estrellas del cielo, la tierra temblará y las montañas se desintegrarán. Los monstruos se liberarán mientras Loki, el dios del caos, extenderá la guerra, la confusión y la discordia por la tierra estéril.
Odín, el padre de los dioses, reunirá a sus valientes guerreros por última vez en el Walhalla para librar el último combate. Al final, mientras los dioses mueren uno a uno, Surtur, el dios del mal, arrojará fuego y azufre por la boca y prenderá un infierno gigantesco que se tragará el cielo y la tierra. Mientras las llamas se extienden por todo el universo, la tierra se hundirá en los océanos y el tiempo se detendrá.
Pero del cúmulo de cenizas surge un nuevo principio. Una nueva tierra, diferente de la vieja, va alzándose lentamente del mar y del suelo fértil surgen copiosos frutos y plantas exóticas que dan a luz una nueva raza de humanos.
La leyenda vikinga de una congelación gigantesca seguida de llamas y una batalla final presenta una triste historia del fin del mundo. En las mitologías de todo el mundo pueden encontrarse temas similares. El fin del mundo va acompañado de grandes catástrofes climáticas, normalmente un gran fuego, terremotos o una ventisca, seguidos de la batalla final entre el bien y el mal. Pero también hay un mensaje de esperanza. De las cenizas surge la renovación.
Los científicos que contemplan las frías leyes de la física deben enfrentarse ahora a temas similares. Los datos puros, más que las leyendas mitológicas susurradas alrededor del fuego, dictan la visión que tienen los científicos del final definitivo del universo, pero en el mundo científico pueden surgir temas semejantes. Entre las soluciones de las ecuaciones de Einstein también parece posible un futuro con un frío paralizador, fuego, catástrofe y el final del universo. Pero ¿habrá al final un renacimiento?
Según la imagen que proporciona el satélite WMAP, una misteriosa fuerza de antigravedad está acelerando la expansión del universo. Si sigue durante miles de millones o billones de años, el universo alcanzará una gran congelación similar a la ventisca que augura el crepúsculo de los dioses y da fin a toda vida tal como la conocemos. Esta fuerza de antigravedad que separa el universo es proporcional al volumen del universo. Así, cuanto más grande se vuelve éste, más antigravedad hay para separar las galaxias, lo que a su vez aumenta el volumen del universo. Este círculo vicioso se repite interminablemente, hasta que el universo se desboca y crece de forma exponencial.
Finalmente, esto significa que treinta y seis galaxias del grupo total de galaxias formarán todo el universo visible, mientras miles de millones de galaxias vecinas se alejan más allá de nuestro horizonte de sucesos. Con el espacio entre las galaxias expandiéndose a mayor velocidad que la luz, el universo se convertirá en un lugar terriblemente solitario. Las temperaturas se hundirán a medida que la energía restante se vaya diluyendo y haciéndose cada vez más débil en el espacio. Cuando las temperaturas lleguen cerca del cero absoluto, las especies inteligentes tendrán que enfrentarse a su último destino: morir congeladas.

1. Las tres leyes de la termodinámica
Si todo el mundo es un escenario, como dijo Shakespeare, finalmente se tendrá que llegar al tercer acto. En el primer acto, teníamos el big bang y el surgimiento de la vida y la conciencia en la Tierra. En el segundo acto, quizá viviremos para explorar las estrellas y las galaxias. Finalmente, en el tercer acto, nos enfrentaremos a la muerte definitiva del universo en una gran congelación.
En última instancia, vemos que el guión tiene que seguir las leyes de la termodinámica. En el siglo XIX, los físicos formularon las tres leyes de la termodinámica que gobiernan la física del calor, y empezaron a prever la muerte final del universo. En 1854, el gran físico alemán Hermann von Helmholtz constató que las leyes de la termodinámica pueden aplicarse al universo como un todo, lo que significa que todo lo que nos rodea, incluyendo las estrellas y las galaxias, a la larga se agotará.
La primera ley establece que la cantidad total de materia y energía se conserva. [193] Si bien la energía y la materia pueden intercambiarse una con otra (a través de la célebre ecuación de Einstein E = mc2), la cantidad total de materia y energía nunca puede ser creada ni destruida.
La segunda ley es la más misteriosa y profunda. Establece que la cantidad total de entropía (caos o desorden) en el universo siempre aumenta. Dicho de otro modo, a la larga, todo debe envejecer y agotarse. La quema de bosques, la oxidación de las máquinas, la caída de los imperios y el envejecimiento del cuerpo humano representan el aumento de la entropía en el universo. Es fácil, por ejemplo, quemar un trozo de papel. Esto representa un aumento neto del caos total. Sin embargo, es imposible recuperar el humo para volver a convertirlo en papel. (Puede hacerse que la entropía disminuya con la adición de trabajo mecánico, como en un refrigerador, pero sólo en un pequeño entorno local; la entropía total de todo el sistema —el refrigerador más su entorno— siempre aumenta).
Arthur Eddington dijo una vez sobre la segunda ley: «Creo que la ley que dice que la entropía siempre aumenta —la Segunda Ley de la Termodinámica— ocupa la posición suprema entre las leyes de la Naturaleza. […] Si descubres que una teoría contradice la Segunda Ley de la Termodinámica, pierde toda esperanza: está destinada a hundirse en la más profunda humillación» [194].
(Al principio, parece como si la existencia de formas de vida complejas en la Tierra viole la segunda ley. Parece sorprendente que del caos de la Tierra primigenia surgiera una diversidad increíble de formas de vida complejas, que albergan incluso la inteligencia y la conciencia y que reducen la cantidad total de entropía. Algunos han interpretado este milagro como prueba de un creador benevolente. Pero recordemos que la vida se rige por las leyes naturales de la evolución y que la entropía total sigue aumentando, porque el Sol va enviando constantemente la energía adicional que alimenta la vida. Si incluimos el Sol y la Tierra, la entropía total sigue aumentando).
La tercera ley establece que ningún refrigerador puede alcanzar el cero absoluto. Puede llegarse a una pequeña fracción de un grado por encima del cero absoluto, pero nunca puede alcanzarse un estado de movimiento cero. (Y, si incorporamos el principio cuántico, esto implica que las moléculas siempre tendrán una pequeña cantidad de energía, ya que la energía cero implica que sabemos la situación y velocidad exacta de cada molécula, lo cual violaría el principio de incertidumbre).
Si la segunda ley se aplica al universo entero, significa que el universo acabará agotándose. Las estrellas agotarán su combustible nuclear, las galaxias dejarán de iluminar el firmamento y el universo quedará como un grupo sin vida de estrellas enanas muertas, estrellas de neutrones y agujeros negros. El universo se hundirá en la oscuridad eterna.
Algunos cosmólogos han intentado evadir esta «muerte térmica» apelando a un universo oscilante. La entropía aumentaría continuamente al expandirse el universo y finalmente contraerse. Pero, después de la gran implosión, no está claro en qué quedaría la entropía del universo. Algunos han acariciado la idea de que quizás el universo pudiera repetirse a sí mismo exactamente en el ciclo siguiente. Más realista es la posibilidad de que la entropía sea transportada al nuevo ciclo, lo que significa que el tiempo de vida del universo se alargaría gradualmente en cada ciclo. Pero, aunque la cuestión pueda mirarse de distintas maneras, el universo oscilante, como los universos abiertos y cerrados, tendrá finalmente como resultado la destrucción de toda la vida inteligente.

2. El «big crunch» o la gran implosión
Uno de los primeros intentos de aplicar la física para explicar el final del universo fue un trabajo escrito en 1969 por Sir Martin Rees, titulado «El colapso del Universo: un estudio escatológico». [195] En aquellos años, el valor de Omega todavía no se conocía del todo, por lo que él partió de la base de que era dos, lo que significaba que el universo a la larga dejaría de expandirse y moriría en una gran implosión en lugar de una gran congelación.
Calculó que la expansión del universo llegará a detenerse cuando las galaxias estén dos veces más lejos que ahora y cuando la gravedad supere finalmente la expansión original del universo. El desplazamiento hacia el rojo que vemos en el firmamento se convertirá en desplazamiento al azul a medida que las galaxias empiecen a acercarse.
En esta versión, de aquí a unos 50.000 millones de años, se producirán acontecimientos catastróficos que marcarán la agonía final del universo. Cien millones de años antes de la gran implosión, las galaxias del universo, incluida nuestra propia galaxia de la Vía Láctea, empezarán a colisionar unas con otras y finalmente se fundirán. Curiosamente, Rees descubrió que las estrellas individuales se disolverán antes de empezar a colisionar unas con otras, por dos razones. En primer lugar, la radiación de las otras estrellas en el cielo ganará energía cuando el universo se contraiga; así, las estrellas estarán bañadas en la abrasadora luz desplazada al azul de las demás estrellas. En segundo lugar, la temperatura de la radiación del fondo de microondas aumentará de manera ingente a medida que la temperatura del universo se dispare. La combinación de estos dos efectos creará temperaturas que superarán la temperatura de la superficie de las estrellas, las cuales absorberán el calor con mayor rapidez de la que podrán deshacerse de él. Dicho de otro modo, es probable que las estrellas se desintegren y se dispersen en nubes supercalientes de gas.
La vida inteligente, en estas circunstancias, morirá inevitablemente, achicharrada por el calor cósmico procedente de las estrellas y galaxias cercanas. No hay escape. Como ha escrito Freeman Dyson: «Lamentablemente, tengo que estar de acuerdo en que en este caso no hay manera de escapar de quedar frito. Por mucho que cavemos un profundo agujero en la Tierra para protegernos de la radiación de fondo desplazada al azul, sólo podremos posponer unos millones de años nuestro mísero final». [196]
Si el universo se dirige hacia una gran implosión, la pregunta que nos queda es si podría colapsar y luego rebotar, como en la hipótesis del universo oscilante. Este es el guión adoptado en la novela Tau cero, de Poul Anderson. Si el universo fuera newtoniano, tal vez sería posible, si hubiera suficiente movimiento lateral cuando las galaxias se comprimieran una contra otra. En este caso, las estrellas podrían no ser comprimidas en un solo punto, sino que podrían evitar el choque en el punto de máxima compresión y luego rebotar, sin colisionar una con otra.
Sin embargo, el universo no es newtoniano; obedece a las ecuaciones de Einstein. Roger Penrose y Stephen Hawking han demostrado que, en circunstancias muy generales, un grupo de galaxias en descomposición sería comprimido necesariamente en una singularidad. (Esto se debe al hecho de que el movimiento lateral de las galaxias contiene energía y, por tanto, interacciona con la gravedad. Así, el tirón gravitacional en la teoría de Einstein es muy superior al que se encuentra en la teoría newtoniana para los universos que colapsan, y el universo colapsa en un solo punto).

3. Las cinco fases del universo
A pesar de todo, los datos recientes del satélite WMAP favorecen la gran implosión. Para analizar la historia de la vida del universo, científicos como Fred Adams y Greg Laughlin, de la Universidad de Michigan, han intentado dividir la edad del universo en cinco estados distintos. Como estamos comentando escalas de tiempo verdaderamente astronómicas, adoptaremos un marco de tiempo logarítmico. Así, 1020 años serán representados como 20. (Este modelo fue realizado antes de que se apreciaran del todo las implicaciones de un universo en aceleración. Pero el desglose general de las fases del universo sigue siendo el mismo).
La cuestión que nos preocupa es la siguiente: ¿puede la vida inteligente utilizar su ingenio para sobrevivir de alguna forma durante estas fases, durante una serie de catástrofes naturales e incluso tras la muerte del universo?

Primera fase: Era primordial
En la primera fase (entre −10 y 5, es decir, entre 10−10 y 105 años), el universo experimentó una rápida expansión pero también un rápido enfriamiento. Al enfriarse, las distintas fuerzas, que antes estaban unidas en una «superfuerza» fundamental, se fueron separando gradualmente y dieron lugar a las cuatro fuerzas de hoy en día. La gravedad fue la primera que se desprendió, a continuación la interacción nuclear fuerte y finalmente la débil. Al principio, el universo era opaco y el cielo blanco, ya que la luz fue absorbida poco después de haber sido creada. Pero 380.000 años después del big bang, el universo se enfrió lo suficiente para que se formaran átomos sin separarse por colisión debido al intenso calor. El cielo se oscureció. La radiación de fondo de microondas data de este periodo.
Durante esta era, el hidrógeno primordial se fusionó en helio, creando la mezcla actual de combustible estelar que se ha extendido por todo el universo. En esta fase de la evolución del universo, la vida tal como la conocemos era imposible. El calor era demasiado intenso; cualquier tipo de ADN o de otras moléculas auto catalíticas que se formasen habría estallado por colisiones aleatorias con otros átomos, impidiendo la existencia de los elementos químicos estables de la vida.

Segunda fase: Era estelífera
Hoy en día vivimos en la segunda fase (entre 6 y 14, o entre 106 y 1014 años), cuando el gas hidrógeno se ha comprimido y las estrellas han entrado en ignición e iluminan el cielo. En esta era, encontramos estrellas ricas en hidrógeno que resplandecen durante miles de millones de años hasta que se les agota el combustible nuclear. El telescopio espacial Hubble ha fotografiado estrellas en todas sus fases de evolución, incluyendo estrellas jóvenes rodeadas de un disco giratorio de polvo y detritus, que probablemente es el predecesor de un sistema solar con sus planetas.
En esta fase, las condiciones son ideales para la creación de ADN y de vida. Dado el enorme número de estrellas en el universo visible, los astrónomos han intentado dar argumentos plausibles, basados en las leyes conocidas por la ciencia, para el surgimiento de vida inteligente en otros sistemas planetarios. Pero cualquier forma de vida inteligente tendrá que enfrentarse a una serie de obstáculos cósmicos, muchos de ellos causados por sí misma, como la contaminación ambiental, el calentamiento global y las armas nucleares. Partiendo de la base de que la vida inteligente no se haya destruido a sí misma, deberemos enfrentarnos a una serie sobrecogedora de desastres naturales, cualquiera de los cuales puede terminar en catástrofe.
En una escala de tiempo de decenas de miles de años, puede haber una glaciación parecida a la que enterró Norteamérica bajo más de un kilómetro de hielo haciendo imposible la civilización humana. Hace poco más de diez mil años, los humanos vivían en manadas como los lobos, en pequeñas tribus aisladas que salían a buscar comida. No había acumulación de conocimientos ni ciencia. No existía la palabra escrita. La humanidad estaba preocupada por un solo objetivo: la supervivencia. Entonces, por razones que todavía no comprendemos, terminó la Edad de Hielo y los humanos empezaron el rápido ascenso del hielo a las estrellas. Sin embargo, este breve periodo interglacial no puede durar para siempre. Quizás en diez mil años más, otra Edad de Hielo cubrirá la mayor parte del mundo. Los geólogos creen que los efectos de pequeñas variaciones en la rotación de la Tierra alrededor de su eje se irán acumulando y permitirán que la corriente atmosférica jet stream descienda de los casquetes polares a latitudes más bajas y cubra la Tierra de hielo. En este punto, tendríamos que vivir bajo tierra para mantener el calor. La Tierra estuvo en otros tiempos totalmente cubierta de hielo. Podría volver a ocurrir.
En una escala de tiempo de miles a millones de años, deberemos prepararnos para recibir impactos de meteoros y cometas. Lo más probable es que el impacto de un meteoro o cometa destruyera los dinosaurios hace 65 millones de años. Los científicos creen que un objeto extraterrestre, quizá de menos de 15 kilómetros de diámetro, se estrelló en la Península de Yucatán, en México, y abrió un cráter de 290 kilómetros de diámetro. La cantidad de restos que lanzó a la atmósfera impidió la llegada de la luz del Sol y oscureció la Tierra, causando temperaturas gélidas que mataron la vegetación y la forma de vida dominante en la Tierra en aquel momento, los dinosaurios. En menos de un año, los dinosaurios y la mayoría de las especies de la Tierra perecieron.
A juzgar por el ritmo de impactos del pasado, hay una probabilidad de 1 entre 100.000 de que en los próximos cincuenta años el impacto de un asteroide cause daños a nivel mundial. La probabilidad de un impacto importante en millones de años posiblemente crezca hasta casi el 100%.
(En el sistema solar interno, donde reside la Tierra, hay quizá de 1.000 a 1.500 asteroides que tienen un kilómetro o más de diámetro, y un millón de asteroides de más de 50 metros de diámetro. Los asteroides son observados en el Observatorio Astrofísico Smithsonian de Cambridge a un ritmo de quince mil por año. Afortunadamente, sólo cuarenta y cuatro asteroides conocidos tienen una probabilidad pequeña pero real de impactar con la Tierra. En el pasado hubo cierto número de falsas alarmas relativas a estos asteroides, la más famosa de las cuales afectaba al asteroide 1997XF11, que los astrónomos creyeron erróneamente que podía impactar en la Tierra en un plazo de treinta años, y lo publicaron todos los periódicos. Pero, examinando con atención la órbita de un asteroide llamado 1950DA, los científicos han calculado que hay sólo una pequeña probabilidad —aunque no nula— de que impacte contra la Tierra el 16 de marzo de 2880. Las simulaciones de ordenador que se han hecho en la Universidad de California, en Santa Cruz, demuestran que si este asteroide impactara en el mar, crearía una ola de 120 metros de altura, lo que afectaría a la mayor parte de las zonas costeras provocando inundaciones devastadoras). [197]
En una escala de miles de millones de años, lo preocupante es que el Sol se trague la Tierra. El Sol es ya un 30% más caliente de lo que era en su infancia. Los estudios por ordenador han demostrado que, de aquí a 3.500 millones de años, el Sol será un 40% más brillante que hoy, lo que significa que la Tierra se irá calentando gradualmente. El Sol se verá cada vez más grande en el cielo diurno, hasta ocupar la mayor parte del cielo de horizonte a horizonte. A corto plazo, las criaturas vivas, intentando escapar desesperadamente del calor abrasador del Sol, se verán obligadas a entrar en los mares, revirtiendo la marcha histórica de la evolución en este planeta. Finalmente, los océanos hervirán haciendo imposible la vida tal como la conocemos. De aquí a unos 5.000 millones de años, el núcleo del Sol agotará su reserva de hidrógeno y mutará en una estrella gigante roja. Algunas gigantes rojas son tan grandes que podrían engullir Marte si estuvieran situadas en la posición de nuestro Sol. Sin embargo, nuestro Sol probablemente sólo se expandirá hasta alcanzar las dimensiones de la órbita de la Tierra, devorando a Mercurio y Venus y fundiendo las montañas de la Tierra. Así pues, es muy probable que nuestra Tierra sucumba incendiada, más que helada, convirtiéndose en un carboncillo quemado orbitando alrededor del Sol.
Algunos físicos argumentan que, antes de que ocurra esto, deberíamos ser capaces de utilizar tecnología avanzada para trasladar la Tierra a una órbita más grande alrededor del Sol, si es que no hemos emigrado ya de la Tierra a otros planetas en gigantescas arcas espaciales. «Siempre que la inteligencia de la gente aumente con mayor rapidez que el brillo del Sol, la Tierra prosperará», [198] afirma el astrónomo y escritor Ken Croswell.
Los científicos han propuesto varias maneras de mover la tierra de su órbita actual alrededor del Sol. Una manera sencilla sería desviar cuidadosamente una serie de asteroides del cinturón de asteroides de modo que vuelen alrededor de la tierra. El efecto honda aumentaría la órbita de la Tierra e incrementaría su distancia al Sol. Cada aumento movería la Tierra de manera gradual, pero habría mucho tiempo para desviar cientos de asteroides y conseguir esta hazaña. «Durante los varios miles de millones de años que faltan para que el Sol se convierta en una gigante roja, nuestros descendientes podrían atrapar una estrella cercana en una órbita alrededor del Sol y después trasladar la Tierra de su órbita solar a una órbita alrededor de la nueva estrella», [199]añade Croswell.
Nuestro Sol sufrirá un destino diferente del de la Tierra; morirá en el hielo, más que en el fuego. A la larga, después de quemar helio, durante 700 millones de años como gigante roja, el Sol agotara la mayor parte de su combustible nuclear y la gravedad lo comprimirá en una enana blanca de las dimensiones de la Tierra. Nuestro Sol es demasiado pequeño para sufrir la catástrofe llamada supernova y convertirse en un agujero negro. Después de que nuestro Sol se convierta en una estrella enana blanca, finalmente se enfriará, resplandeciendo con un color rojizo, después marrón y finalmente negro. Irá a la deriva en el vacío cósmico como una pieza de ceniza nuclear muerta. El futuro de casi todos los átomos que vemos a nuestro alrededor, incluyendo los átomos de nuestros cuerpos y de los seres que amamos, es acabar en forma de un carboncillo quemado orbitando alrededor de una estrella enana negra. Como esta estrella enana sólo pesará 0,55 masas solares, lo que quede de la Tierra se establecerá en una órbita un 70% más alejada de lo que está hoy. [200]
A esta escala, vemos que el florecimiento de plantas y animales en la Tierra durará poco más de mil millones de años (y hoy estamos a mitad de camino de esta nuestra época dorada). «La Madre Naturaleza no fue diseñada para hacernos felices», [201]dice el astrónomo Donald Brownlee. Comparado con el tiempo de vida de todo el universo, el florecimiento de vida dura sólo un breve instante.

Tercera fase: Era degenerada
En la fase 3 (entre 15 y 39), la energía de las estrellas en el universo finalmente estará agotada. El proceso aparentemente eterno de quemar hidrógeno y después helio finalmente se detiene, dejando atrás fragmentos inertes de materia nuclear muerta en forma de estrellas enanas, estrellas de neutrones y agujeros negros. Las estrellas en el cielo dejan de brillar; el universo se sumerge gradualmente en la oscuridad.
Las temperaturas caerán espectacularmente en la fase 3 cuando las estrellas pierdan sus motores nucleares. Cualquier planeta que gire alrededor de una estrella muerta se congelará. Partiendo de que la Tierra todavía esté intacta, lo que quede de su superficie se convertirá en una costra de hielo, obligando a las formas de vida inteligente a buscarse un nuevo hogar.
Mientras las estrellas gigantes pueden durar unos cuantos millones de años y las estrellas que queman hidrógeno como nuestro Sol miles de millones de años, las estrellas enanas rojas pequeñas pueden arder durante billones de años. Éste es el motivo por el que intentar recolocar la órbita de la Tierra alrededor de una estrella enana roja tiene sentido en teoría. El vecino estelar más próximo a la tierra, Próxima Centauri, es una estrella enana roja que está a sólo 4,3 años luz de la Tierra. Nuestro vecino más cercano pesa sólo el 15% de la masa del Sol y es cuatrocientas veces más débil que éste, por lo que cualquier planeta que orbitase a su alrededor tendría que estar extremadamente cerca para beneficiarse de su débil luz estelar. La Tierra tendría que orbitar alrededor de esta estrella veinte veces más cerca de lo que está ahora del Sol para recibir la misma cantidad de luz solar. Pero, una vez en órbita alrededor de una estrella enana roja, un planeta recibiría energía suficiente para durar billones de años.
A la larga, las únicas estrellas que seguirán quemando combustible nuclear serán las enanas rojas. Sin embargo, con el tiempo, también ellas se oscurecerán. De aquí a cien billones de años, las enanas rojas restantes acabarán expirando.

Cuarta fase: Era de los agujeros negros
En la fase 4 (entre 40 y 100), la única fuente de energía será la lenta evaporación de energía de los agujeros negros. Como demostraron Jacob Bekenstein y Stephen Hawking, los agujeros negros no son totalmente negros; en realidad, irradian una débil cantidad de energía llamada «evaporación». (En la práctica, esta evaporación de los agujeros negros es demasiado pequeña para observarla experimentalmente, pero a escalas largas de tiempo la evaporación determina finalmente el destino de un agujero negro).
Los agujeros negros en evaporación pueden tener distintos tiempos de vida. Un miniagujero negro de las dimensiones de un protón podría irradiar 10.000 millones de vatios de energía durante el tiempo de vida del sistema solar. [202] Un agujero negro que pesase tanto como el Sol se evaporaría en 1066 años. Un agujero negro que pesase como un grupo galáctico se evaporaría en 10 117 años. Sin embargo, cuando un agujero negro llega al final de su vida, después de emitir radiación, de pronto explota. Es posible que la vida inteligente, como los vagabundos que se acurrucan junto a las ascuas moribundas de débiles fuegos, se congregue alrededor del débil calor emitido por los agujeros negros que se evaporan para extraer un poco de calor de ellos, hasta que se evaporen.

Quinta fase: Era oscura
En la quinta fase (más de 101), entramos en la era oscura del universo, cuando finalmente todas las fuentes de calor de la Tierra se han agotado. En esta fase, el universo se dirige lentamente hacia su muerte definitiva por ausencia de calor, cuando la temperatura se acerca al cero absoluto. En este punto, los propios átomos casi se detienen. Quizás incluso los propios protones se habrán descompuesto, dejando a la deriva un mar de fotones y una líquida sopa de partículas que interaccionan débilmente (neutrinos, electrones y su antipartícula, el positrón). El universo puede consistir en un nuevo tipo de «átomo» llamado positronio, consistente en electrones y positrones que circulan unos alrededor de otros.
Algunos físicos han especulado que estos «átomos» de electrones y antielectrones podrían ser capaces de formar nuevos bloques de construcción de vida inteligente en esta era oscura. Sin embargo, las dificultades a las que se enfrenta esta idea son formidables. Un átomo de positronio en la era oscura tendría unos 1012 megaparsecs de diámetro, millones de veces más grande que el universo observable hoy en día. Así, en esta era oscura, aunque estos «átomos» pueden formarse, tendrían las dimensiones de un universo entero. Como durante esta era oscura el universo se habrá expandido a unas distancias enormes, sería fácilmente capaz de acomodar estos átomos gigantes de positronio. Pero como estos átomos son tan grandes, significa que cualquier «química» que implique a estos «átomos» estaría en escalas de tiempo colosales totalmente diferentes de todo lo que conocemos.
Como escribió el cosmólogo Tony Rothman: «Y así, finalmente, después de 10117 años, el cosmos consistirá en unos cuantos electrones y positrones encerrados en sus potentes órbitas, neutrinos y fotones dejados por la desintegración del barión y restos de protones extraviados procedentes de la aniquilación del positronio y los agujeros negros. Porque también esto está escrito en el Libro del Destino». [203]

4. ¿Puede sobrevivir la inteligencia?
Dadas las abrumadoras condiciones que se encuentran al final de la gran congelación, los científicos han debatido si hay posibilidades de supervivencia para cualquier forma de vida inteligente. Para empezar, parece inútil discutir si la vida inteligente sobrevivirá en la quinta fase, cuando las temperaturas desciendan prácticamente al cero absoluto. Sin embargo, sí que hay un animado debate entre los físicos sobre si la vida inteligente puede sobrevivir.
El debate se centra en dos cuestiones clave. La primera es: ¿pueden los seres inteligentes operar sus máquinas cuando las temperaturas se acercan al cero absoluto? Según las leyes de la termodinámica, dado que la energía fluye de una temperatura más alta a una más baja, este movimiento de energía puede servir para hacer un trabajo mecánico utilizable. Por ejemplo, puede extraerse energía de un motor térmico que conecte dos regiones a distintas temperaturas. Cuanto mayor sea la diferencia de temperatura, mayor es la eficiencia del motor. Ésta es la base de las máquinas que propiciaron la Revolución Industrial, como la máquina de vapor y la locomotora. De entrada, parece imposible extraer trabajo alguno de un motor térmico en la quinta fase, ya que todas las temperaturas serán iguales.
La segunda cuestión es: ¿puede una forma de vida inteligente enviar y recibir información? Según la teoría de la información, la unidad menor que puede ser enviada y recibida es proporcional a la temperatura. Cuando la temperatura cae cerca del cero absoluto, la capacidad de procesar información también se ve gravemente perjudicada. Los bits de información que pueden transmitirse cuando el universo se enfríe tendrán que ser cada vez menores en número.
El físico Freeman Dyson y otros han vuelto a analizar la física de la vida inteligente frente a un universo moribundo. ¿Pueden encontrarse maneras ingeniosas de que la vida inteligente sobreviva aunque las temperaturas desciendan hasta el cero absoluto?, se preguntan.
Cuando la temperatura empiece a disminuir en todo el universo, al principio las criaturas pueden tratar de bajar su temperatura corporal utilizando la ingeniería genética. De este modo, podrían ser mucho más eficientes al utilizar el suministro de energía menguante. Pero, finalmente, las temperaturas corporales alcanzarán el punto de congelación del agua. En este momento, los seres inteligentes tal vez tengan que abandonar sus frágiles cuerpos de carne y hueso y adquirir cuerpos robóticos. Los cuerpos mecánicos pueden soportar el frío mucho mejor que los de carne y hueso. Pero las máquinas también obedecen a las leyes de la teoría de la información y la termodinámica, por lo que la vida sería extremadamente difícil, incluso para los robots.
Aunque las criaturas inteligentes abandonen sus cuerpos robóticos y se transformen en pura conciencia, todavía persiste el problema del procesamiento de información. A medida que la temperatura siga cayendo, la única manera de sobrevivir será «pensar» más despacio. Dyson llega a la conclusión de que una forma de vida ingeniosa todavía sería capaz de pensar durante una cantidad de tiempo indefinido ampliando el tiempo requerido para el procesamiento de información y también hibernando para conservar energía. Aunque el tiempo físico necesario para pensar y procesar información pueda ampliarse durante miles de millones de años, el «tiempo subjetivo» visto por las propias criaturas inteligentes seguiría siendo el mismo. Nunca notarían la diferencia. Todavía serían capaces de tener pensamientos profundos, pero sólo a una escala de tiempo mucho más lenta. Dyson llega a la conclusión, en un comentario extraño pero optimista, de que de este modo la vida inteligente podrá procesar la información y «pensar» indefinidamente. Procesar un solo pensamiento puede llevar billones de años, pero con respecto al «tiempo subjetivo» el pensamiento procedería con normalidad.
Pero si las criaturas inteligentes piensan lentamente, quizá podrían ser testigos de las transiciones cuánticas cósmicas que se producen en el universo. Normalmente, estas transiciones cósmicas, como la creación de universos recién nacidos o la transición a otro universo cuántico, tienen lugar durante billones de años y, por tanto, son puramente teóricas. No obstante, en la quinta fase se comprimirán billones de años en el «tiempo subjetivo» y podrán parecer tan sólo unos segundos para estas criaturas; pensarían tan lentamente que podrían ver ocurrir extraños acontecimientos cuánticos todo el tiempo. Podrían ver regularmente universos burbuja o saltos cuánticos a universos alternativos que aparecen de la nada.
Pero a la luz del reciente descubrimiento de que el universo se está acelerando, los físicos han reexaminado la obra de Dyson y han iniciado un nuevo debate que les ha llevado a conclusiones opuestas: la vida inteligente perecerá necesariamente en un universo en aceleración. Los físicos Lawrence Krauss y Glenn Starkman concluyen: «Hace miles de millones de años el universo era demasiado caliente para existir. Dentro de incontables siglos, se volverá tan frío y vacío que la vida, por muy ingeniosa que sea, perecerá». [204]
En el trabajo original, Dyson partió de la base de que la radiación de microondas de 2,7° K en el universo continuaría cayendo indefinidamente, de modo que los seres inteligentes podrían extraer trabajo utilizable de estas pequeñas diferencias de temperatura. Mientras la temperatura continuase cayendo, siempre podría extraerse el trabajo utilizable. Sin embargo, Krauss y Starkman señalan que si el universo tiene una constante cosmológica, las temperaturas no descenderán para siempre, como había pensado Dyson, sino que finalmente alcanzarán un límite más bajo, la temperatura Gibbons-Hawking (unos 10 −29 grados kelvin). Una vez alcanzada esta temperatura, la temperatura en todo el universo será la misma y, por tanto, la vida inteligente no podrá extraer energía utilizable explotando las diferencias de temperatura. En cuanto el universo entero alcance una temperatura uniforme, cesará todo el procesamiento de información.
(En la década de 1980, se descubrió que determinados sistemas cuánticos, como el movimiento browniano en un fluido, pueden servir de base a un ordenador, independientemente de lo fría que sea la temperatura en el exterior. Así pues, mientras las temperaturas caen, estos ordenadores pueden seguir calculando utilizando cada vez menos energía. Esto era una buena noticia para Dyson. Pero había un problema. El sistema debe satisfacer dos condiciones: tiene que permanecer en equilibrio con su entorno y nunca debe descartar información. Pero si el universo se expande, el equilibrio es imposible, porque la radiación se diluye y su longitud de onda crece. Un universo en aceleración cambia demasiado rápidamente para que el sistema alcance el equilibrio. Y, en segundo lugar, el requisito de que nunca se descarte información significa que un ser inteligente nunca debe olvidar. Finalmente, un ser inteligente, incapaz de descartar recuerdos antiguos, puede encontrarse reviviendo viejos recuerdos una y otra vez. «La eternidad sería una cárcel, más que un horizonte interminable de creatividad y de exploración. Podría ser el nirvana, pero ¿sería vida?», [205] preguntan Krauss y Starkman).
En resumen, vemos que si la constante cosmológica está cerca de cero, la vida inteligente puede «pensar» indefinidamente mientras el universo se enfría, hibernando y pensado lentamente. Pero en un universo en aceleración como el nuestro, esto es imposible. Toda la vida inteligente está destinada a perecer, según la ley de la física.
Desde esta perspectiva cósmica, vemos, pues, que las condiciones para la vida tal como la conocemos no son más que un episodio fugaz de un tapiz mucho más grande. Hay sólo una pequeña ventana donde las temperaturas son «perfectamente adecuadas» para sostener la vida, ni demasiado calientes ni demasiado frías.

5. Abandonar el universo
Puede definirse la muerte como la cesación definitiva de todo procesamiento de información. Cualquier especie inteligente del universo, cuando empiece a entender las leyes fundamentales de la física, se verá obligada a enfrentarse a la muerte final del universo y de cualquier vida inteligente que pueda contener.
Afortunadamente, tenemos mucho tiempo para reunir la energía para un viaje como éste, y hay alternativas, como veremos en el siguiente capítulo. La cuestión que exploraremos es: ¿las leyes de la física nos permiten escapar a un universo paralelo?

Capítulo 11
Escapar del universo

Cualquier tecnología lo bastante avanzada es indistinguible de la magia.
Arthur C. Clarke

Contenido:
  1. Civilizaciones de tipo I, II y III
  2. Clasificación de la información
  3. Tipos A a Z
En la novela Eón, el autor de ciencia ficción Greg Bear escribe una historia angustiosa sobre la huida de un mundo devastado hacia un universo paralelo. Un colosal y amenazador asteroide del espacio se ha acercado al planeta Tierra y ha provocado el pánico y la histeria. Sin embargo, en lugar de caer sobre la Tierra, se queda extrañamente en órbita alrededor del planeta. Se envían equipos de científicos al espacio para investigar y, en lugar de encontrar una superficie desolada sin vida, descubren que en realidad el asteroide es hueco; se trata de una nave espacial inmensa abandonada por una raza tecnológica superior. Dentro de la nave abandonada, la protagonista del libro, una física teórica llamada Patricia Vásquez, encuentra siete grandes cámaras, entradas a diferentes mundos, con lagos, bosques, árboles e incluso ciudades enteras. A continuación, encuentra enormes bibliotecas que contienen toda la historia de estos extraños pueblos.
Coge un libro viejo y ve que es Tom Sawyer, de Mark Twain, pero en una edición de 2110. Se da cuenta de que el asteroide no es de una civilización extraña, sino de la propia Tierra, 1.300 años en el futuro. Entonces toma conciencia de la escalofriante verdad: estos viejos documentos hablan de una guerra nuclear antigua que estalló en el pasado remoto, matando a miles de millones de personas y causando un invierno nuclear que mató a miles de millones más. Cuando determina la fecha de esta guerra nuclear, se lleva una fuerte impresión al ver que está a sólo dos semanas. No puede hacer nada para detener la guerra inevitable que pronto consumirá todo el planeta, matando a sus seres queridos.
Con gran inquietud, localiza su propia historia personal en estos viejos archivos y encuentra que su futura investigación del espacio-tiempo la ayudará a preparar un inmenso túnel en el asteroide, llamado el Camino, que permitirá a la gente dejar el asteroide y entrar en otros universos. Sus teorías han demostrado que hay un número infinito de universos cuánticos que representan todas las realidades posibles. Además, sus teorías hacen posible la construcción de pasadizos situados a lo largo del Camino para entrar en estos universos, cada uno con una historia alternativa diferente. Finalmente, entra en el túnel, recorre el Camino y encuentra a la gente que huyó en el asteroide, sus descendientes.
Es un mundo extraño. Siglos antes, la gente había abandonado su forma estrictamente humana y ahora podían asumir formas y cuerpos distintos. Incluso la gente que murió hace tiempo tiene sus recuerdos y personalidades almacenados en bancos informáticos y pueden volver a la vida. Pueden ser resucitados y descargados varias veces en nuevos cuerpos. Los implantes colocados en sus cuerpos les dan acceso a una información casi infinita. Aunque esta gente puede tener casi todo lo que desea, nuestra protagonista se siente desgraciada y sola en este paraíso tecnológico. Echa de menos a su familia, a su novio, su Tierra, todo lo que quedó destruido en la guerra nuclear. Finalmente le dan permiso para explorar los múltiples universos que se encuentran a lo largo del Camino para buscar una Tierra paralela en la que se evitó la guerra nuclear y sus seres queridos todavía viven. Finalmente encuentra uno y salta a su interior. (Desgraciadamente, comete un pequeño error matemático; se encuentra en un mundo en el que el imperio egipcio nunca llegó a caer. Se pasa el resto de sus días intentando abandonar esta Tierra paralela para encontrar su verdadero hogar).
Aunque el portal dimensional del que se habla en Eón es puramente de ficción, plantea una pregunta interesante relacionada con nosotros: ¿puede encontrarse el paraíso en un universo paralelo si las condiciones de nuestro propio universo devienen intolerables?
La desintegración final de nuestro universo en una niebla sin vida constituida por electrones, neutrinos y fotones parece augurar el final definitivo de toda vida inteligente. A escala cósmica, vemos qué frágil y transitoria es la vida. La época en que la vida puede florecer se concentra en una franja muy estrecha, un periodo fugaz en la vida de las estrellas que iluminan el cielo nocturno. Parece imposible que la vida continúe cuando el universo envejezca y se enfríe. Las leyes de la física y la termodinámica son bastante claras: si la expansión del universo sigue acelerándose exponencialmente, la inteligencia tal como la conocemos no podrá sobrevivir. Pero a medida que la temperatura del universo vaya cayendo durante eones, ¿puede una civilización avanzada salvarse a sí misma? Reuniendo toda su tecnología, y la tecnología de las demás civilizaciones que puedan existir en el universo, ¿puede escapar de la inevitabilidad de la gran congelación?
Como el ritmo al que evolucionan las fases del universo se mide en miles de millones o en billones de años, una civilización industriosa e inteligente tiene mucho tiempo para intentar enfrentarse a estos desafíos. Aunque es pura especulación imaginar qué tipos de tecnologías puede diseñar una civilización avanzada para prolongar su existencia, podría usar las leyes de la física conocidas para analizar las amplias opciones que podrían estar disponibles de aquí a miles de millones de años. Los físicos no pueden decirnos qué planes específicos podría adoptar una civilización avanzada, pero sí la serie de parámetros que hay para una fuga así.
Para un ingeniero, el principal problema a la hora de dejar el universo es si hay suficientes recursos para construir una máquina capaz de realizar una hazaña tan difícil. Para un físico, el problema principal es diferente: si, para empezar, las leyes de la física permiten la existencia de estas máquinas. Los físicos quieren una «prueba de principio»: queremos demostrar que, si tuviésemos una tecnología lo bastante avanzada, sería posible una huida hacia otro universo según las leyes de la física. Si tenemos suficientes recursos o no es un detalle menor, práctico, que tiene que dejarse para las civilizaciones de miles de millones de años en el futuro que se enfrenten a la gran congelación.
Según el astrónomo real Sir Martin Rees: «Los agujeros de gusano, dimensiones extra y ordenadores cuánticos abren perspectivas especulativas que pueden transformar nuestro universo entero en un "cosmos vivo"». [206]

1. Civilizaciones de tipo I, II y III
Para entender la tecnología de las civilizaciones que se encuentran miles de millones de años por delante de la nuestra, los físicos a veces las clasifican según su consumo de energía y las leyes de la termodinámica. Cuando exploran el firmamento en busca de vida inteligente, los físicos no buscan pequeños hombrecitos verdes, sino civilizaciones con producción de energía de tipo I, II y III. La categorización fue introducida por el físico ruso Nikolai Kardashev en los años sesenta para clasificar las señales de radio de las civilizaciones posibles en el espacio exterior. Cada tipo de civilización emite una forma característica de radiación que puede ser medida y catalogada. (Incluso una civilización avanzada que intenta ocultar su presencia puede ser detectada por nuestros instrumentos. Según la segunda ley de la termodinámica, cualquier civilización avanzada creará entropía en forma de calor residual que inevitablemente se dispersará en el espacio exterior. Aunque intenten enmascarar su presencia, es imposible ocultar el débil resplandor creado por su entropía).
Una civilización de tipo I es la que ha aprovechado formas planetarias de energía. Su consumo de energía puede ser medido con precisión: por definición, es capaz de utilizar toda la cantidad de energía solar que llega a su planeta, es decir, 1016 vatios. Con esta energía planetaria, podría controlar o modificar el clima, cambiar el curso de los huracanes o construir ciudades en el océano. Estas civilizaciones dominan realmente su planeta y han creado una civilización planetaria.
Una civilización de tipo II ha agotado la energía de su planeta y ha aprovechado la energía de una estrella entera, es decir, 1026 vatios aproximadamente. Es capaz de consumir toda la producción de energía de su estrella y concebiblemente podría controlar los destellos solares e inflamar otras estrellas.
Una civilización de tipo III ha agotado la energía de un solo sistema solar y ha colonizado grandes porciones de su propia galaxia. Esta civilización puede utilizar la energía de 10.000 millones de estrellas, es decir, 1036 vatios aproximadamente.
Cada tipo de civilización difiere del siguiente tipo más bajo por un factor de 10.000 millones. Así, una civilización de tipo III, aprovechando la energía de miles de millones de sistemas estelares, puede utilizar 10.000 millones de veces la producción de energía de una civilización de tipo II, que a su vez aprovecha 10.000 millones de veces la producción de una de tipo I. Aunque el vacío que separa estas civilizaciones pueda ser astronómico, es posible estimar el tiempo que podría tardarse en conseguir una civilización de tipo III. Partamos de la base de que una civilización crece a una tasa modesta del 2 al 3% en su producción anual de energía. (Es una presunción plausible, ya que el crecimiento económico, que puede calcularse razonablemente, está directamente relacionado con el consumo de energía. Cuanto mayor es la actividad económica, mayor es la demanda de energía. Como el crecimiento del producto interior bruto, o PIB, de muchas naciones es del 1 al 2% al año, podemos esperar que su consumo de energía crezca más o menos al mismo ritmo).
A este modesto ritmo, podemos estimar que nuestra civilización actual se encuentra aproximadamente a una distancia de entre 100 a 200 años de alcanzar el estatus de tipo I. Nos costará aproximadamente de 1.000 a 5.000 años alcanzar el estatus de tipo II, y quizá de 100.000 a un millón alcanzar el de tipo III. A esta escala, nuestra civilización hoy en día puede ser clasificada como civilización de tipo 0, porque obtenemos nuestra energía de plantas muertas (petróleo y carbón). Incluso el control de un huracán, que puede liberar la energía de un centenar de armas nucleares, supera nuestra tecnología.
Para describir la civilización de nuestros días, el astrónomo Carl Sagan abogó por crear mejores gradaciones entre los tipos de civilización. Las civilizaciones de tipo I, II y III, como hemos visto, generan una producción de energía total de aproximadamente 1016, 1026 y 10 36 vatios, respectivamente. Sagan introdujo una civilización de tipo I.1, por ejemplo, que genera 1017 vatios de energía, un tipo de civilización I.2 que genera 1018 vatios de energía, etcétera. Dividiendo cada tipo I en diez subtipos más pequeños, podemos clasificar a nuestra propia civilización. A esta escala, nuestra civilización presente es como un tipo de civilización 0,7, a poca distancia de ser realmente planetaria. (Un tipo de civilización 0,7 todavía es mil veces más pequeña que la de tipo I, en términos de producción de energía).
Aunque nuestra civilización es todavía bastante primitiva, ya empezamos a ver señales de una transición. Cuando observo los titulares, veo continuamente recordatorios de esta evolución histórica. En realidad, me siento privilegiado de ser testigo de ello:
Internet es un sistema telefónico emergente de tipo I. Tiene la capacidad de convertirse en la base de una red de comunicación planetaria universal.
La economía de la sociedad de tipo I será dominada no por naciones, sino por grandes bloques comerciales parecidos a la Unión Europea, que se formó a su vez por competencia con la NAFTA (los países de Norteamérica).
La lengua de nuestra sociedad de tipo I será probablemente el inglés, que ya es la segunda lengua dominante en la Tierra. En muchos países del tercer mundo, las clases superiores y universitarias tienden a hablar hoy en día tanto en inglés como en la lengua local. Toda la población de una civilización de tipo I puede ser bilingüe de este modo, con una lengua local y una planetaria al mismo tiempo. [207]
Las naciones, aunque es probable que existan de algún modo durante siglos, irán perdiendo importancia a medida que caigan las barreras comerciales y el mundo se vuelva más interdependiente económicamente. (Las naciones modernas, en parte, fueron forjadas por capitalistas y por los que querían una moneda uniforme, fronteras, impuestos y leyes con las que hacer negocios. A medida que los negocios se hacen más internacionales, las fronteras nacionales deberían ser menos relevantes). Ninguna nación es lo bastante poderosa para detener la marcha hacia una civilización de tipo I.
Probablemente siempre habrá guerras, pero su naturaleza cambiará con la emergencia de una clase media planetaria más interesada en el turismo y en la acumulación de reservas y recursos que en dominar a otros pueblos y controlar mercados o regiones geográficas.
La contaminación se abordará cada vez más a escala planetaria. Los gases de invernadero, la lluvia ácida, la quema de selvas tropicales y todo este tipo de agresiones no respetan las fronteras nacionales y habrá presión de las naciones vecinas contra los infractores para que reparen el daño causado. Los problemas ambientales globales ayudarán a acelerar las soluciones globales.
A medida que los recursos (como la pesca, las cosechas de grano y el agua) se agoten debido al supercultivo y al exceso de consumo, aumentará la presión para gestionar nuestros recursos a escala global, ya que en otro caso nos enfrentaremos al hambre y al colapso.
La información será casi libre, lo que animará a la sociedad a ser mucho más democrática y permitirá a la gente privada del derecho de voto adquirir una nueva voz y ejercer presión sobre las dictaduras.
Estas fuerzas superan el control de todo individuo o nación. Internet no puede prohibirse. En realidad, quien diera un paso así provocaría más hilaridad que horror, porque Internet es el camino de la prosperidad económica y de la ciencia, así como de la cultura y el entretenimiento.
Pero la transición del tipo 0 al tipo I es también la más peligrosa, porque todavía demostramos la ferocidad que tipificó nuestro ascenso desde la selva. En cierto sentido, el avance de nuestra civilización es una carrera contra el tiempo. Por un lado, la marcha hacia una civilización planetaria de tipo I puede prometernos una era de paz y prosperidad sin parangón. Por otro, las fuerzas de la entropía (el efecto invernadero, la contaminación, la guerra nuclear, el fundamentalismo, la enfermedad) todavía pueden destruirnos. Sir Martin Rees considera que estas amenazas, así como las debidas al terrorismo, los gérmenes patógenos producto de la biotecnología y otras pesadillas tecnológicas, son algunos de los grandes desafíos a los que se enfrenta la humanidad. Es revelador que nos conceda sólo una posibilidad del cincuenta por ciento de superar con éxito este desafío.
Ésta puede ser una de las razones por las que no vemos civilizaciones extraterrestres en el espacio. Si realmente existen, quizá sean tan avanzadas que ven poco interés en nuestra sociedad primitiva del tipo 0,7. También podría ser que fueran devoradas por la guerra o aniquiladas por su propia contaminación cuando aspiraban a alcanzar el estatus de tipo I. (En este sentido, la generación que vive ahora puede ser una de las más importantes que haya habido jamás sobre la superficie de la Tierra; es posible que pueda llegar a decidir si hacemos sin peligro la transición a un tipo I de civilización).
Pero, como dijo Friedrich Nietzsche en una ocasión, lo que no nos mata nos hace más fuertes. Nuestra dolorosa transición del tipo 0 al tipo I seguramente será una prueba de fuego, con determinado número de angustiosas salvaciones por los pelos. Si podemos emerger con éxito de este desafío, seremos más fuertes, de la misma manera que dar martillazos al acero calentado al rojo vivo sirve para templarlo.

Civilización de tipo I
Cuando una civilización alcanza el estatus de tipo I, es poco probable que llegue inmediatamente a las estrellas; es más probable que permanezca en su planeta durante siglos, el tiempo suficiente para resolver las pasiones nacionalistas, fundamentalistas, raciales y sectarias que queden de su pasado. Los escritores de ciencia ficción suelen infravalorar la dificultad del viaje al espacio y su colonización. Hoy en día, situar cualquier cosa en órbita cerca de la Tierra cuesta de 25.000 a 100.000 dólares el kilo. (Si nos imaginamos al astronauta John Glenn de oro macizo, empezaremos a apreciar el coste ingente del viaje espacial). Cada misión de una lanzadera espacial cuesta hasta 800 millones de dólares (si tomamos el coste total de un programa espacial y lo dividimos por el número de misiones). Es probable que el coste del viaje espacial descienda, pero sólo por un factor de 10, en las próximas décadas, con la llegada de vehículos de lanzamiento reutilizables (RLV) que puedan volverse a usar inmediatamente después de terminar una misión. Durante la mayor parte del siglo XXI, el viaje espacial seguirá siendo una propuesta prohibitivamente cara, excepto para los individuos y naciones más ricos.
(Hay una posible excepción: el desarrollo de «ascensores espaciales». Los recientes avances en nanotecnología posibilitan la producción de hebras formadas por nanotubos de carbono superfuertes y superligeros. En principio, es posible que estas hebras de átomos de carbón puedan resultar lo bastante fuertes para conectar la Tierra con un satélite geosincrónico que orbite a más de 30.000 kilómetros por encima de la Tierra. Como en el cuento de Jack y las habichuelas mágicas, uno podría subir por este nanotubo de carbono para llegar al espacio exterior por una fracción del coste habitual. Históricamente, los científicos del espacio desecharon los ascensores espaciales porque la tensión sobre la cuerda sería suficiente para romper cualquier fibra conocida. Sin embargo, la tecnología del nanotubo de carbono podría representar un cambio. La NASA está financiando estudios preliminares sobre esta tecnología y la situación será atentamente analizada a lo largo de los años. Si resultase posible una tecnología así, un ascensor espacial podría ser la mejor manera de ponernos en órbita alrededor de la Tierra, aunque no de otros planetas).
El sueño de las colonias espaciales debe ser atenuado por el hecho de que el coste de las misiones tripuladas a la Luna y los planetas es un múltiplo del coste de las misiones cerca de la Tierra. A diferencia de los viajes marítimos de Colón y los primeros exploradores españoles, en que el coste de un barco era una pequeña fracción del producto interior bruto de España y las recompensas económicas potenciales eran inmensas, el establecimiento de colonias en la Luna y Marte llevaría a la bancarrota a la mayoría de las naciones y, además, los beneficios económicos directos serían nulos. Una simple misión tripulada a Marte costaría entre 100.000 y 500.000 millones de dólares, con pocos o nulos resultados económicos a cambio.
Del mismo modo, también hay que considerar el peligro para los pasajeros humanos. Después de medio siglo de experiencia con cohetes de combustible líquido, las posibilidades de un fracaso catastrófico de las misiones de cohetes son de una entre setenta. (En realidad, las dos trágicas pérdidas de lanzaderas espaciales entran en esta ratio). Olvidamos a menudo que el viaje por el espacio es diferente del turismo. Con tanto combustible volátil y tantas amenazas hostiles a la vida humana, el viaje en el espacio seguirá siendo una propuesta arriesgada en las décadas próximas.
Sin embargo, a escala de varios siglos, la situación irá cambiando gradualmente. A medida que el coste del viaje espacial vaya descendiendo lentamente, pueden irse estableciendo algunas colonias espaciales en Marte. En esta escala de tiempo, algunos científicos incluso han propuesto ingeniosos mecanismos para «terraformar» Marte, como desviar un cometa y dejar que se vaporice en su atmósfera, añadiendo de este modo vapor de agua a la atmósfera. Otros han abogado por inyectar gas metano en su atmósfera para generar un efecto invernadero artificial sobre el planeta rojo, elevando las temperaturas y fundiendo lentamente el permafrost de debajo de la superficie de Marte para llenar de este modo sus lagos y ríos por primera vez en miles de millones de años. Algunos han propuesto medidas más extremas y peligrosas, como detonar una cabeza nuclear debajo de los casquetes polares para fundir el hielo (lo que podría plantear un problema de salud para los colonizadores del espacio en el futuro). Pero estas sugerencias todavía son altamente especulativas.
Es más probable que una civilización de tipo I considere que las colonias espaciales son una prioridad remota en los próximos siglos. Pero, para las misiones interplanetarias de larga distancia, en las que el tiempo no urge tanto, el desarrollo de una máquina solar/iónica puede ofrecer una nueva forma de propulsión entre las estrellas. Estas máquinas de movimiento lento generarían poco empuje, pero podrían mantenerlo durante años. Estas máquinas concentran energía solar, calientan un gas como el cesio y después arrojan el gas por el tubo de escape, generando un suave impulso que puede mantenerse casi indefinidamente. Los vehículos dotados con estos motores podrían ser ideales para crear un «sistema de autopista interestatal» interplanetario que conectara a los planetas.
Finalmente, las civilizaciones de tipo I podrían enviar unas cuantas sondas experimentales a las estrellas cercanas. Como la velocidad de los cohetes químicos está limitada en última instancia por la velocidad máxima de los gases en el tubo de escape del cohete, los físicos tendrán que encontrar formas de propulsión más exóticas si esperan alcanzar distancias de cientos de años luz. Un posible diseño sería crear un estatorreactor de fusión, un cohete que recoja hidrógeno del espacio interestelar y lo fusione, liberando cantidades ilimitadas de energía en el proceso. Sin embargo, la fusión de protón-protón es bastante difícil de alcanzar incluso en la Tierra, ya no digamos en el espacio exterior en una nave espacial. En el mejor de los casos, falta un siglo más para disponer de esta tecnología.

Civilización de tipo II
Una civilización de tipo II capaz de aprovechar la energía de toda una estrella podría parecerse a una versión de la Federación de Planetas de la serie Star Trek, sin el motor de curvatura. Han colonizado una pequeña fracción de la galaxia de la Vía Láctea y pueden inflamar estrellas, así que están calificadas para un estatus emergente de tipo II.
Para utilizar plenamente la producción del Sol, el físico Freeman Dyson ha especulado con la idea de que una civilización de tipo II podría construir una esfera gigantesca alrededor del Sol para absorber sus rayos. Esta civilización, por ejemplo, podría ser capaz de deconstruir un planeta de las dimensiones de Júpiter y distribuir su masa en forma de una esfera alrededor del Sol. Debido a la segunda ley de la termodinámica, la esfera acabará calentándose, emitiendo una radiación infrarroja característica que podría verse desde el espacio exterior. Jun Jugaku, del Instituto de Investigación de Japón, y sus colegas han inspeccionado el firmamento hasta una distancia de 80 años luz para intentar localizar otras civilizaciones, y no han encontrado pruebas de estas emisiones de infrarrojos (recordemos, sin embargo, que nuestra galaxia tiene 100.000 años luz de diámetro). [208]
Una civilización de tipo II podría colonizar algunos de los planetas de su sistema solar e incluso embarcarse en un programa para desarrollar el viaje interestelar. Debido a los amplios recursos disponibles para una civilización de tipo II, podrían haber desarrollado potencialmente formas exóticas de propulsión, como un motor materia/antimateria para sus naves espaciales, haciendo posible viajar cerca de la velocidad de la luz. En principio, esta forma de energía tiene un 100% de eficiencia. Es experimentalmente posible pero prohibitivamente cara según los estándares del tipo I (se necesita un colisionador de átomos para generar haces de antiprotones que puedan usarse para crear antiátomos).
Sólo podemos especular sobre cómo podría funcionar una sociedad de tipo II. Sin embargo, contará con milenios para aclarar disputas sobre propiedad, recursos y poder. Una civilización de tipo II podría ser potencialmente inmortal. Es probable que nada conocido por la ciencia pueda destruir esta civilización, excepto, quizá, la locura de sus propios habitantes. Los cometas y meteoros pueden ser desviados, las edades de hielo pueden ser eludidas cambiando las pautas climáticas, incluso la amenaza planteada por la explosión de una supernova cercana podría ser evitada simplemente abandonando el planeta propio y transportando la civilización lejos del peligro, o incluso potencialmente tratando de alterar el motor termonuclear de la estrella moribunda en sí.

Civilización de tipo III
Cuando una sociedad alcanza el nivel de una civilización de tipo III, puede empezar a contemplar las fantásticas energías en las que el espacio y el tiempo se vuelven inestables. Recordemos que la energía de Planck es la energía en la que dominan los efectos cuánticos y el espacio-tiempo se vuelve «espumoso», con pequeñas burbujas y agujeros de gusano. La energía de Planck está hoy más allá de nuestro alcance, pero sólo porque juzgamos la energía desde el punto de vista de una civilización de tipo 0,7. Cuando una civilización alcance el estatus de tipo III, tendrá acceso (por definición) a energías 10.000 millones de veces 10.000 millones (o 1020) mayores que las que encontramos en la Tierra actualmente.
El astrónomo Ian Crawford, del University College de Londres, escribe sobre las civilizaciones de tipo III:
«Partiendo de la base de un espaciamiento colonial característico de 10 años luz, una velocidad de la nave del 10% de la de la luz, y un periodo de 400 años entre la fundación de una colonia y el envío por esta colonia de colonias propias, la vanguardia colonizadora se expandirá a una velocidad media de 0,02 años luz por año. Como la galaxia tiene 100.000 años luz de diámetro, no tardará más de 5 millones de años en colonizarla completamente. Aunque es un periodo de tiempo largo en términos humanos, es sólo el 0,05% de la edad de la galaxia». [209]
Los científicos han realizado serios intentos de detectar emisiones de radio de una civilización de tipo III dentro de nuestra propia galaxia. El radiotelescopio gigante de Arecibo, en Puerto Rico, ha explorado gran parte de la galaxia en busca de emisiones de radio de 1,42 gigahertzios, cerca de la línea de emisión del hidrógeno. No ha encontrado pruebas de emisiones de radio en esta franja de ninguna civilización que emitiese entre 1018 y 1030 vatios de energía (es decir, del tipo I.1 al tipo II.4). Sin embargo, esto no excluye que haya civilizaciones que nos superen en tecnología, del tipo 0,8 al tipo I.1, o muy superiores a la nuestra, como las de tipo II.5 y más. [210]
Tampoco excluye otras formas de comunicación. Una civilización avanzada, por ejemplo, podría enviar señales por láser y no por radio y, si utiliza radio, podría hacerlo usando frecuencias distintas de 1,42 gigahertzios. Por ejemplo, podría dividir su señal utilizando diversas frecuencias y después sintetizarla en el receptor final. De este modo, una estrella cercana o una tormenta cósmica no interferirían en la totalidad del mensaje. Cualquiera que escuchase esta señal codificada podría oír sólo incoherencias. (Nuestros propios correos electrónicos se rompen en diversos fragmentos, cada uno de los cuales se envía a través de una ciudad diferente para sintetizarse finalmente en nuestro ordenador. De manera similar, las civilizaciones avanzadas pueden decidir usar métodos sofisticados para dividir una señal y sintetizarla en el otro extremo).
Si existiese una civilización de tipo III en el universo, una de sus preocupaciones más acuciantes sería establecer un sistema de comunicación para conectar la galaxia. Esto, desde luego, depende de si puede dominar de algún modo una tecnología más rápida que la luz, como por ejemplo mediante los agujeros de gusano. Si presumimos que no puede, su crecimiento se verá considerablemente limitado. El físico Freeman Dyson, basándose en el trabajo de Jean-Marc Lévy-Leblond, especula que una sociedad así podría vivir en un universo «Carroll». En el pasado, escribe Dyson, la sociedad humana estaba formada por pequeñas tribus en las que el espacio era absoluto pero el tiempo relativo. Esto significaba que la comunicación entre tribus dispersas lejanas era imposible y sólo podíamos aventurarnos a corta distancia de nuestro lugar de nacimiento en el ciclo de una vida humana. Cada tribu estaba separada por la inmensidad del espacio absoluto. Con la llegada de la Revolución Industrial, entramos en el universo newtoniano, en el que el espacio y el tiempo se hicieron absolutos, y contábamos con naves y ruedas que vinculaban las tribus dispersas en naciones. En el siglo XX entramos en el universo de Einstein, en el que el espacio y el tiempo eran ambos relativos, y desarrollamos el telégrafo, el teléfono, la radio y la televisión, con el resultado de la comunicación instantánea. Una civilización de tipo III puede regresar a un universo Carroll, con colonias espaciales separadas por inmensas distancias interestelares, incapaces de comunicarse por culpa de la barrera de la luz. Para impedir la fragmentación de un universo Carroll como éste, una civilización de tipo III podría tener que desarrollar agujeros de gusano que permitieran una comunicación más rápida que la luz a nivel subatómico [211].

Civilización de tipo IV
En una ocasión, estaba ofreciendo una charla en el Planetarium de Londres y se me acercó un chico de diez años para decirme, convencido, que tenía que haber una civilización de tipo IV. Cuando le recordé que sólo hay planetas, estrellas y galaxias, y que éstas eran las únicas plataformas que permitían la germinación de vida inteligente, me dijo que una civilización de tipo IV podría utilizar el poder del continuum. [212]
Reconocí que tenía razón. Si podía existir una civilización de tipo IV, su fuente de energía podría ser extra galáctica, como la energía oscura que hay a nuestro alrededor, y que constituye el 73% del contenido de materia/energía del universo. Aunque potencialmente es un enorme depósito de energía (el mayor del universo con diferencia), este campo de antigravedad se extiende a través de los inmensos tramos vacíos del universo y, por tanto, es extremadamente débil en cualquier punto del espacio.
Nikola Tesla, el genio de la electricidad y rival de Thomas Edison, escribió extensamente sobre la cosecha de energía del vacío. El creía que el vacío ocultaba depósitos incalculables de energía y que, si de algún modo podíamos sacar provecho de esta fuente, sería una revolución para la sociedad humana. Sin embargo, extraer esta energía fabulosa sería extremadamente difícil. Imaginemos que buscamos oro en los océanos. Probablemente hay más oro disperso en el mar que todo el oro de Fort Knox y de las demás haciendas públicas del mundo. Sin embargo, el gasto de extraer el oro de un área tan grande es prohibitivo. Por tanto, el oro que yace en los mares nunca se ha cosechado.
Del mismo modo, la energía oculta dentro de la energía oscura supera todo el contenido de energía de las estrellas y las galaxias. No obstante, está extendida sobre miles de millones de años luz y sería difícil concentrarla. Pero, según las leyes de la física, todavía es concebible que una civilización de tipo III, tras haber agotado la energía de las estrellas en la galaxia, pueda intentar aprovechar de algún modo esta energía para hacer la transición al tipo IV.

2. Clasificación de la información
Podemos refinar la clasificación de las civilizaciones basándonos en las nuevas tecnologías. Kardashev escribió la clasificación original en la década de 1960, antes de la explosión de la miniaturización informática, los avances en nanotecnología y la conciencia de los problemas de degradación ambiental. A la luz de estos avances, una civilización avanzada podría progresar de manera ligeramente distinta, aprovechándose plenamente de la revolución de la información de la que somos testigos actualmente.
Como una civilización avanzada se desarrolla exponencialmente, la copiosa producción de calor residual podría elevar peligrosamente la temperatura de la atmósfera del planeta y plantear problemas climáticos. Las colonias de bacterias crecen exponencialmente en placas de Petri hasta que agotan el suministro de alimento y literalmente se ahogan en sus propios residuos. De manera similar, como el viaje en el espacio seguirá siendo prohibitivamente caro durante siglos, y «terraformar» planetas cercanos, si es posible, será un desafío económico y científico de grandes magnitudes, una civilización en evolución de tipo I podría sofocarse potencialmente en su propio calor residual, o podría miniaturizar y hacer más eficiente su producción de información.
Para ver la efectividad de esta miniaturización, consideremos el cerebro humano, que contiene unos 100.000 millones de neuronas (tantas como galaxias hay en el universo visible) y, sin embargo, prácticamente no genera calor. De modo parecido, si un ingeniero informático hoy diseñara un ordenador electrónico capaz de calcular trillones de bytes por segundo, como puede hacerlo el cerebro aparentemente sin esfuerzo, probablemente tal ordenador tendría las dimensiones de varias manzanas de casas y se necesitaría un pantano para refrigerarlo. Sin embargo, nuestros cerebros pueden contemplar los pensamientos más sublimes sin acumular ningún sudor.
El cerebro logra esto debido a su arquitectura molecular y celular. En primer lugar, no es un ordenador en absoluto (en el sentido de ser una máquina de Turing estándar, con entradas y salidas y procesador central). El cerebro no tiene sistema operativo, no tiene Windows, ni CPU, ni el chip Pentium que solemos asociar con los ordenadores. En cambio, es una red neuronal de alta eficiencia, una máquina de aprender, en la que las pautas de memoria y de pensamiento se distribuyen por todo el cerebro en lugar de concentrarse en una unidad central de proceso de datos. El cerebro ni siquiera calcula muy rápido, porque los mensajes eléctricos enviados por las neuronas son de naturaleza química. Pero compensa con creces su lentitud porque puede ejecutar procesamientos paralelos y puede aprender nuevas tareas a velocidades astronómicas.
Para mejorar la eficiencia de los ordenadores electrónicos los científicos están intentando utilizar nuevas ideas, muchas de ellas sacadas de la naturaleza, con el objetivo de diseñar la próxima generación de ordenadores miniaturizados. Los científicos de Princeton ya han sido capaces de construir un ordenador con moléculas de ADN (tratando el ADN como una pieza de ordenador basada no en 0 y 1 binarios, sino en los cuatro ácidos nucleicos A, T, C y G); su ordenador de ADN resolvió el problema del viajante (es decir, calcular la trayectoria más corta para pasar por N ciudades). De manera similar, se han creado transistores moleculares en el laboratorio, e incluso se han construido los primeros ordenadores cuánticos primitivos (que pueden utilizar átomos individuales).
Dados los avances de la nanotecnología, es concebible que una civilización avanzada encuentre maneras mucho más eficientes de desarrollarse en lugar de crear copiosas cantidades de calor residual que amenace su existencia.

3. Tipos A a Z
Sagan introdujo aún otra manera de categorizar las civilizaciones avanzadas según su contenido de información, lo que sería esencial para cualquier civilización que pensase en abandonar el universo. Una civilización de tipo A, por ejemplo, es la que procesa 106 bits de información. Esto correspondería a una civilización primitiva sin un lenguaje escrito pero con lenguaje hablado. Para entender cuánta información contiene una civilización de tipo A, Sagan utilizó el ejemplo del juego de las veinte preguntas, en el que se tiene que identificar un objeto misterioso formulando no más de veinte preguntas que pueden responderse con un sí o un no. Una estrategia consiste en hacer preguntas que dividan el mundo en dos grandes conceptos, como: « ¿Está vivo?». Después de hacer estas veinte preguntas, habremos dividido el mundo en 220 elementos, o 106 unidades, que es el contenido de información total de una civilización de tipo A.
En cuanto se descubre la escritura, el contenido de información total se expande rápidamente. El físico Phillip Morison, del MIT, estima que la herencia escrita total que sobrevivió de la antigua Grecia es de unos 109 bits, es decir, una civilización de tipo C según la clasificación de Sagan.
Sagan calculó el contenido de información de nuestros días. Estimando el número de libros que contenían todas las bibliotecas del mundo (medido en decenas de millones) y el número de páginas de cada libro, sumó unos 1013 bits de información. Si incluimos fotografías, la suma podría ascender a 10 15 bits, lo que nos colocaría en una civilización de tipo H. Dada nuestra baja energía y producción de información, podríamos ser clasificados como una civilización de tipo 0,7 H.
Estimó que nuestro primer contacto con una civilización extraterrestre implicaría como mínimo una civilización de tipo 1,5 J o 1,8 K, porque ya dominaría la dinámica del viaje interestelar. Como mínimo, una civilización así sería varios siglos o milenios más avanzada que la nuestra. De manera similar, una civilización galáctica de tipo III podría tipificarse por el contenido de información de cada planeta multiplicado por el número de planetas en la galaxia capaces de sostener vida. Sagan estimó que este tipo de civilización III sería de tipo Q. Una civilización avanzada que pueda aprovechar el contenido de información de mil millones de galaxias, que representa una gran porción del universo visible, correspondería, según sus cálculos, al tipo Z.
No se trata de un ejercicio académico trivial. Cualquier civilización dispuesta a abandonar el universo tendrá que calcular necesariamente las condiciones del otro lado. Las ecuaciones de Einstein son notablemente difíciles porque, para calcular la curvatura del espacio en cualquier punto, hay que conocer la ubicación de todos los objetos en el universo, cada uno de los cuales contribuye a la curvatura del espacio. También hay que conocer las correcciones cuánticas al agujero negro, que en el presente son imposibles de calcular. Como esto es extraordinariamente difícil para nuestros ordenadores, hoy en día los físicos suelen aproximarse a un agujero negro estudiando un universo dominado por una sola estrella colapsada. Para llegar a una comprensión más realista de la dinámica dentro del horizonte de sucesos de un agujero negro o cerca de la boca de un agujero de gusano, tenemos que saber necesariamente la localización y el contenido de energía de todas las estrellas cercanas y calcular las fluctuaciones cuánticas. También esto es prohibitivamente difícil. Es bastante difícil resolver las ecuaciones para una sola estrella en un universo vacío, ya no digamos para los miles de millones de galaxias que flotan en un universo inflado.
Éste es el motivo por el que cualquier civilización que intente hacer el viaje a través de un agujero de gusano debería disponer de un poder informático muy superior al disponible para un tipo de civilización 0,7 H como la nuestra. Quizá la mínima civilización con la energía y el contenido de información necesarios para considerar seriamente dar el salto sería una de tipo III Q.
También es concebible que la inteligencia pueda extenderse más allá de los confines de la clasificación de Kardashev. Como dice Sir Martin Rees: «Es bastante concebible que, aunque la vida exista sólo aquí en la Tierra, acabe extendiéndose por la galaxia y más allá. Así, la vida podría no ser para siempre una señal anómala e insignificante en el universo, aunque ahora lo sea. En realidad, me parece una visión bastante atractiva y creo que sería saludable que llegara a ser ampliamente compartida». [213] Pero nos advierte: «Si nos apagáramos, estaríamos destruyendo potencialidades cósmicas genuinas. Así, aunque uno crea que la vida es única en la Tierra y ahora, esto no significa que la vida vaya a ser siempre una pieza trivial del universo». [214]
¿Cómo contemplaría una civilización avanzada dejar nuestro universo moribundo? Tendría que superar una serie de grandes obstáculos.

Primer paso: crear y comprobar una teoría del todo
El primer obstáculo que debería vencer una civilización que confíe en abandonar el universo sería completar una teoría del todo. Sea o no la teoría de cuerdas, debemos tener una forma de calcular de manera fiable las correcciones cuánticas a las ecuaciones de Einstein, porque, en otro caso, ninguna de nuestras teorías es útil. Afortunadamente, como la teoría M está avanzando rápidamente, y algunas de las mejores mentes del planeta trabajan en esta cuestión, es probable que sepamos si se trata realmente de la teoría del todo o es una teoría de la nada con relativa rapidez, en el plazo de unas décadas o posiblemente menos.
Una vez se haya encontrado una teoría del todo o una teoría de la gravedad cuántica, tendremos que verificar las consecuencias de esta teoría utilizando una tecnología avanzada. Hay varias posibilidades, como la construcción de grandes colisionadores de átomos para crear superpartículas, o incluso inmensos detectores de ondas de gravedad con base en el espacio o en diferentes lunas en todo el sistema solar. (Las lunas son bastante estables durante largos periodos de tiempo, libres de erosión y de perturbaciones atmosféricas, de modo que un sistema planetario de detectores de ondas de gravedad debería poder demostrar los detalles del big bang, resolviendo todas las preguntas que podamos tener acerca de la gravedad cuántica y creando un nuevo universo).
Una vez encontrada una teoría de la gravedad cuántica, y después de que los colisionadores de átomos y los detectores de ondas de gravedad hayan confirmado que es correcta, empezaremos a responder algunas preguntas esenciales relativas a las ecuaciones de Einstein y los agujeros de gusano:
a. ¿Son estables los agujeros de gusano?
Cuando pasamos por un agujero negro de Kerr en rotación, el problema es que nuestra presencia perturba el agujero negro; puede colapsar antes de que hayamos atravesado totalmente el puente de Einstein-Rosen. Este cálculo de estabilidad tiene que volverse a hacer a la luz de las correcciones cuánticas, que lo pueden cambiar totalmente.
b. ¿Hay divergencias?
Si pasamos por un agujero de gusano que puede atravesarse y que conecta dos eras temporales, la acumulación de radiación que rodea la entrada del agujero de gusano puede volverse infinita, lo que sería desastroso. (Esto se debe a que la radiación puede pasar a través del agujero de gusano, volver atrás en el tiempo y después de muchos años volver a entrar por segunda vez en el agujero de gusano. Este proceso puede repetirse un número infinito de veces, llevando a una acumulación infinita de radiación. Sin embargo, este problema puede resolverse si la teoría de los muchos mundos se sostiene, de modo que el universo se divida cada vez que la radiación pasa a través del agujero de gusano y no haya acumulación infinita de radiación. Necesitamos una teoría del todo para resolver esta delicada cuestión).
c. ¿Podemos encontrar grandes cantidades de energía negativa?
Se sabe que existe la energía negativa, un ingrediente clave que puede abrir y estabilizar los agujeros de gusano, pero sólo en pequeñas cantidades. ¿Podemos encontrar cantidades suficientes para abrir y estabilizar un agujero de gusano?
Partiendo de la base de que pueden encontrarse las respuestas a estas preguntas, una civilización avanzada podría empezar a contemplar seriamente cómo dejar el universo o enfrentarse a la extinción segura. Existen varias alternativas.

Segundo paso: encontrar agujeros de gusano y agujeros blancos que se generen de forma natural
Los agujeros de gusano, portales dimensionales y cuerdas cósmicas pueden existir de forma natural en el espacio exterior. Es posible que, en el instante del big bang, cuando se liberó una inmensa cantidad de energía al universo, los agujeros de gusano y las cuerdas cósmicas se generasen de forma natural. La inflación del universo primigenio podría haber expandido estos agujeros de gusano a dimensiones macroscópicas. Además, hay la posibilidad de que la materia exótica o la materia negativa existan naturalmente en el espacio exterior. Esto sería de gran ayuda para cualquier esfuerzo que tuviera como objetivo abandonar un universo moribundo. Sin embargo, no hay garantía de que estos objetos existan en la naturaleza. Nunca nadie los ha visto, y es simplemente demasiado arriesgado apostar el destino de toda la vida inteligente sobre esta presunción.
Además, existe la posibilidad de que explorando los cielos puedan encontrarse los «agujeros blancos». Un agujero blanco es una solución de las ecuaciones de Einstein en la que el tiempo es invertido, de modo que los objetos son expulsados de un agujero blanco del mismo modo que son absorbidos por un agujero negro. Puede encontrarse un agujero blanco en el otro extremo del agujero negro, de manera que la materia que entra en un agujero negro finalmente sale por el agujero blanco. Hasta ahora, ninguna de las exploraciones astronómicas ha encontrado pruebas de agujeros blancos, pero su existencia podría ser confirmada o descartada mediante la próxima generación de detectores con base en el espacio.

Tercer paso: enviar sondas a través de un agujero negro
Hay ventajas evidentes en la utilización de estos agujeros negros como agujeros de gusano. Los agujeros negros, como hemos llegado a descubrir, son bastante numerosos en el universo; si se pueden resolver los innúmeros problemas técnicos, tendrán que ser considerados seriamente por cualquier civilización avanzada como trampilla de escape de nuestro universo. Además, al pasar a través de un agujero negro, no nos vemos afectados por la limitación de que no podemos ir atrás en el tiempo a una época anterior a la creación de la máquina del tiempo. El agujero de gusano en el centro del anillo de Kerr puede conectar nuestro universo con otros bastante diferentes o con diferentes puntos del mismo universo. La única manera de saberlo sería experimentar con sondas y utilizar un superordenador para calcular la distribución de masas en el universo y calcular las correcciones cuánticas de las ecuaciones de Einstein a través del agujero de gusano.
Actualmente, la mayoría de los físicos creen que un viaje a través de un agujero negro sería fatal. Sin embargo, nuestra comprensión de la física del agujero negro está todavía en pañales y esta conjetura nunca se ha comprobado. Pongamos por caso que sea posible un viaje a través de un agujero negro, especialmente un agujero negro giratorio de Kerr. En este caso, toda civilización avanzada pensaría seriamente en explorar el interior de los agujeros negros.
Dado que el viaje a través de un agujero negro sería sólo de ida, y debido a los enormes peligros que se encuentran cerca de un agujero negro, probablemente una civilización avanzada intentaría localizar un agujero negro estelar cercano y primero enviaría una sonda a través de él. La sonda podría devolver información valiosa hasta que cruzase el horizonte de sucesos y perdiese todo contacto. (Es probable que un viaje más allá del horizonte de sucesos sea bastante letal, debido al intenso campo de radiación que lo rodea. Los rayos de luz que caigan en el agujero negro tendrán un desplazamiento al azul y, de este modo, ganarán energía a medida que se dirigen al centro). Cualquier sonda que pasase cerca del horizonte de sucesos debería protegerse adecuadamente contra esta descarga intensa de radiación. Además, esto puede desestabilizar el propio agujero negro de tal manera que el horizonte de sucesos se convierta en una singularidad, cerrando de este modo el agujero de gusano. La sonda determinaría con exactitud cuánta radiación hay cerca del horizonte de sucesos y si el agujero de gusano podría seguir siendo estable a pesar de todo este flujo de energía.
Los datos de la sonda antes de entrar en el horizonte de sucesos tendrían que ser transmitidos por radio a las naves espaciales cercanas, pero aquí se presenta otro problema. Para un observador situado en una de estas naves espaciales, la sonda parecería reducir la velocidad en el tiempo al acercarse al horizonte de sucesos. Al entrar en el horizonte de sucesos, de hecho la sonda parecería congelada en el tiempo. Para evitar este problema, las sondas tendrían que radiar sus datos a cierta distancia del horizonte de sucesos, porque de otro modo incluso las señales de radio se desplazarían tanto al rojo que los datos serían irreconocibles.

Cuarto paso: construir un agujero negro en movimiento lento
Una vez las sondas han establecido con exactitud las características de los agujeros negros cerca del horizonte de sucesos, el siguiente paso podría ser crear realmente un agujero negro en movimiento lento con propósitos experimentales. Una civilización de tipo III podría intentar reproducir los resultados sugeridos por el trabajo de Einstein: que los agujeros negros nunca pueden formarse a partir de remolinos de polvo y partículas. Einstein intentó demostrar que un conjunto de partículas giratorias no alcanzaría el radio de Schwarzschild por sí mismo (y, como resultado, los agujeros negros serían imposibles).
Las masas giratorias, por sí mismas, no podrían contraerse en un agujero negro. Pero esto deja abierta la posibilidad de que uno pueda inyectar artificialmente nueva energía y materia lentamente en el sistema de rotación, obligando a las masas a entrar gradualmente en el radio de Schwarzschild. De este modo, una civilización podría manipular la formación de un agujero negro de manera controlada.
Por ejemplo, uno puede imaginar una civilización de tipo III acaparando estrellas de neutrones, que tienen aproximadamente las dimensiones de Manhattan pero pesan más que nuestro Sol, y formando un conjunto giratorio de estas estrellas muertas. La gravedad acabaría uniendo gradualmente a estas estrellas, pero nunca alcanzarían el radio de Schwarzschild, como demostró Einstein. En este punto, los científicos de esta civilización avanzada podrían inyectar cuidadosamente nuevas estrellas de neutrones en la mezcla. Esto podría ser suficiente para desequilibrar la balanza y causar que esta masa giratoria de material de neutrones se colapsase dentro del radio de Schwarzschild. Como resultado, el conjunto de estrellas se colapsaría en un anillo rotatorio, el agujero negro de Kerr. Controlando la velocidad y los radios de las distintas estrellas de neutrones, una civilización así podría hacer que el agujero negro de Kerr se abriese tan lentamente como desease.
Una civilización avanzada también podría intentar reunir pequeñas estrellas de neutrones en una sola masa estacionaria hasta alcanzar las dimensiones de tres masas solares, que es aproximadamente el límite de Chandrasekhar para las estrellas de neutrones. Más allá de este límite, la estrella implosionaría en un agujero negro por su propia gravedad. (Una civilización avanzada tendría que cuidar que la creación de un agujero negro no provocase una explosión de supernova. La contracción en un agujero negro tendría que hacerse muy gradualmente y con mucha precisión).
Desde luego, cualquiera que pase por un horizonte de sucesos sólo tiene garantizado un viaje de ida. Pero, para una civilización avanzada que se enfrentase a la certidumbre de la extinción, un viaje sólo de ida podría ser la única alternativa. Con todo, hay el problema de la radiación al pasar por el horizonte de sucesos. Los haces de luz que nos siguen a través del horizonte de sucesos se vuelven más energéticos a medida que aumentan su frecuencia. Esto provocaría probablemente una lluvia de radiación que sería mortal para cualquier astronauta que pasase a través del horizonte de sucesos. Una civilización avanzada tendría que calcular la cantidad precisa de esta radiación y construir una protección adecuada para evitar quedar frita.
Finalmente, hay el problema de la estabilidad: ¿será el agujero de gusano del centro del anillo de Kerr lo bastante estable para pasar completamente a través de él? Las matemáticas de esta cuestión no están del todo claras, ya que tendríamos que utilizar una teoría cuántica de la gravedad para hacer un cálculo adecuado. Puede resultar que el anillo de Kerr sea estable bajo determinadas condiciones muy restrictivas cuando la materia cae a través del agujero de gusano. Esta cuestión se resolvería cuidadosamente utilizando las matemáticas de la gravedad cuántica y los experimentos con el propio agujero negro.
En resumen, el paso a través de un agujero negro sería sin duda un viaje muy difícil y peligroso. En teoría, no puede descartarse hasta que se lleve a cabo una experimentación exhaustiva y se hagan cálculos adecuados de todas las correcciones cuánticas.

Quinto paso: crear un universo bebé
Hasta ahora, hemos partido de la base de que podría ser posible pasar a través de un agujero negro. Ahora presumamos lo contrario, que los agujeros negros son demasiado inestables y están llenos de radiación letal. En este caso podría intentarse un camino todavía más difícil: crear un universo. El concepto de la creación por parte de una civilización avanzada de una trampilla de escape a otro universo ha intrigado a físicos como Alan Guth. Como la teoría inflacionaria depende tan crucialmente de la creación del falso vacío, Guth se ha preguntado si una civilización avanzada podría crear artificialmente un falso vacío y crear un nuevo universo en el laboratorio.
Al principio, la idea de crear un universo parece absurda. Al fin y al cabo, como señala Guth, para crear nuestro universo, necesitaríamos 1089 fotones, 1089 electrones, 1089 positrones, 1089 neutrinos, 1089 antineutrinos, 1089 protones y 10 89 neutrones. Aunque parece una tarea de enormes proporciones, Guth nos recuerda que, si bien el contenido de materia/energía de un universo es bastante grande, está equilibrado por la energía negativa derivada de la gravitación. La materia/energía neta total puede ser tan pequeña como una onza. Guth advierte: « ¿Significa esto que las leyes de la física nos permiten realmente crear un nuevo universo a voluntad? Si intentáramos aplicar esta receta, lamentablemente nos encontraríamos de inmediato un enojoso problema: como una esfera de falso vacío de 10−26 centímetros de diámetro tiene una masa de una onza, ¡tiene la fenomenal densidad de 1080 gramos por centímetro cúbico! […] Si la masa de todo el universo observado fuera comprimida a la densidad de falso vacío, ¡cabría en un volumen menor que un átomo!» [215] El falso vacío sería la pequeña región de espacio-tiempo donde surge una inestabilidad y se produce una fisura en el espacio-tiempo. Pueden bastar unas cuantas onzas de materia dentro del falso vacío para crear un universo, pero esta pequeña cantidad de materia tiene que ser comprimida a una dimensión astronómicamente pequeña.

11-01.jpg
Una civilización avanzada podría crear artificialmente un universo bebé de varias maneras. Podrían concentrarse unas cuantas onzas de materia a enormes densidades y energías, o podría calentarse la materia a una temperatura cercana a la de Planck .

Todavía puede haber otra manera de crear un nuevo universo. Podría calentarse una pequeña región del espacio hasta 1029 grados y después enfriarla rápidamente. A esta temperatura, se cree que el espacio-tiempo se vuelve inestable; empezarían a formarse pequeños universos burbuja y podría crearse un falso vacío. Estos pequeños universos, que se forman todo el tiempo pero tienen corta vida, pueden convertirse en universos reales a esta temperatura. Este fenómeno ya es familiar con los campos eléctricos ordinarios. (Por ejemplo, si creamos un campo eléctrico lo bastante grande, los pares virtuales electrón-antielectrón que constantemente entran y salen del vacío pueden convertirse de pronto en reales, permitiendo que estas partículas entren en la existencia. Así, la energía concentrada en un espacio vacío puede transformar las partículas virtuales en reales. De manera similar, si aplicamos bastante energía en un solo punto, se ha teorizado que los universos bebé virtuales pueden alcanzar la existencia apareciendo de la nada).
Suponiendo que pueda conseguirse una densidad o temperatura tan inimaginables, la formación de un universo podría tener el siguiente aspecto. En nuestro universo, pueden usarse potentes haces de láser y haces de partículas para comprimir y calentar una pequeña cantidad de materia a energías y temperaturas fantásticas. Nunca veremos el universo cuando empieza a formarse, porque se expande en el «otro lado» de la singularidad y no en nuestro propio universo. Este universo bebé alternativo se inflaría potencialmente en el hiperespacio a través de su propia fuerza de antigravedad y «brotaría» de nuestro universo. Así pues, nunca veremos que se está formando un nuevo universo en el otro lado de la singularidad. Pero un agujero de gusano, como un cordón umbilical, nos conectaría con el universo recién nacido.
De todos modos, hay cierta cantidad de riesgo en la creación de un universo en el horno. El cordón umbilical que conecta nuestro universo con el recién nacido a la larga se evaporaría y crearía una radiación de Hawking equivalente a una explosión nuclear de 500 kilotones, aproximadamente veinticinco veces la energía de la bomba de Hiroshima. Por tanto, habría un precio a pagar por crear un nuevo universo en el horno.
Nuestro último problema con el guión de crear un falso vacío es que sería fácil que el nuevo universo colapsara en un agujero negro, lo cual, recordemos, se supone que sería letal. La razón de esto es el teorema de Penrose, que establece que para una gran variedad de situaciones cualquier concentración de masa suficientemente grande colapsará inevitablemente en un agujero negro. Como las ecuaciones de Einstein son simétricamente reversibles, es decir, pueden aplicarse hacia delante y hacia atrás en el tiempo, ello significa que cualquier materia que cae de nuestro universo recién nacido puede ir hacia atrás en el tiempo, resultando en un agujero negro. Así, uno debería ser cuidadoso en la construcción de universos recién nacidos para evitar el teorema de Penrose.
El teorema de Penrose se basa en el supuesto de que la materia que cae en el interior es de energía positiva (como el mundo familiar que vemos a nuestro alrededor). Sin embargo, el teorema falla si tenemos energía negativa y materia negativa. Así, incluso para el guión inflacionario, necesitamos obtener energía negativa para crear un universo, como lo haríamos con el agujero de gusano que se pudiera atravesar.

Sexto paso: construir colisionadores de átomos enormes
¿Cómo podemos construir una máquina capaz de abandonar el universo teniendo un acceso ilimitado a la alta tecnología? ¿Hasta qué punto podemos esperar aprovechar la potencia de la energía de Planck? Cuando una civilización ha alcanzado el estatus de tipo III, ya tiene poder para manipular la energía de Planck, por definición. Los científicos serían capaces de jugar con los agujeros de gusano y reunir energía para abrir agujeros en el espacio y en el tiempo.
Son varias las maneras en que una civilización avanzada podría hacerlo. Como he mencionado antes, nuestro universo puede ser una membrana con un universo paralelo a sólo un milímetro de nosotros, flotando en el hiperespacio. Si es así, el Gran Colisionador de Hadrones (LHC) podría detectarlo en unos pocos años. Cuando avancemos hasta la civilización de tipo I, podríamos tener incluso la tecnología para explorar la naturaleza de este universo vecino. Así, el concepto de tomar contacto con un universo paralelo tal vez no sea una idea tan remota.
Pero pongámonos en el peor de los casos: que la energía a la que surgen los efectos gravitatorios cuánticos es la energía de Planck, que es un trillón de veces superior a la energía del LHC. Para explorar la energía de Planck, una civilización de tipo III tendría que construir un colisionador de átomos de proporciones estelares. En los colisionadores de átomos, o aceleradores de partículas, las partículas subatómicas viajan por un tubo estrecho. Cuando la energía se inyecta en el tubo, las partículas se aceleran a altas energías. Si utilizamos imanes para curvar el camino de las partículas en un gran círculo, las partículas pueden acelerarse a billones de electronvoltios de energía. Cuanto mayor es el radio del círculo, mayor es la energía del haz. El LHC tiene un diámetro de 27 kilómetros, casi al límite de la energía disponible para una civilización de tipo 0,7.
Pero, para una civilización de tipo III, se abre la posibilidad de construir un colisionador de átomos de las dimensiones de un sistema solar o incluso de un sistema estelar. Es concebible que una civilización avanzada pueda disparar un haz de partículas subatómicas hacia el espacio exterior y acelerarlas a la energía de Planck. Como vimos, con la nueva generación de aceleradores de partículas de láser, dentro de unas décadas los físicos podrían ser capaces de crear un acelerador de sobremesa capaz de alcanzar 200 GeV (200.000 millones de electronvoltios) en una distancia de un metro. Colocando estos aceleradores de sobremesa uno detrás del otro, es concebible que se pudieran alcanzar energías a las que el espacio-tiempo se vuelve inestable.
Si partimos de la base de que los aceleradores del futuro pueden potenciar las partículas sólo 200 Ge V por metro, que es un supuesto conservador, necesitaríamos un acelerador de partículas de 10 años luz de longitud para alcanzar la energía de Planck. Aunque esto es prohibitivamente grande para cualquier civilización de tipo I y II, entra perfectamente dentro de la capacidad de una civilización de tipo III. Para construir un colisionador de átomos tan descomunal, una civilización de tipo III podría o bien curvar el camino del haz hasta formar un círculo, ahorrando así un espacio considerable, o bien dejar el camino extendido en una línea recta que vaya bastante más allá de la estrella más cercana.
Se podría, por ejemplo, construir un colisionador de átomos que dispare partículas subatómicas por un camino circular dentro del cinturón de asteroides. No se necesitaría construir una cara pieza tubular porque el vacío del espacio exterior es mejor que cualquier vacío que se pueda crear en la Tierra. Pero tendrían que construirse imanes inmensos, colocados a intervalos regulares en lunas distantes y asteroides en el sistema solar o en varios sistemas estelares, lo que periódicamente curvaría el haz.
Cuando el haz se acercase a una luna o asteroide, grandes imanes con base en dicha luna tirarían del haz, cambiando su dirección muy suavemente. (Las estaciones lunares o de asteroides también tendrían que reenfocar el haz a intervalos regulares, porque el haz divergiría gradualmente cuanto más lejos viajara). Mientras viajase por distintas lunas, el haz dibujaría gradualmente la forma de un arco. Finalmente, el haz viajaría en la forma aproximada de un círculo. Podríamos imaginar dos haces, uno viajando en el sentido de las agujas del reloj alrededor del sistema solar, el otro en el sentido contrario. Cuando los dos haces colisionasen, la energía liberada por la colisión materia-antimateria crearía energías que se acercarían a la energía de Planck. (Puede calcularse que los campos magnéticos necesarios para curvar un haz tan poderoso superarían de largo la tecnología actual. Sin embargo, es concebible que una civilización avanzada pueda usar explosivos para enviar una oleada de energía a través de espirales con el fin de crear una inmensa pulsación magnética. Esta ráfaga titánica de energía magnética podría ser liberada sólo una vez, ya que probablemente destruiría las espirales, de modo que los imanes tendrían que ser rápidamente reemplazados antes de que el haz de partículas regresase en su vuelta siguiente).
Además de los horribles problemas de ingeniería para crear un colisionador de átomos así, también está la delicada cuestión de si hay un límite a la energía de un haz de partículas. Cualquier haz energético de partículas colisionaría finalmente con los fotones que constituyen la radiación de fondo de 2,7° K y, por tanto, perderían energía. En teoría, esto podría restar tanta energía del haz que, en realidad, habría un techo definitivo para la energía que se pudiera alcanzar en el espacio exterior. Este resultado no ha sido comprobado experimentalmente. (De hecho, hay indicaciones de que los impactos de rayos cósmicos han superado esta energía máxima, lo que proyecta dudas sobre todo el cálculo). Sin embargo, si esto es verdad, se necesitaría una modificación más cara del aparato. En primer lugar, se podría encerrar todo el haz en un tubo de vacío con protección para evitar la radiación de fondo de 2,7°. Además, si el experimento se hace en el futuro lejano, es posible que la radiación de fondo sea lo bastante pequeña para que deje de importar.

Séptimo paso: crear mecanismos de implosión
También podemos imaginar un segundo dispositivo basado en rayos láser y un mecanismo de implosión. En la naturaleza, se alcanzan tremendas temperaturas y presiones por el método de implosión, como cuando una estrella moribunda colapsa de pronto bajo la fuerza de gravedad. Esto es posible porque la gravedad sólo es atractiva, no repulsiva, y, por tanto, el colapso tiene lugar uniformemente, de modo que la estrella es comprimida uniformemente a densidades increíbles.
Este método de implosión es muy difícil de recrear en el planeta Tierra. Las bombas de hidrógeno, por ejemplo, tienen que ser diseñadas como un reloj suizo de modo que el deuteruro de litio, el ingrediente activo de una bomba de hidrógeno, sea comprimido a miles de millones de grados para alcanzar los criterios de Lawson, cuando se desencadena el proceso de fusión. (Esto se hace detonando una bomba atómica cerca del deuteruro de litio y después centrando uniformemente la radiación de rayos X sobre la superficie de una pieza de deuteruro de litio). Este proceso, sin embargo, sólo puede liberar energía explosivamente, no de manera controlada.
En la Tierra, los intentos de utilizar el magnetismo para comprimir gas rico en hidrógeno han fracasado, principalmente porque el magnetismo no comprime el gas uniformemente. Como no hemos visto nunca un monopolo en la naturaleza, los campos magnéticos son dipolares, como el campo magnético de la Tierra. Como resultado, son horriblemente irregulares. Utilizarlos para extraer gas es como intentar sacar aire de un globo. Cuando se aprieta por un lado del globo, el otro lado se infla.
Otra manera de controlar la fusión podría ser utilizar una batería de haces de láser, dispuesta a lo largo de la superficie de una esfera, de modo que los haces se dispararan radialmente sobre una pequeña bolita de deuteruro de litio en el centro. Por ejemplo, en el Laboratorio Nacional de Livermore hay un potente dispositivo de láser/fusión que se utiliza para simular las armas nucleares. Dispara una serie de haces láser horizontalmente por un túnel. A continuación, los espejos colocados al final del túnel reflejan cuidadosamente cada haz, de modo que los haces se dirigen radialmente sobre una pequeña bolita. La superficie de la bolita se vaporiza inmediatamente, haciendo que ésta implosione y generando altas temperaturas. De este modo, en realidad la fusión ha sido observada dentro de la bolita (aunque la máquina consume más energía de la que genera y, por tanto, no es comercialmente viable).
De manera similar, uno puede imaginarse que una civilización de tipo III construyera grandes bancos de haces de láser en asteroides y lunas de varios sistemas estelares. Esta batería de láseres dispararía de manera simultánea, liberando una serie de potentes haces que convergerían en un solo punto, creando temperaturas a las que el espacio y el tiempo se hacen inestables.
En principio, no hay un límite teórico para la cantidad de energía que puede colocarse en un haz de láser. Sin embargo, hay problemas prácticos para la fabricación de láseres de potencia extrema. Uno de los principales problemas es la estabilidad del material láser, que a altas energías se calentará en exceso y se romperá. (Esto puede remediarse dirigiendo el haz de láser mediante una explosión que se produzca sólo una vez, como las detonaciones nucleares).
El propósito de disparar este banco esférico de haces de láser consiste en calentar una cámara de tal modo que se cree un falso vacío en el interior, o bien implosionar y comprimir una serie de placas para crear energía negativa a través del efecto Casimir. Para crear un dispositivo de energía negativa como éste, se necesitaría comprimir una serie de placas esféricas a la longitud de Planck, que es de 10−33 centímetros. Como la distancia que separa los átomos es de 10−8 centímetros, y la distancia que separa los protones y neutrones en el núcleo es de 10−13 cm, vemos que la compresión de estas placas debe de ser enorme. (Como el efecto Casimir crea una atracción neta entre las placas, también tendremos que añadir cargas a las placas para impedir que colapsen). En principio, un agujero de gusano se desarrollará dentro de las carcasas esféricas conectando nuestro universo moribundo con uno mucho más joven y mucho más caliente.

Octavo paso: construir un motor de curvatura
Un elemento clave necesario para montar los dispositivos descritos antes es la capacidad de recorrer vastas distancias interestelares. Una manera posible de hacerlo es utilizar el impulso de deformación de Alcubierre, una máquina propuesta por primera vez por el físico Miguel Alcubierre en 1994. Una máquina con impulso de deformación no altera la topología del espacio creando un agujero y saltando al hiperespacio, sino que simplemente encoge el espacio que hay delante de uno mientras expande el de detrás. Imaginemos que atravesamos una alfombra para alcanzar una mesa. En lugar de andar por encima de la alfombra, podríamos echar un lazo a la mesa y arrastrarla lentamente hacia nosotros, haciendo que la alfombra se amontone delante de nosotros. Así, nos hemos movido poco; en cambio, el espacio delante de nosotros se ha encogido.
Recordemos que el propio espacio puede expandirse más rápido que la velocidad de la luz (ya que no se transfiere información neta expandiendo el espacio vacío). De manera similar, puede ser posible viajar más rápido que la luz si se encoge el espacio más rápido que la velocidad de la luz. En efecto, al viajar a una estrella cercana, apenas dejaríamos la Tierra; simplemente colapsaríamos el espacio delante de nosotros y expandiríamos el de detrás. En lugar de viajar a Alpha Centauri, la estrella más cercana, la acercaríamos a nosotros.
Alcubierre demostró que ésta es una solución viable de las ecuaciones de Einstein, es decir, que cabe dentro de las leyes de la física. Pero hay un precio que pagar. Tendríamos que emplear grandes cantidades de energía tanto negativa como positiva para disparar nuestra nave espacial. (La energía positiva podría utilizarse para comprimir el espacio de delante de nosotros y la negativa para alargar la distancia de detrás). Para utilizar el efecto Casimir con el fin de crear esta energía negativa, las placas tendrían que estar separadas por la distancia de Planck, 10−33 centímetros, demasiado pequeña para alcanzarse por medios ordinarios. Para construir una nave espacial así, necesitaríamos construir una gran esfera y colocar dentro a los pasajeros. En los lados de la burbuja, pondríamos una franja de energía negativa a lo largo del ecuador. Los pasajeros, dentro de la burbuja, no se moverían nunca, pero el espacio delante de la burbuja se encogería más deprisa que la luz, de modo que cuando los pasajeros dejaran la burbuja, habrían alcanzado una estrella cercana.
En su artículo original, Alcubierre mencionó que su solución no sólo podría llevarnos a las estrellas, sino que también nos permitiría viajar en el tiempo. Dos años después, el físico Allen E. Everett demostró que si se disponía de dos naves espaciales así, el viaje en el tiempo sería posible aplicando la propulsión de curvatura sucesivamente. Como dice el físico Gott, de Princeton: «Así pues, parece que Gene Roddenberry, el creador de Star Trek, ¡tenía razón al incluir todos aquellos episodios del viaje en el tiempo!».
Pero un análisis posterior del físico ruso Sergei Krasnikov reveló un defecto técnico en la solución. Demostró que el interior de la nave espacial está desconectado del espacio exterior de la nave, de modo que los mensajes no cruzan el límite; es decir, una vez dentro de la nave, uno no puede cambiar el rumbo. El camino tiene que ser fijado antes de hacer el viaje. Es algo decepcionante. Dicho de otro modo, no se puede mover un dial y fijar una ruta hacia la estrella más cercana. Pero también significa que una nave espacial de este tipo podría ser un ferrocarril hacia las estrellas, un sistema interestelar en el que las naves espaciales salieran a intervalos regulares. Se podría, por ejemplo, construir este ferrocarril utilizando primero cohetes convencionales que viajasen a una velocidad menor que la de la luz para construir estaciones de ferrocarril a intervalos regulares entre las estrellas. A continuación, la nave espacial viajaría entre estas estaciones a mayor velocidad que la luz siguiendo un horario con salidas y llegadas fijas.
Gott escribe: «Una supercivilización futura podría querer establecer trayectorias con propulsión de curvatura entre las estrellas para que las naves las recorrieran, del mismo modo que podría establecer vínculos de agujero de gusano entre las estrellas. Una red de caminos con propulsión de curvatura podría ser incluso más fácil de crear que una compuesta de agujeros negros, porque aquellos requerirían sólo una alteración de espacio existente y no el establecimiento de agujeros negros que conecten regiones distantes». [216]
Pero precisamente porque una nave espacial así tiene que viajar dentro del universo existente, no puede utilizarse para salir del universo. A pesar de todo, el motor de Alcubierre podría ayudar a construir un dispositivo para escapar del universo. Una nave espacial así sería útil, por ejemplo, para crear las cuerdas cósmicas en colisión mencionadas por Gott, que podrían hacer volver a una civilización avanzada a su propio pasado, cuando su universo era mucho más caliente.

Noveno paso: utilizar la energía negativa de estados comprimidos
En el capítulo 5 dije que los haces de láser pueden crear «estados comprimidos» que pueden usarse para generar materia negativa, que a su vez puede usarse para abrir y estabilizar agujeros de gusano. Cuando una potente pulsación de láser golpea un material óptico especial, crea pares de fotones en su estela. Estos fotones potencian y suprimen alternativamente las fluctuaciones cuánticas encontradas en el vacío, produciendo tanto pulsaciones de energía positiva como negativa. La suma de estas dos pulsaciones de energía siempre promedia una energía positiva, de modo que no violamos las leyes conocidas de la física.
En 1978, el físico Lawrence Ford, de la Universidad de Tufts, demostró tres leyes que esta energía negativa debe obedecer, y desde entonces han sido objeto de intensa investigación. Primero, Ford encontró que la cantidad de energía negativa en una pulsación está inversamente relacionada con su extensión espacial y temporal; es decir, cuanto más fuerte es la pulsación de energía negativa, más corta es su duración. Así, si creamos una gran explosión de energía negativa con un láser para abrir un agujero de gusano, sólo puede durar un periodo de tiempo extremadamente corto. Segundo, una pulsación negativa siempre va seguida de una positiva de mayor magnitud (por tanto, la suma sigue siendo positiva). Tercero, cuanto más grande es el intervalo entre estas dos pulsaciones, mayor debe ser la pulsación positiva.
Según estas leyes generales, es posible cuantificar las condiciones bajo las que un láser o las placas de Casimir pueden producir energía negativa. Primero, podría intentarse separar la pulsación de energía negativa de la energía positiva subsiguiente lanzando un haz de láser a una caja y cerrando un obturador inmediatamente después de la entrada de la pulsación de energía negativa. Como resultado, sólo la pulsación de energía negativa habría entrado en la caja. En principio, pueden extraerse de este modo grandes cantidades de energía negativa, seguidas de una pulsación de energía positiva aún más grande (que se mantiene fuera de la caja gracias al obturador). El intervalo entre las dos pulsaciones puede ser bastante largo, tan largo como la energía de la pulsación positiva. En teoría, ésta parece ser la manera ideal de generar cantidades ilimitadas de energía negativa para una máquina del tiempo o un agujero de gusano.
Por desgracia, hay una trampa. El mero acto de cerrar el obturador crea una segunda pulsación de energía positiva dentro de la caja. A no ser que se tomen precauciones extraordinarias, la pulsación de energía negativa se elimina. Ésta seguirá siendo una hazaña tecnológica que tendrá que resolver una civilización avanzada: dividir una potente pulsación de energía negativa de la subsiguiente pulsación de energía positiva sin tener una pulsación secundaria que elimine la energía negativa.
Estas tres leyes pueden aplicarse al efecto Casimir. Si producimos un agujero de gusano de un metro de diámetro, deberemos tener energía negativa concentrada en una franja de no más de 10−22 metros (una millonésima de las dimensiones de un protón). Una vez más, sólo una civilización extremadamente avanzada podría ser capaz de crear la tecnología necesaria para manipular estas distancias increíblemente pequeñas o intervalos de tiempo increíblemente pequeños.

Décimo paso: esperar transiciones cuánticas
Como vimos en el capítulo 10, los seres inteligentes que se enfrenten al gradual enfriamiento de su universo quizá tengan que pensar más lentamente e hibernar durante largos periodos de tiempo. Este proceso de reducir la velocidad de pensamiento podría prolongarse durante billones de billones de años, un periodo de tiempo suficiente para que ocurran acontecimientos cuánticos. Normalmente, podemos descartar la creación espontánea de universos de burbujas y transiciones a otros universos cuánticos porque serían acontecimientos extremadamente raros. Sin embargo, en la fase 5, es posible que los seres inteligentes piensen tan lentamente que estos acontecimientos cuánticos se vuelvan relativamente comunes. En su propio tiempo subjetivo, su velocidad de pensamiento les podría parecer perfectamente normal, aunque la escala de tiempo real sería tan larga que los acontecimientos cuánticos se volverían una ocurrencia normal.
Si es así, estos seres sólo tendrían que esperar hasta que apareciesen los agujeros de gusano y ocurriesen las transiciones cuánticas para escapar a otro universo. (Aunque estos seres podrían ver las transiciones cuánticas como algo común, un problema es que estos acontecimientos cuánticos son totalmente impredecibles; sería difícil hacer la transición a otro universo cuando uno no sabe exactamente cuándo podría abrirse el portal o adónde llevaría. Estos seres podrían tener que aprovechar la oportunidad de irse del universo en cuanto se abriera el agujero de gusano, antes de tener la posibilidad de analizar plenamente sus propiedades).

Undécimo paso: la última esperanza
Supongamos por un momento que todos los experimentos futuros con agujeros de gusano y agujeros negros se enfrentan a un problema aparentemente insuperable: que los únicos agujeros de gusano estables tienen dimensiones de microscópicas a subatómicas. Pensemos también que un viaje real a través de un agujero de gusano puede provocar tensiones inaceptables en nuestro cuerpo, incluso dentro de una nave protectora. Un buen número de desafíos, como fuerzas intensas de marea, campos de radiación, impactos contra asteroides u otros objetos, resultarían letales. Si es así, la vida futura de la inteligencia en nuestro universo sólo tendría una opción: inyectar la suficiente información al nuevo universo para recrear nuestra civilización al otro lado del agujero de gusano.
En la naturaleza, cuando los organismos vivos se enfrentan a un entorno hostil, a veces encuentran métodos ingeniosos para sobrevivir. Algunos mamíferos hibernan. Algunos peces y ranas tienen elementos químicos anticongelantes que circulan por sus fluidos corporales y les permiten seguir vivos sin congelarse. Los hongos escapan a la extinción transformándose en esporas. De manera similar, los seres vivos podrían tener que encontrar una manera de alterar su existencia física para sobrevivir al viaje a otro universo.
Pensemos en el roble, que esparce pequeñas semillas en todas direcciones. Las semillas son: (a) pequeñas, resistentes y compactas; (b) contienen todo el ADN del árbol; (c) están pensadas para alejarse a cierta distancia del árbol madre; (d) contienen bastante alimento para iniciar el proceso de regeneración en una tierra remota; (e) arraigan consumiendo nutrientes y energía del suelo y viviendo de la nueva tierra. De manera similar, una civilización podría intentar imitar a la naturaleza enviando su «semilla» a través del agujero de gusano, utilizando la nanotecnología disponible más avanzada dentro de miles de millones de años, para copiar cada una de estas importantes propiedades.
Como ha dicho Stephen Hawking: «Parece […] que la teoría cuántica permite el viaje en el tiempo a escala microscópica». [217] Si Hawking tiene razón, los miembros de una civilización avanzada podrían decidir alterar su ser físico para convertirlo en algo que pudiera sobrevivir el arduo viaje hacia atrás en el tiempo o a otro universo, fundiendo carbono con silicio y reduciendo su conciencia a pura información. En resumidas cuentas, nuestros cuerpos basados en carbono pueden ser demasiado frágiles para soportar la dureza física de un viaje de esta magnitud. En el futuro, quizá seamos capaces de fusionar nuestra conciencia con nuestras creaciones robóticas, utilizando la ingeniería avanzada del ADN, la nanotecnología y la robótica. Esto podría parecer raro para los estándares actuales, pero en el futuro, para una civilización de dentro de miles de millones a billones de años, podría ser la única manera de sobrevivir.
Podrían necesitar fusionar sus cerebros y personalidades directamente en máquinas, lo que podría hacerse de varias maneras. Podría crearse un sofisticado programa de software que fuera capaz de duplicar todos nuestros procesos de pensamiento, de modo que tuviera una personalidad idéntica a la nuestra. Más ambicioso es el programa defendido por Hans Moravec, de la Universidad de Carnegie-Mellon. Él afirma que, en el futuro lejano, podríamos ser capaces de reproducir, neurona a neurona, la arquitectura de nuestros cerebros en transistores de silicio. Cada conexión neuronal en el cerebro sería reemplazada por un transistor correspondiente que duplicaría la función de la neurona dentro de un robot. [218]
Como es probable que las fuerzas maremotrices y los campos de radiación sean intensos, las civilizaciones futuras tendrían que transportar el mínimo absoluto de combustible, protección y nutrientes necesarios para recrear nuestra especie al otro lado del agujero de gusano. Utilizando nanotecnología, podría ser posible enviar cadenas microscópicas a través del agujero de gusano dentro de un mecanismo no más amplio que una célula.
Si el agujero de gusano fuera muy pequeño, a la escala del átomo, los científicos tendrían que enviar grandes nanotubos hechos de átomos individuales, codificados con inmensas cantidades de información suficiente para recrear toda la especie al otro lado. Si el agujero de gusano tuviera sólo las dimensiones de una partícula subatómica, los científicos tendrían que idear una manera de enviar núcleos a través del agujero de gusano que se apropiarían de electrones al otro lado y se reconstruirían como átomos y moléculas. Si un agujero de gusano fuera aún más pequeño, quizá pudieran usarse haces de láser hechos de rayos X o rayos gamma de longitud de onda pequeña para enviar códigos sofisticados a través del agujero de gusano, dando instrucciones sobre cómo reconstruir la civilización al otro lado.
El objetivo de una transmisión de este tipo sería construir un «nanobot» al otro lado del agujero de gusano, cuya misión sería encontrar un entorno adecuado en el que regenerar nuestra civilización. Como se construiría a escala atómica, no necesitaría grandes cohetes de elevada potencia ni una gran cantidad de combustible para encontrar un planeta adecuado. En realidad, podría acercarse sin esfuerzo a la velocidad de la luz porque es relativamente fácil enviar partículas subatómicas casi a la velocidad de la luz usando campos eléctricos. Además, no necesitaría nutrientes ni otras piezas burdas de hardware, ya que el principal contenido del nanobot es la información pura necesaria para regenerar la raza.
Una vez el nanobot hubiera encontrado un nuevo planeta, crearía una gran fábrica usando materia prima ya disponible en el planeta para construir muchas réplicas de sí mismo en un gran laboratorio de clonación. Las secuencias de ADN necesarias podrían producirse en este laboratorio y después inyectarlas en las células para empezar el proceso de regenerar organismos enteros y finalmente toda la especie. En el laboratorio, estas células se convertirían en seres plenamente adultos, con la memoria y la personalidad del humano original situada en el cerebro.
En cierto sentido, este proceso sería similar a inyectar nuestro ADN (el contenido total de información de una civilización de tipo III o más allá) en una «célula huevo» que contuviera instrucciones genéticas capaces de recrear un embrión al otro lado. El «huevo fertilizado» sería compacto, resistente y móvil, aunque contendría todo el cuerpo de información necesario para recrear una civilización de tipo III. Una célula humana característica contiene sólo 30.000 genes, dispuestos en 3.000 millones de pares de base de ADN, pero esta pieza de información concisa es suficiente para recrear todo un ser humano, utilizando recursos encontrados fuera del esperma (la nutrición proporcionada por la madre). De manera similar, el «huevo cósmico» consistiría en la totalidad de información necesaria para regenerar una civilización avanzada; los recursos para hacer esto (materia prima, disolventes, metales y similares) se encontrarían al otro lado. De este modo, una civilización avanzada, como de tipo Q III, podría ser capaz de utilizar su formidable tecnología para enviar suficiente información (unos 1024 bits de información) a través de un agujero de gusano y recrear su civilización al otro lado.
Permítaseme subrayar que cada uno de los lapsos que he mencionado en este proceso supera de tal modo las capacidades que tenemos en la actualidad que puede leerse como ciencia ficción. Pero de aquí a miles de millones de años, para una civilización de tipo Q III que se enfrentase a la extinción, podría ser el único camino posible hacia la salvación. Ciertamente, no hay nada en las leyes de la física o de la biología que impidan que esto ocurra. Mi opinión es que la muerte definitiva de nuestro universo puede no significar necesariamente la muerte de la inteligencia. Desde luego, si la capacidad de transferir inteligencia de un universo a otro es posible, deja abierta la posibilidad de que una forma de vida de otro universo, enfrentándose a su propia gran congelación, pudiera intentar abrirse camino hacia una parte distante de nuestro propio universo, más cálida y hospitalaria.
Dicho de otro modo, la teoría del campo unificado, en lugar de ser una curiosidad inútil pero elegante, puede proporcionar a la larga el plan para la supervivencia de la vida inteligente en el universo.

Capítulo 12
Más allá del multiverso

La Biblia nos enseña cómo se va al cielo y no cómo va el cielo.
Cardenal Baronius
durante el juicio de Galileo

¿Por qué hay algo y no nada? La inquietud que mantiene en funcionamiento el reloj que nunca se detiene de la metafísica es el pensamiento de que la no existencia del mundo es tan posible como su existencia.
William James

La experiencia más bella que podemos tener es la del misterio. Es la emoción fundamental que se encuentra en la cuna del verdadero arte y de la verdadera ciencia. Aquel que no lo sabe y no puede ya hacerse preguntas, no puede ya maravillarse, es como si estuviera muerto y con los ojos tapados.
Albert Einstein

Contenido:
  1. Perspectiva histórica
  2. Principio copernicano contra principio antrópico
  3. Significado cuántico
  4. El significado en el multiverso
  5. Qué piensan los físicos del sentido del universo
  6. Crear nuestro propio significado
  7. Transición a la civilización de tipo I
En 1863, Thomas H. Huxley escribió: «El dilema fundamental de la humanidad, el problema que subyace a todos los demás y que destaca por encima de ellos, es precisar qué puesto le corresponde al hombre en la Naturaleza y cuál es su relación con el Cosmos» [219].
Huxley se hizo famoso como «bulldog de Darwin», el hombre que defendió con ferocidad la teoría de la evolución en una Inglaterra victoriana profundamente conservadora. La sociedad inglesa veía a la humanidad orgullosamente plantada en el centro de la creación; el sistema solar no sólo era el centro del universo, sino que la humanidad era el máximo logro de la creación de Dios, la cúspide del trabajo de artesanía divino. Dios nos había creado a su imagen y semejanza.
Al desafiar abiertamente esta ortodoxia religiosa, Huxley tuvo que defender la teoría de Darwin contra los anatemas lanzados por la ortodoxia religiosa, y de este modo colaboró en el establecimiento de una comprensión más científica de nuestro papel en el árbol de la vida. Hoy en día reconocemos que, entre los gigantes de la ciencia, Newton, Einstein y Darwin han realizado el trabajo más valioso al ayudar a definir el lugar que nos corresponde en el cosmos.
Cada uno de ellos lidió con las implicaciones teológicas y filosóficas de su obra respecto a nuestro papel en el universo. En la conclusión de los Principia, Newton declara: «El sistema más bello del Sol, los planetas y los cometas sólo pudo surgir del consejo y dominio de un ser inteligente y poderoso». Si Newton descubrió las leyes de la dinámica, debía de haber un legislador divino.
Einstein también estaba convencido de la existencia de lo que él llamaba el Viejo, que no intervenía, sin embargo, en los asuntos de los hombres. Su objetivo no era glorificarlo, sino «leer la Mente de Dios». Decía: «Quiero saber cómo Dios creó el mundo. No me interesa éste o aquel fenómeno. Quiero saber qué pensaba Dios. El resto son detalles». [220] Einstein justificaba su intenso interés por estos asuntos teológicos diciendo: «La ciencia sin la religión es coja. Pero la religión sin la ciencia es ciega». [221]
Pero Darwin estaba totalmente dividido en la cuestión del papel de la humanidad en el universo. Aunque se reconoce que fue él quien destronó a la humanidad del centro del universo biológico, en su autobiografía confesó «la extrema dificultad o más bien la imposibilidad de concebir este universo inmenso y maravilloso, incluido el hombre, con su capacidad para mirar hacia atrás y hacia el futuro, como resultado de la oscuridad o la necesidad ciega». [222] Confió a un amigo: «Mi teología es un verdadero lío». [223]

1. Perspectiva histórica
Newton y Einstein nos liberaron de la superstición y del misticismo del pasado. El primero nos dio unas leyes precisas y mecánicas que guiaban todos los cuerpos celestes, incluido el nuestro. En realidad, las leyes eran tan precisas que los seres humanos se convirtieron en simples loros que repetían sus frases. Einstein revolucionó nuestra manera de ver el escenario de la vida. No sólo era imposible definir una medida uniforme del tiempo y del espacio, sino que el propio escenario era curvado. No sólo se sustituyó el escenario por una lámina tirante de goma, sino que además se expandió.
La revolución cuántica nos dio una imagen aún más extraña del mundo. Por un lado, el desmoronamiento del determinismo significaba que las marionetas podían cortar sus cuerdas y leer sus propias frases. Se restauró el libre albedrío, pero al precio de obtener resultados múltiples e inciertos. Esto significaba que los actores podían estar en dos lugares al mismo tiempo y que podían desaparecer y reaparecer. Se hizo imposible decir con seguridad dónde estaba un actor en el escenario o en qué momento.
Ahora, el concepto del multiverso nos ha procurado otro cambio de paradigma, según el cual la palabra «universo» podría volverse obsoleta. Con el multiverso, hay escenarios paralelos, uno encima del otro, con trampillas y túneles ocultos que los conectan. Los escenarios, en realidad, dan lugar a otros escenarios, en un proceso interminable de génesis. En cada estadio, surgen nuevas leyes de la física. Quizá sólo en un puñado de estos escenarios coincidan la vida y la conciencia.
Hoy en día somos actores que vivimos en el primer acto, al principio de la exploración de las maravillas cósmicas de este escenario. En el segundo acto, si no destruimos nuestro planeta mediante la guerra o la contaminación, podríamos ser capaces de dejar la Tierra y explorar las estrellas y otros cuerpos celestes. Pero ahora vamos tomando conciencia de que falta la escena final, el tercer acto, cuando la obra termina y todos los actores perecen. En el tercer acto, el escenario se vuelve tan frío que la vida se torna imposible. La única salvación posible es abandonarlo a través de una trampilla y empezar otra vez con una nueva obra y un nuevo escenario.

2. Principio copernicano contra principio antrópico
Está claro que en la transición desde el misticismo de la Edad Media a la física cuántica de la actualidad, nuestro papel, nuestro lugar en el universo, ha cambiado de manera espectacular con cada revolución científica. Nuestro mundo se ha expandido exponencialmente y nos ha obligado a cambiar nuestra idea de nosotros mismos. Cuando observo esta progresión histórica, a veces me abruman dos emociones contradictorias al contemplar el número aparentemente ilimitado de estrellas en el firmamento o al ver la multitud de formas de vida en la Tierra. Por un lado, me siento empequeñecido por la inmensidad del universo. Al contemplar la vasta extensión vacía del universo, escribió en una ocasión Blaise Pascal, «el silencio eterno de estos espacios infinitos me aterra». [224] Por otro lado, no puedo evitar sentirme hipnotizado por la espléndida diversidad de la vida y la exquisita complejidad de nuestra existencia biológica.
Hoy en día, cuando abordamos la cuestión de determinar científicamente nuestro papel en el universo, en cierto sentido hay dos puntos de vista filosóficos extremos representados en la comunidad física: el principio copernicano y el principio antrópico.
El principio copernicano establece que no hay nada especial sobre nuestro lugar en el universo. (Algunos bromistas lo han llamado «el principio de la mediocridad»). Hasta ahora, todos los descubrimientos astronómicos parecen reivindicar este punto de vista. No sólo Copérnico desterró a la Tierra del centro del universo, sino que Hubble desplazó a toda la Vía Láctea del centro del universo, presentándonos en su lugar un universo en expansión de miles de millones de galaxias. El reciente descubrimiento de la materia oscura y la energía oscura subraya el hecho de que los elementos químicos superiores que constituyen nuestros cuerpos comprenden sólo el 0,03% del contenido total de materia/energía del universo. Con la teoría de la inflación, debemos contemplar el hecho de que el universo visible es como un grano de arena incrustado en un universo más grande y más plano, y que de este universo en sí pueden surgir constantemente nuevos universos. Y si, finalmente, la teoría M se revela victoriosa, debemos enfrentarnos a la posibilidad de que incluso la dimensionalidad familiar del espacio y tiempo tenga que expandirse a once dimensiones. No sólo nos han desterrado del centro del universo, sino que incluso podemos encontrarnos con que el universo visible no es más que una pequeña fracción de un multiverso mucho más grande.
Ante la enormidad de esta constatación, uno recuerda el poema de Stephen Crane, que escribió en una ocasión:
Un hombre le dijo al universo:
— ¡Señor, yo existo!
—Sin embargo —contestó el universo—, este hecho no ha creado en mí ningún sentido de obligación. [225]
(Viene a la memoria la parodia de ciencia ficción de Douglas Adams, Guía del autoestopista galáctico, en la que hay un dispositivo llamado Vórtice de Perspectiva Total que garantiza la transformación de cualquier persona sana en un lunático delirante. Contiene un mapa de todo el universo con una pequeña flecha que dice: «Usted se encuentra aquí»).
Pero en el otro extremo tenemos el principio antrópico, que nos hace ver que una serie de «accidentes» milagrosos hace posible la conciencia en nuestro universo tridimensional. Hay una franja ridículamente estrecha de parámetros que hace posible la vida inteligente, y resulta que nosotros nos hallamos en ella. La estabilidad del protón, las dimensiones de las estrellas, la existencia de elementos superiores, etcétera, todo parece estar finamente ajustado para permitir la existencia de complejas formas de vida y de conciencia. Puede debatirse si esta circunstancia fortuita es debida al diseño o a un accidente, pero no puede discutirse la complejidad del ajuste necesario para hacerlo posible.
Stephen Hawking afirma: «Si la tasa de expansión un segundo después del big bang hubiera sido menor aunque fuera en una parte entre cien mil millones, [el universo] se habría vuelto a colapsar antes de alcanzar las dimensiones presentes. […] Las probabilidades contrarias a la emergencia de un universo como el nuestro a partir de algo como el big bang son enormes. Creo que las implicaciones de todo esto son claramente religiosas». [226]
A menudo no llegamos a valorar hasta qué punto son preciosas la vida y la conciencia. Olvidamos que algo tan sencillo como el agua líquida es una de las sustancias más valiosas del universo, que en el sistema solar, quizás incluso en este sector de la galaxia, sólo la Tierra (y quizás Europa, una luna de Júpiter) tiene agua líquida en gran cantidad. También es probable que el cerebro humano sea el objeto más complejo que ha creado la naturaleza en el sistema solar, quizás hasta la estrella más cercana. Cuando vemos las vívidas imágenes del terreno sin vida de Marte o Venus, nos sorprende que sus superficies estén totalmente desprovistas de ciudades o de luces, o incluso de los complejos elementos químicos orgánicos de la vida. Existen mundos incontables en el espacio profundo desprovistos de vida, menos aún de inteligencia. Ello debería hacernos valorar qué delicada es la vida y el milagro de que florezca en la Tierra.
El principio copernicano y el principio antrópico son en cierto sentido perspectivas opuestas que marcan los extremos de nuestra existencia y nos ayudan a entender nuestro verdadero papel en el universo. Mientras el principio copernicano nos obliga a enfrentarnos a la pura enormidad del universo, y quizá del multiverso, el principio antrópico nos obliga a darnos cuenta de la rareza extrema de la vida y la conciencia.
Pero, en definitiva, el debate entre el principio copernicano y el principio antrópico no puede determinar nuestro papel en el universo, a no ser que veamos esta cuestión desde una perspectiva más amplia, desde el punto de vista de la teoría cuántica.

3. Significado cuántico
El mundo de la ciencia cuántica arroja mucha luz sobre la cuestión de nuestro papel en el universo, pero desde un punto de vista diferente. Si suscribimos la interpretación de Wigner del problema del gato de Schrödinger, vemos necesariamente la mano de la conciencia en todas partes. La cadena infinita de observadores, cada uno de los cuales ve al anterior, lleva en última instancia a un observador cósmico, quizás el propio Dios. En este enfoque, el universo existe porque hay una deidad que lo observa. Y, si la interpretación de Wheeler es correcta, el universo entero está dominado por la conciencia y la información. En esta imagen, la conciencia es la fuerza dominante que determina la naturaleza de la existencia.
El punto de vista de Wigner, a su vez, llevó a Ronnie Knox a escribir el siguiente poema sobre un encuentro entre un escéptico y Dios, en el que reflexiona sobre si un árbol existe en el jardín cuando no hay nadie que lo observe:
Había una vez una vez un hombre que dijo:
«Dios debe de pensar que es muy raro si descubre que este árbol sigue existiendo
cuando no hay nadie en el jardín». [227]
Un bromista anónimo escribió la siguiente respuesta:
Querido señor: Su sorpresa es extraña. Yo siempre estoy cerca del jardín y es por eso que su árbol seguirá siendo, pues es observado.
Fielmente suyo, Dios.
Dicho de otro modo, los árboles existen en el jardín porque siempre hay ahí un observador cuántico para colapsar la función de onda: Dios mismo.
La interpretación de Wigner coloca la cuestión de la conciencia en el centro exacto del fundamento de la física. Se hace eco de las palabras del gran astrónomo James Jeans, que escribió en una ocasión: «Hace cincuenta años, el universo solía verse como una máquina. […] Cuando contemplamos ambos extremos de tamaño (ya sea el cosmos como un todo, ya sea los recesos interiores del átomo), la interpretación mecánica de la Naturaleza falla. Llegamos a entidades y fenómenos que no son mecánicos en absoluto. A mí me recuerdan más a los procesos mentales que a los mecánicos; el universo parece estar más cerca de un gran pensamiento que de una gran máquina». [228]
Esta interpretación adopta quizá su forma más ambiciosa en la teoría del «it from bit» de Wheeler. «No es sólo que estemos adaptados al universo. El universo también está adaptado a nosotros». [229] Dicho de otro modo, en cierto sentido creamos nuestra propia realidad haciendo observaciones. Él lo llama «Génesis por observación». Wheeler afirma que vivimos en un «universo participativo».
Estas mismas palabras son repetidas por George Wald, el biólogo laureado con el Nobel, que escribió: «Sería triste ser un átomo en un universo sin físicos. Y los físicos están hechos de átomos. Un físico es la manera que tiene el átomo de saber sobre átomos». [230]El pastor unitario Gary Kowalski resume esta creencia diciendo: «Podría decirse que el universo existe para celebrarse a sí mismo y deleitarse en su propia belleza. Y si la raza humana es una faceta del cosmos que va tomando conciencia de sí mismo, nuestro objetivo debe ser sin duda preservar y perpetuar nuestro mundo además de estudiarlo, no saquear ni destruir lo que ha costado tanto tiempo producir». [231]
En esta línea de argumentación, el universo tiene un objetivo: producir criaturas sensibles como nosotros que puedan observarlo para que exista. Según esta perspectiva, la mera esencia del universo depende de su capacidad de crear criaturas inteligentes que puedan observarlo y, por tanto, colapsar su función de onda.
La interpretación de Wigner de la teoría cuántica procura cierto consuelo. Sin embargo, hay una interpretación alternativa, la de muchos mundos, que nos da una concepción totalmente diferente del papel de la humanidad en el universo. En las interpretaciones de muchos mundos, el gato de Schrödinger puede estar vivo y muerto al mismo tiempo, simplemente porque el universo en sí se ha dividido en dos universos separados.

4. El significado en el multiverso
Es fácil perderse en la multitud infinita de universos en la teoría de muchos mundos. Las implicaciones morales de estos universos cuánticos paralelos se exploran en un cuento de Larry Niven: «All the Myriad Ways» (Todos los miles de maneras). En el cuento, el teniente de policía Gene Trimble investiga una serie de suicidios misteriosos. De pronto, en toda la ciudad, personas sin historia previa de desequilibrio mental saltan de los puentes, se abren los sesos o incluso cometen un asesinato masivo. El misterio alcanza mayores dimensiones cuando Ambrose Harmon, el multimillonario fundador de la Crosstime Corporation, salta del trigésimo sexto piso desde su apartamento de lujo después de ganar quinientos dólares en una partida de póquer. Rico, poderoso y bien relacionado, lo tenía todo para vivir; su suicidio no tiene sentido. Pero, finalmente, Trimble descubre una pauta. El 20% de los pilotos de la Crosstime Corporation se han suicidado; en realidad, los suicidios empezaron un mes después de la fundación de Crosstime.
Investigando más a fondo, descubre que Harmon había heredado su inmensa fortuna de sus abuelos y que la había dilapidado apoyando causas descabelladas. Podría haberla perdido del todo, pero la recuperó en una apuesta. Reunió a un puñado de físicos, ingenieros y filósofos para investigar la posibilidad de pistas de tiempo paralelas. Finalmente, diseñaron un vehículo que podía entrar en una nueva línea de tiempo y el piloto trajo puntualmente un nuevo invento de los Estados Confederados de América. Crosstime financió entonces cientos de misiones a líneas de tiempo paralelas, donde descubrirían nuevos inventos que podrían ser traídos a la Tierra y patentados. Pronto Crosstime pasó a ser una empresa multimillonaria con patentes de los inventos mundiales más importantes de nuestros tiempos. Parecía que Crosstime sería la empresa con más éxito de su época, con Harmon en la dirección.
Descubrieron que cada línea de tiempo era diferente. Encontraron el Imperio católico, la América amerindia, la Rusia imperial y decenas de mundos muertos y radiactivos que terminaron en una guerra nuclear. Pero finalmente encontraron algo profundamente perturbador: copias al carbón de sí mismos, con vidas prácticamente idénticas a las suyas, aunque con un giro extraño. En estos mundos, hicieran lo que hicieran, podía pasar de todo: independientemente de lo que trabajaran, podrían llegar a efectuar sus sueños más fantásticos y vivir sus pesadillas más dolorosas. Independientemente de lo que hicieran, en algunos universos tenían éxito y en otros eran un absoluto fracaso. Hicieran lo que hicieran, había un número infinito de copias de ellos mismos que tomaban la decisión opuesta y tenían que atenerse a todas las consecuencias posibles. ¿Por qué no nos hacernos ladrones de bancos, si en algún universo podernos quedar impunes?
Trimble piensa: «La suerte no existe en ninguna parte. Todas las decisiones se toman de un modo y del otro. Por cada elección inteligente que uno tome de todo corazón, también toma todas las demás. Y así fue durante toda la historia». Una profunda desesperación abruma a Trimble cuando llega a una lacerante conclusión: en un universo en el que todo es posible, nada tiene sentido moral. Cae víctima de la desesperación al darse cuenta de que, a fin de cuentas, no podernos controlar nuestros destinos, que no importa qué decisión tomemos, el resultado es aleatorio.
Finalmente, decide seguir la guía de Harmon. [232] Coge una pistola y se apunta a la cabeza. Pero incluso cuando está pulsando el gatillo, hay un número infinito de universos en los que la pistola falla el tiro, la bala impacta en el techo, la bala mata al detective, etcétera. La decisión final de Trimble es llevada a cabo en un número infinito de maneras en un número infinito de universos.
Cuando nos imaginamos el multiverso cuántico, nos enfrentamos, como Trimble en la historia, a la posibilidad de que, aunque nuestros egos paralelos que viven en universos cuánticos diferentes puedan tener exactamente el mismo código genético, en coyunturas cruciales de la vida, nuestras oportunidades, nuestros mentores y nuestros sueños pueden llevarnos por caminos diferentes y conducirnos a historias de vida y destinos diferentes.
En realidad, casi tenemos ante nosotros una forma de este dilema. Es sólo cuestión de tiempo, quizá de unas cuantas décadas, que la clonación genética de los humanos sea un hecho normal. Aunque clonar un humano es extremadamente difícil (en realidad, todavía nadie ha clonado del todo a un primate, ya no digamos a un humano) y las cuestiones éticas son profundamente perturbadoras, es inevitable que en algún momento llegue a ocurrir. Y, cuando ocurra, la pregunta que surgirá será la siguiente: ¿tienen alma nuestros clones? ¿Somos responsables de las acciones de nuestros clones? En un universo cuántico, tendríamos un número infinito de clones cuánticos. Como algunos de nuestros clones cuánticos podrían realizar actos malvados, ¿somos responsables de ellos? ¿Sufre nuestra alma por las transgresiones de nuestros clones cuánticos?
Hay una posible solución a esta crisis existencial cuántica. Si miramos a través del multiverso de mundos infinitos, podemos quedar abrumados por la aleatoriedad vertiginosa del destino, pero en general dentro de cada mundo las normas de sentido común de la causalidad todavía se sostienen. En la teoría del multiverso propuesta por los físicos, cada universo distinto obedece a leyes como las de Newton a escala macroscópica, de modo que podemos vivir cómodamente nuestras vidas, sabiendo que las consecuencias de nuestros actos suelen ser predecibles. Dentro de cada universo, las leyes de la causalidad, en general, se aplican rígidamente. En cada universo, si cometemos un delito, lo más seguro es que vayamos a la cárcel. Podemos conducir nuestros asuntos felizmente inconscientes de todas las realidades paralelas que coexisten con nosotros. Esto me recuerda una historia apócrifa que suele contarse entre físicos. Un día llevan a Las Vegas a un físico ruso que queda totalmente anonadado ante la opulencia capitalista y la disipación que ofrece la ciudad del pecado. Se dirige inmediatamente a una mesa de juego y apuesta todo su dinero.
Cuando le dicen que es una mala estrategia de juego, que atenta contra todas las leyes de la estadística y la probabilidad, contesta: « ¡Sí, todo esto es cierto, pero en algún universo cuántico me haré rico!». Es posible que el físico ruso tuviera razón y que en algún mundo paralelo pudiera gozar de una riqueza imposible de imaginar. Pero en este universo particular perdió y se arruinó. Y tuvo que sufrir las consecuencias.

5. Qué piensan los físicos del sentido del universo
El debate sobre el sentido de la vida se vio nuevamente sacudido por las provocativas declaraciones de Steven Weinberg en su libro Los primeros tres minutos del universo. Escribe: «Cuanto más comprensible parece el universo, también parece más inútil. […] El esfuerzo por entender el universo es una de las pocas cosas que eleva la vida humana un poco por encima del nivel de la farsa y le confiere parte de la elegancia de una tragedia». [233] Weinberg ha confesado que de todas las frases que ha escrito, ésta es la que ha suscitado una respuesta más ardiente. Más adelante creó otra controversia con su comentario: «Con o sin religión, las buenas personas pueden comportarse bien y las malas personas pueden hacer maldades; pero para que las buenas personas hagan maldades… se necesita la religión». [234]
Parece que Weinberg obtiene un cierto deleite al causar revuelo mofándose de los que intuyen un sentido cósmico del universo. «Durante muchos años he ignorado alegremente los asuntos filosóficos», [235] confiesa. Como Shakespeare, cree que todo el mundo es un escenario, «pero la tragedia no está en el guión; la tragedia es que no hay guión». [236]
Weinberg refleja las palabras del biólogo de Oxford Richard Dawkins, que proclama: «En un universo de fuerzas físicas ciegas […] algunos saldrán heridos y otros tendrán suerte, y no se encontrará ni pies ni cabeza en ello, ni justicia. El universo que observamos tiene precisamente las propiedades que debemos esperar si, en el fondo, no hay diseño, no hay propósito, no hay mal ni bien, nada más que una indiferencia ciega e implacable». [237]
En esencia, Weinberg plantea un desafío. Si la gente cree que el universo tiene un objetivo, ¿cuál es? Cuando los astrónomos observan la vastedad del cosmos, con estrellas gigantes mucho más grandes que nuestro Sol que nacen y mueren en un universo que se ha ido expandiendo explosivamente durante miles de millones de años, es difícil ver cómo todo esto habría podido ser dispuesto precisamente para dar un propósito a la humanidad que vive en un pequeño planeta que gira alrededor de una estrella insignificante.
Aunque estas declaraciones han generado mucha discusión, muy pocos científicos se han manifestado en contra. Sin embargo, es interesante destacar que, cuando Alan Lightman y Roberta Brawer entrevistaron a una serie de cosmólogos prominentes para preguntarles si estaban de acuerdo con Weinberg, sólo un puñado dijo aceptar su valoración más bien sombría del universo. Una científica que manifestó estar firmemente al lado de Weinberg fue Sandra Faber, del Observatorio Lick y la Universidad de California en Santa Cruz, que dijo: «No creo que la Tierra fuese creada para la gente. Fue un planeta creado por procesos naturales, y, como parte de la continuación futura de estos procesos naturales, aparecieron la vida y la vida inteligente. Exactamente de la misma manera, pienso que el universo fue creado a partir de algún proceso natural y que nuestra aparición en él fue un resultado totalmente natural de las leyes físicas en nuestra porción concreta de universo. Su pregunta implica si hay algún poder que tiene un propósito más allá de la existencia humana. Yo no lo creo. Por tanto, diría que en definitiva estoy de acuerdo con Weinberg cuando dice que es totalmente inútil desde la perspectiva humana». [238]
Pero un sector mucho más amplio de cosmólogos pensaba que Weinberg se equivocaba, que el universo tenía una utilidad, aunque ellos no pudiesen expresarla.
Margaret Geller, profesora de la Universidad de Harvard, dijo: «Sospecho que mi opinión de la vida es que uno la vive y que es corta. Lo importante es tener una experiencia lo más rica posible. Esto es lo que intento hacer yo. Intento hacer algo creativo. Intento educar a la gente». [239]
Y un puñado de ellos veía el sentido del universo en el estupendo trabajo de Dios. Don Page, de la Universidad de Alberta, antiguo discípulo de Stephen Hawking, dijo: «Sí, yo diría que definitivamente hay un propósito. No sé cuáles son todos los propósitos, pero creo que uno de ellos es que Dios creó al hombre para que tuviera comunión con Dios. Un propósito superior quizá fuera que la creación de Dios glorificara a Dios». [240] Ve la obra de Dios en las reglas abstractas de la física cuántica: «En cierto sentido, las leyes físicas parecen ser análogas a la gramática y a la lengua que Dios eligió utilizar» [241].
Charles Misner, de la Universidad de Maryland, uno de los pioneros en el análisis de la teoría de la relatividad de Einstein, encuentra un terreno común con Page: «Mi sentimiento es que en la religión hay cosas muy serias, como la existencia de Dios y la hermandad del hombre, que son verdades serias que un día aprenderemos a apreciar quizás en una lengua diferente a una escala diferente. […] Así, creo que aquí hay verdades reales, y en este sentido la majestad del universo es significativa y debemos honor y respeto a su Creador». [242]
La cuestión del Creador plantea la pregunta: ¿puede la ciencia decir algo sobre la existencia de Dios? El teólogo Paul Tillich dijo en una ocasión que los físicos son los únicos científicos que pueden decir la palabra «Dios» sin ruborizarse. [243]Ciertamente, los físicos se encuentran solos entre los científicos a la hora de abordar las grandes cuestiones de la humanidad: ¿hay un gran diseño? Y, si es así, ¿hay un diseñador? ¿Cuál es el verdadero camino a la verdad, la razón o la revelación?
La teoría de cuerdas nos permite ver las partículas subatómicas como notas en una cuerda vibrante; las leyes de la química corresponden a las melodías que pueden tocarse en estas cuerdas; las leyes de la física corresponden a las leyes de la armonía que gobiernan estas cuerdas; el universo es una sinfonía de cuerdas; y la mente de Dios puede verse como música cósmica vibrante a través del hiperespacio. Si esta analogía es válida, uno debe formularse la siguiente pregunta: ¿hay un compositor? ¿Diseñó alguien la teoría para permitir la riqueza de universos posibles que vemos en la teoría de cuerdas? Si el universo es como un reloj finamente ajustado, ¿hay un relojero?
En este sentido, la teoría de cuerdas arroja cierta luz sobre la cuestión: ¿tuvo Dios elección? Siempre que Einstein creaba sus teorías cósmicas, se formulaba la pregunta: ¿cómo habría diseñado yo el universo? Tenía inclinación a pensar que quizá Dios no tuvo elección en el asunto. La teoría de cuerdas parece reivindicar esta aproximación. Cuando combinamos la relatividad con la teoría cuántica, encontramos teorías que están repletas de defectos ocultos pero fatales: divergencias que estallan y anomalías que malogran las simetrías de la teoría. Sólo incorporando simetrías potentes pueden eliminarse estas divergencias y anomalías, y la teoría M posee la más poderosa de estas simetrías. Quizá de este modo podría haber una teoría singular, única, que obedeciese todos los postulados que pedimos a una teoría.
Einstein, que a menudo escribió largo y tendido sobre el Viejo, fue preguntado sobre la existencia de Dios. Para él, había dos tipos de dioses. El primero era el dios personal, el que respondía a las plegarias, el dios de Abraham, Isaac y Moisés, el dios que divide las aguas y hace milagros. Sin embargo, no es el dios en quien creen necesariamente la mayoría de científicos.
Einstein escribió una vez que él creía en el «Dios de Spinoza, que se revela a sí mismo en la armonía ordenada de lo que existe, no en un Dios que se preocupa por el destino y las acciones de los seres humanos». [244] El Dios de Spinoza y Einstein es el dios de la armonía, el dios de la razón y la lógica. Einstein escribe: «No puedo imaginar un Dios que recompense y castigue a los objetos de su creación. […] Tampoco puedo creer que el individuo sobreviva a la muerte de su cuerpo». [245]
(En el Infierno de Dante, el Primer Círculo cerca de la entrada del Infierno está poblado por gente de buena voluntad y temperamento que no llegó a abrazar plenamente a Jesucristo. En el Primer Círculo, Dante encontró a Platón y Aristóteles y otros grandes pensadores y lumbreras. Como señaló el físico Wilczek: «Sospechamos que muchos, quizá la mayoría, de los científicos modernos encontrarán su camino al Primer Círculo») [246] Mark Twain también podría encontrarse en este Primer Círculo ilustre. Twain definió una vez la fe como «creer en lo que cualquier idiota sabe que no es verdad»). [247]
Personalmente, desde un punto de vista puramente científico, creo que quizás el argumento más fuerte a favor de la existencia del Dios de Einstein o de Spinoza procede de la teleología. Si la teoría de cuerdas se confirma por fin experimentalmente como la teoría del todo, debemos preguntar de dónde vienen las propias ecuaciones. Si la teoría del campo unificado es realmente única, como creyó Einstein, debemos preguntarnos de dónde viene esta cualidad de única. Los físicos que creían en este Dios creen que el universo es tan bello y sencillo que sus leyes definitivas no podrían ser un accidente. El universo podría ser totalmente aleatorio o constituido por electrones o neutrinos inertes, incapaces de crear vida, ya no digamos vida inteligente.
Si, como creo yo y algunos científicos, las leyes definitivas de la realidad serán descritas por una fórmula de apenas dos centímetros y medio de longitud, la pregunta es: ¿de dónde viene esta ecuación?
Como ha dicho Martin Gardner: « ¿Por qué cae la manzana? Por la ley de la gravitación. ¿Por qué la ley de la gravitación? Por determinadas ecuaciones que son parte de la teoría de la relatividad. Si un día los científicos consiguen escribir una ecuación definitiva de la que puedan derivarse todas las leyes físicas, todavía podremos preguntarnos: "¿Por qué esta ecuación?"». [248]

6. Crear nuestro propio significado
En última instancia, creo que la mera existencia de una única ecuación que pueda describir todo el universo de una manera ordenada y armoniosa implica un diseño de algún tipo. Sin embargo, no creo que este diseño dé un sentido personal a la humanidad. Por muy sorprendente o elegante que sea la formulación final de la física, no elevará el espíritu de miles de millones de personas ni les procurará plenitud emocional. Ninguna fórmula mágica procedente de la cosmología y la física embelesará a las masas y enriquecerá sus vidas espirituales.
Para mí, el significado real de la vida es que nosotros creamos nuestro propio significado. Nuestro destino es labrarnos un futuro y no esperar que nos sea procurado por alguna autoridad superior. Einstein confesó una vez que no era capaz de ofrecer consuelo a los cientos de individuos de buena fe que le escribían montones de cartas suplicándole que les revelara el sentido de la vida. Como ha dicho Alan Guth: «Está bien formularse estas preguntas, pero no debería esperarse que la respuesta más inteligente fuera la de un físico. Mi propio sentimiento emocional es que la vida tiene un propósito… en última instancia, diría que el propósito que tiene es el que le damos y no uno que provenga de un diseño cósmico». [249]
Creo que Sigmund Freud, con todas sus especulaciones sobre la parte oscura de la mente inconsciente, se acercó más a la verdad cuando dijo que lo que da significado y estabilidad a nuestras mentes es el trabajo y el amor. El trabajo nos ayuda a encontrar un sentido de responsabilidad y propósito, un foco concreto a nuestras labores y sueños. El trabajo no sólo procura disciplina y estructura a nuestras vidas, también nos proporciona un sentido de orgullo y de logro y un marco de realización. Y el amor es un ingrediente esencial que nos sitúa en el tejido de la sociedad. Sin amor, estamos perdidos, vacíos, sin raíces. Nadamos a la deriva en nuestra propia tierra, desligados de las preocupaciones de otros.
Más allá del trabajo y del amor, añadiría dos ingredientes que dan sentido a la vida. En primer lugar, aplicar los talentos con los que nacemos. Si el destino nos ha bendecido con diferentes capacidades y fuerzas, debemos intentar desarrollarlas al máximo y no dejar que se atrofien o se pudran. Todos conocemos individuos que no llegan a cumplir la promesa que parecían albergar en la infancia. Muchos de ellos quedan obsesionados por la imagen de lo que podrían haber llegado a ser. En lugar de maldecir el destino, deberíamos aceptarnos a nosotros mismos como somos e intentar satisfacer los sueños que entren dentro de nuestras posibilidades.
En segundo lugar, deberíamos intentar que el mundo fuera un lugar mejor del que encontramos al llegar. Como individuos, podemos mejorar las cosas, tanto si es investigando los secretos de la Naturaleza, limpiando el entorno o trabajando por la paz y la justicia social, o bien nutriendo el espíritu inquisitivo y vibrante de los jóvenes siendo su mentor y guía.

7. Transición a la civilización de tipo I
En el segundo acto de la obra de teatro Las tres hermanas, de Anton Chejov el coronel Vershinin proclama: «Dentro de un par de siglos, o dentro de un milenio, la gente vivirá de una manera nueva, mejor. No estaremos aquí para verlo, pero para eso vivimos, para eso trabajamos. Nosotros lo estamos creando. Es el objetivo de nuestra existencia. La única felicidad que podemos conocer es trabajar con un objetivo».
Personalmente, más que deprimirme por la enormidad del universo, me entusiasma la idea de que existan mundos totalmente nuevos cerca del nuestro. Vivimos en una época en que estamos empezando la exploración del cosmos con nuestras sondas espaciales y telescopios, nuestras teorías y ecuaciones.
También me siento privilegiado por vivir en una época en la que nuestro mundo está dando tan heroicas zancadas. Somos testigos de la que quizá sea la mayor transición en la historia humana, la transición hacia una civilización de tipo I, quizá la más trascendental, pero también la más peligrosa, de la historia.
En el pasado, nuestros antecesores vivían en un mundo duro e implacable. Durante la mayor parte de la historia humana, la esperanza media de vida era, en general, de apenas veinte años. Vivían con un temor constante a las enfermedades, a merced del destino. El examen de los huesos de nuestros antepasados revela que están increíblemente gastados, un testimonio de las pesadas cargas que acarreaban diariamente; también conservan las marcas de enfermedades y horribles accidentes. Incluso en nuestro siglo, nuestros abuelos vivieron sin el beneficio de una sanidad moderna, antibióticos, aviones, ordenadores y otras maravillas electrónicas.
Sin embargo, nuestros nietos vivirán en el alba de la primera civilización planetaria de la Tierra. Si no permitimos que nuestro instinto a veces brutal de autodestrucción nos consuma, nuestros nietos podrían vivir una época en la que la necesidad, el hambre y la enfermedad ya no acosarían nuestro destino. Por primera vez en la historia humana, poseemos tanto los medios para destruir toda vida en la Tierra como para alcanzar el paraíso en el planeta.
De pequeño, a menudo me preguntaba cómo sería vivir en el futuro remoto. Hoy en día, creo que si pudiese elegir vivir en una época concreta de la humanidad, elegiría ésta. Nos encontramos en el momento más emocionante de la historia humana, en la cúspide de algunos de los mayores descubrimientos cósmicos y avances tecnológicos de todos los tiempos. Estamos en plena transición histórica de observadores pasivos de la danza de la naturaleza a coreógrafos de esta danza, con la capacidad de manipular la vida, la materia y la inteligencia. Sin embargo, este poder imponente va acompañado de una gran responsabilidad para asegurar que los frutos de nuestros esfuerzos se usen con sabiduría y en beneficio de la humanidad.
La generación de humanos que vive ahora es quizá la más importante que andará jamás sobre la Tierra. A diferencia de las generaciones anteriores, tenemos en nuestras manos el destino futuro de nuestra especie, tanto si nos elevamos hasta cumplir nuestra promesa como civilización de tipo I como si caemos en el abismo del caos, la contaminación y la guerra. Las decisiones que tomemos retumbarán durante todo este siglo. La manera en que resolvamos las guerras globales, la proliferación de armas nucleares y los conflictos sectarios y étnicos establecerán o destruirán las bases de una civilización de tipo I. Quizás el propósito y significado de la generación actual es asegurar que la transición a una civilización de tipo I sea suave.
La elección es nuestra. Éste es el legado de la generación que vive actualmente. Éste es nuestro destino.

Glosario

Agujero de gusano: Un pasadizo entre dos universos. Los matemáticos los llaman «espacios múltiplemente conectados», espacios en los que un lazo no puede encogerse en un punto. No está claro que uno pueda pasar por un agujero de gusano sin desestabilizarlo o morir en el intento.

Agujero negro: Un objeto cuya velocidad de escape es la velocidad de la luz. Como la velocidad de la luz es la velocidad máxima en el universo, eso significa que nada puede escapar a un agujero negro una vez que un objeto ha cruzado el horizonte de sucesos. Los agujeros negros pueden tener dimensiones diversas. Los agujeros negros galácticos latentes en el centro de galaxias y quásares pueden pesar de millones a miles de millones de masas solares. Los agujeros negros estelares son restos de una estrella moribunda que originariamente quizás era hasta cuarenta veces la masa de nuestro Sol. Ambos tipos de agujeros negros han sido identificados con nuestros instrumentos. También pueden existir miniagujeros negros, según predice la teoría, pero todavía no se han visto en el laboratorio.

Agujero negro de Kerr: Una solución exacta de las ecuaciones de Einstein que representa un agujero negro en rotación. El agujero negro colapsa en la singularidad de un anillo. Los objetos que caen dentro del anillo experimentan sólo una fuerza finita de gravedad y, en principio, pueden caer a través del anillo hacia un universo paralelo. Hay un número infinito de esos universos paralelos para un agujero negro de Kerr, pero una vez uno ha entrado en uno de ellos, no puede volver. Todavía no se conoce la estabilidad del agujero de gusano en el centro de un agujero negro de Kerr. Hay graves problemas teóricos y prácticos cuando se intenta navegar por un agujero negro de Kerr.

Ajuste preciso: El ajuste de determinado parámetro a una precisión increíble. Los físicos no ven con buenos ojos el ajuste preciso porque lo consideran artificial y poco natural, e intentan imponer principios físicos para eliminar su necesidad. Por ejemplo, el ajuste preciso necesario para explicar un universo plano puede basarse en la inflación, y el ajuste preciso necesario para resolver el problema jerárquico de la teoría de la gran unificación puede resolverse utilizando la supersimetría.

Antigravedad: Lo contrario de la gravedad, que sería una fuerza más repulsiva que atractiva. En la actualidad sabemos que esta fuerza antigravedad existe, que probablemente hizo que el universo se inflara al principio del tiempo y que hoy hace que el universo se acelere. Sin embargo, como esta fuerza antigravedad es demasiado pequeña para medirla en el laboratorio, no tiene implicaciones prácticas. La antigravedad también es generada por materia negativa (que no se ha visto nunca en la naturaleza).

Antimateria: Lo contrario de la materia. La antimateria, cuya existencia fue predicha por primera vez por P. A. M. Dirac, tiene la carga contraria de la materia ordinaria, de modo que los antiprotones tienen carga negativa y los antielectrones (positrones) tienen carga positiva. Cuando materia y antimateria entran en contacto, se aniquilan mutuamente. Hasta ahora, el antihidrógeno es el antiátomo más complejo producido en el laboratorio. Es un misterio el motivo por el que nuestro universo está hecho principalmente de materia y no de antimateria. Si el big bang hubiera creado cantidades iguales de ambas, se habrían aniquilado una a otra y nosotros no existiríamos.

Año luz: La distancia que recorre la luz en un año, aproximadamente 9,46 billones de kilómetros. La estrella más cercana está a unos cuatro años luz y la galaxia de la Vía Láctea tiene un diámetro de 100.000 años luz.

Barión: Una partícula como el protón o el neutrón, que obedece a interacciones fuertes. Los bariones son un tipo de hadrón (una partícula de interacción fuerte). Ahora sabemos que la materia bariónica constituye una pequeña fracción de la materia del universo y es eclipsada por la materia oscura.

Big bang: La explosión original que creó el universo expulsando a las galaxias en todas direcciones. Cuando se creó el universo, la temperatura era extremadamente elevada y la densidad de la materia era enorme. El big bang, según el satélite WMAP, tuvo lugar hace 13.700 millones de años. La luminiscencia del big bang se observa hoy día en la radiación de fondo de microondas. Hay tres «pruebas» experimentales del big bang: el desplazamiento al rojo de las galaxias, el fondo cósmico de la radiación de microondas y la nucleosíntesis de los elementos.

Big crunch o gran implosión: El colapso final del universo. Si la densidad de la materia es lo bastante grande (Omega mayor que 1), hay materia suficiente en el universo para invertir la expansión original y hacer que el universo vuelva a colapsar. En el instante del big crunch, las temperaturas suben hasta el infinito.

Big freeze o gran congelación: El fin del universo cuando casi alcanza el cero absoluto. El big freeze probablemente es el estado final de nuestro universo, porque se cree que la suma de Omega y Lambda es 1,0 y, por tanto, el universo está en estado de inflación. No hay suficiente materia y energía para invertir la expansión original del universo, por lo que probablemente se expandirá eternamente.

Bosón: Una partícula subatómica con interacción gravitatoria, como el fotón o el supuesto gravitón. Los bosones se unifican con los fermiones mediante la supersimetría.

Brana: Abreviación de membrana. Las branas pueden estar en cualquier dimensión hasta la undécima. Son la base de la teoría M, la principal candidata a una teoría del todo. Si seccionamos un segmento longitudinal de una membrana de once dimensiones, obtenemos una cuerda de décima dimensión. Una cuerda es por tanto una 1-brana.

Candela estándar: Una fuente de luz estandarizada que es la misma en todo el universo y permite a los científicos calcular distancias astronómicas. Cuanto más débil es la candela estándar, más lejos está. En cuanto conocemos la luminosidad de una candela estándar, podemos calcular su distancia. Las candelas estándar que se utilizan actualmente son las supernovas de tipo Ia y las variables Cefeidas.

Civilizaciones de tipo I, II, III: Clasificación introducida por Nikolai Kardashev para clasificar las civilizaciones del espacio exterior a partir de la energía que generan. Corresponden a civilizaciones que pueden aprovechar el poder de todo un planeta, una estrella o una galaxia, respectivamente. Hasta ahora, no se han encontrado pruebas de ninguna de ellas en el espacio. Nuestra propia civilización corresponde probablemente a un tipo 0,7.

COBE: El satélite Explorador del Fondo Cósmico que dio la prueba tal vez más concluyente de la teoría del big bang al medir la radiación de materia oscura emitida por la bola de fuego original. Sus resultados se han visto muy mejorados por el satélite WMAP.

Colisionador de átomos: Término coloquial para designar el acelerador de partículas, un mecanismo utilizado para crear haces de energía subatómica que viajan a la velocidad de la luz. El mayor acelerador de partículas es el LHC que se está construyendo en Ginebra (Suiza).

Compactificación: El proceso de enrollar o envolver dimensiones indeseadas del espacio y el tiempo. Como la teoría de cuerdas existe en un hiperespacio de diez dimensiones y nosotros vivimos en un mundo de cuatro, de algún modo tenemos que aglutinar seis de las diez dimensiones en una bola tan pequeña que ni siquiera los átomos puedan introducirse en ella.

Constante de Hubble: La velocidad de una galaxia con desplazamiento al rojo dividida por su distancia. La constante de Hubble mide la tasa de expansión del universo y encaja aproximadamente con la edad del universo. Cuanto más baja es la constante de Hubble, más viejo es el universo. El satélite WMAP ha colocado la constante de Hubble a 71 km/s por millón de parsecs, o 21,8 Km/s por millón de años luz, poniendo fin a décadas de controversias.

Cuerda cósmica: Un resto del big bang. Algunas teorías predicen que pueden sobrevivir algunas reliquias del big bang en forma de cuerdas cósmicas gigantescas de las dimensiones de las galaxias o mayores. La colisión entre dos cuerdas cósmicas puede permitir una determinada forma de viaje en el tiempo.

Curvas cerradas semitemporales: Son caminos que retroceden en el tiempo en la teoría de Einstein. No están permitidos en la relatividad especial pero sí en la general si hay una concentración lo bastante grande de energía positiva o negativa.

Decoherencia: Cuando las ondas ya no están sincronizadas unas con otras. Puede usarse la decoherencia para explicar la paradoja del gato de Schrödinger. En la interpretación de muchos mundos, la función de onda del gato muerto y del vivo están en decoherencia una con otra y, por tanto, ya no interaccionan, resolviendo de este modo el problema de cómo un gato puede estar al mismo tiempo muerto y vivo. La decoherencia explica simplemente la paradoja del gato sin ningún tipo de supuesto adicional como el colapso de la función de onda.

Densidad crítica: La densidad a la que el universo se encuentra en su punto crítico, entre la expansión eterna y el retroceso hacia el colapso. La densidad crítica, medida en determinadas unidades, es Omega = 1 (donde Lambda = 0), a la que el universo está equilibrado con precisión entre dos futuros alternativos: la gran congelación o la gran implosión. Hoy en día, los mejores datos del satélite WMAP indican que Omega + Lambda = 1, lo que encaja con la predicción de la teoría de la inflación.

Desplazamiento al azul: El aumento de la frecuencia de la luz debido al efecto Doppler. Si una estrella amarilla se nos acerca, veremos su luz ligeramente azulada. En el espacio exterior, las galaxias con desplazamiento al azul son raras. También puede crearse el desplazamiento al azul encogiendo el espacio entre dos puntos por gravedad o curvatura del espacio.

Desplazamiento al rojo: El enrojecimiento o descenso en la frecuencia de luz desde galaxias distantes debido al efecto Doppler, que indica que se alejan de nosotros. El corrimiento hacia el rojo también puede producirse mediante la expansión de un espacio vacío, como en el universo en expansión.

Detector de ondas de gravedad: Una nueva generación de mecanismos que miden pequeñas perturbaciones debidas a las ondas de gravedad mediante rayos láser. Los detectores de ondas de gravedad pueden utilizarse para analizar la radiación emitida una trillonésima de segundo después del big bang. El detector de ondas de gravedad LISA, con base en el espacio, puede dar incluso la primera prueba experimental de la teoría de cuerdas o alguna otra teoría.

Determinismo: La filosofía de que todo está predeterminado, incluso el futuro. Según la mecánica newtoniana, si conocemos la velocidad y posición de todas las partículas del universo, en principio podemos calcular la evolución de todo el universo. Sin embargo, el principio de incertidumbre ha demostrado que el determinismo es incorrecto.

Deuterio: El núcleo del hidrógeno pesado, consistente en un protón y un neutrón. El deuterio del espacio exterior fue creado principalmente por el big bang, no por las estrellas, y su abundancia relativa permite el cálculo de las primeras condiciones del big bang. La abundancia de deuterio también puede utilizarse para rebatir la teoría del estado estacionario.

Dimensión: Una coordenada o un parámetro mediante el cual medimos el espacio y el tiempo. Nuestro universo familiar tiene tres dimensiones de espacio (longitud, amplitud y profundidad) y una dimensión de tiempo. En la teoría de cuerdas y la teoría M, necesitamos diez (once) dimensiones con las que describir el universo, sólo cuatro de las cuales pueden ser observadas en el laboratorio. Quizá la razón por la que no vemos esas otras dimensiones es o bien que son espirales, o bien que nuestras vibraciones están limitadas a la superficie de una membrana.

Ecuación de Maxwell: Las ecuaciones fundamentales de la luz, formuladas en primer lugar por Clerk Maxwell en la década de 1860. Estas ecuaciones muestran que los campos eléctrico y magnético pueden convertirse uno en otro. Maxwell demostró que estos campos se convierten uno en otro en un movimiento semejante a una onda, creando un campo electromagnético que viaja a la velocidad de la luz. Maxwell hizo entonces la atrevida conjetura de que aquello era luz.

Efecto Casimir: Energía negativa creada por dos placas paralelas sin carga, infinitamente grandes, colocadas una junto a otra. Las partículas virtuales fuera de las placas ejercen más presión que las partículas virtuales dentro de ellas y, por tanto, las placas se atraen una a otra. Este efecto mínimo ha sido medido en el laboratorio. El efecto Casimir puede utilizarse como energía para hacer funcionar una máquina del tiempo o un agujero de gusano, si su energía es suficientemente grande.

Efecto Doppler: Cambio de frecuencia de una onda a medida que un objeto se acerca o se aleja del observador. Si una estrella se acerca, la frecuencia de su luz aumenta, por lo que una estrella amarilla aparece ligeramente azulada. Si una estrella se aleja, la frecuencia de su luz disminuye, por lo que la estrella amarilla aparece ligeramente roja. Este cambio de frecuencia de la luz también puede ser creado aumentando el espacio entre dos puntos, como en el universo en expansión. Midiendo la cantidad de desplazamiento de la frecuencia, podemos calcular la velocidad a que se aleja una estrella.

Efecto túnel: Proceso mediante el cual las partículas pueden atravesar barreras prohibidas por la mecánica newtoniana. El efecto túnel es la razón de la descomposición de la radiación alfa y es un subproducto de la teoría cuántica. El propio universo puede haber sido creado mediante el efecto túnel. Se ha conjeturado que se podría abrir un túnel entre universos.

Electrón: Una partícula subatómica cargada negativamente que rodea el núcleo de un átomo. El número de electrones que rodea el núcleo determina las propiedades químicas del átomo.

Electronvoltio: Es la energía que acumula un electrón al pasar a través de un potencial de 1 voltio. Las reacciones químicas suelen implicar energías medidas en electronvoltios o menos, mientras que las reacciones nucleares pueden implicar cientos de millones de electronvoltios. Las reacciones químicas ordinarias implican la redisposición de la estructura del electrón. Las reacciones químicas nucleares implican la redisposición de los armazones del núcleo. En la actualidad, nuestros aceleradores de partículas pueden generar partículas con energías del orden de miles de millones o billones de electronvoltios.

Enana blanca: Una estrella en sus fases finales de vida, constituida por elementos como el oxígeno, litio, carbón, etcétera. Aparecen después de que una gigante roja agote su combustible de helio y colapse. Suele tener las dimensiones de la Tierra y no pesa más de 1,4 masas solares (en otro caso colapsarían).

Energía de Planck: 1019 miles de millones de electronvoltios. Podría ser la escala de energía del big bang, donde todas las fuerzas se unificaron en una única superfuerza.

Energía negativa: Energía con valor inferior a cero. La materia tiene energía positiva, la gravedad tiene energía negativa, y las dos pueden anularse en muchos modelos cosmológicos. La teoría cuántica permite un tipo de energía negativa diferente, debido al efecto Casimir y otros efectos, que pueden utilizarse para impulsar un agujero de gusano. La energía negativa es útil para la creación y estabilización de agujeros de gusano.

Energía oscura: La energía del espacio vacío. Introducida por Einstein en 1917 y posteriormente descartada, ahora se sabe que esta energía de la nada es la forma dominante de materia/energía en el universo. Su origen es desconocido, pero con el tiempo puede llevar al universo a una gran congelación. La cantidad de energía oscura es proporcional al volumen del universo. Los últimos datos muestran que el 73% de la materia/energía del universo es energía oscura.

Entropía: La medida de desorden o de caos. Según la segunda ley de la termodinámica, la entropía total en el universo aumenta siempre, lo que significa que a la larga todo tiene que agotarse. Aplicado al universo, significa que el universo tenderá a un estado de máxima entropía, como un gas uniforme cerca del cero absoluto. Para invertir la entropía en una pequeña región (como un frigorífico), se requiere la incorporación de energía mecánica. Pero incluso para un frigorífico, la entropía total aumenta (motivo por el cual la parte posterior del frigorífico está caliente). Algunos creen que la segunda ley de la termodinámica predice en última instancia la muerte del universo.

Escuela de Copenhague: Escuela fundada por Niels Bohr, que establece que es necesaria una observación para «colapsar la función de onda» a fin de determinar la condición de un objeto. Antes de hacer una observación, un objeto existe en todas las condiciones posibles, incluso absurdas. Dado que no observamos simultáneamente a los gatos muertos y vivos, Bohr tuvo que presuponer que había un «muro» que separaba el mundo subatómico del mundo cotidiano que observamos con nuestros sentidos. Esta interpretación se ha cuestionado porque separa el mundo cuántico del mundo cotidiano macroscópico, aunque muchos físicos creen ahora que el mundo macroscópico también debe obedecer a la teoría cuántica. Hoy en día, a través de la nanotecnología, los científicos pueden manipular los átomos individuales, por lo que sabemos que no hay un «muro» que separe a los dos mundos. Así pues, vuelve a surgir el problema del gato.

Espacio múltiplemente conectado: Un espacio en el que un lazo o bucle no puede ser reducido continuamente a un punto. Por ejemplo, un bucle que gira alrededor del agujero de un donut no puede contraerse en un punto, por lo que el donut está múltiplemente conectado. Los agujeros de gusano son ejemplos de espacios múltiplemente conectados, ya que un lazo no puede contraerse alrededor de la garganta de un agujero de gusano.

Espacio simplemente conectado: Un espacio en el que cualquier lazo puede ser condensado continuamente en un punto. El espacio plano está simplemente conectado, mientras que la superficie de un donut o un agujero negro no lo están.

Espectro: Los diferentes colores o frecuencias que se encuentran dentro de la luz. Analizando el espectro de la luz de una estrella, puede determinarse que las estrellas están constituidas principalmente por hidrógeno y helio.

Espuma cuántica: Pequeñas distorsiones semejantes a espuma de espacio-tiempo a nivel de la longitud de Planck. Si pudiéramos observar detenidamente la estructura del espacio-tiempo a la longitud de Planck, veríamos diminutas burbujas y agujeros de gusano, con un aspecto como de espuma.

Estrella de neutrones: Una estrella colapsada que consiste en una masa sólida de neutrones. Suele tener de 15 a 25 kilómetros de diámetro. Cuando gira, libera energía de una manera irregular, creando un púlsar. Es el remanente de una supernova. Si la estrella de neutrones es suficientemente grande, de unas 3 masas solares, puede colapsar en un agujero negro.

Evaporación de agujero negro: La radiación que sale de un agujero negro. Hay una probabilidad pequeña pero calculable de que la radiación se vaya filtrando suavemente hacia el exterior de un agujero negro, lo que se llama «evaporación». A la larga, desaparecerá tanta parte de la energía de un agujero negro por evaporación cuántica que dejará de existir. Esta radiación es demasiado débil para ser observada experimentalmente.

Experimento de Einstein-Podolsky-Rosen (EPR): Un experimento diseñado para rebatir la teoría cuántica pero que en realidad demostró que el universo es no local. Si una explosión envía dos fotones coherentes en direcciones opuestas y conservan su spin, el spin de un fotón será el contrario del otro. Así pues, midiendo un spin, automáticamente sabremos el otro, aunque la otra partícula pueda estar en el otro lado del universo. De este modo, la información se ha expandido más rápido que la luz. (Sin embargo, ninguna información utilizable, como un mensaje, puede enviarse de este modo).

Falso vacío: Un estado de vacío que no es el de la menor energía posible. El estado de falso vacío puede ser de simetría perfecta, quizás en el instante del big bang, de modo que la simetría se rompe cuando bajamos a un estado de energía más baja. Un estado de falso vacío es inherentemente inestable; inevitablemente, habrá una transición hacia un vacío verdadero, que tiene menos energía. La idea del falso vacío es esencial para la teoría inflacionaria, según la cual el universo empieza en un estado de expansión de De Sitter.

Fermión: Una partícula subatómica con spin semi-integral, como el protón, el electrón, el neutrón y el quark. Los fermiones pueden unirse a los bosones por supersimetría.

Fotón: Una partícula o cuanto de luz. El fotón fue propuesto por primera vez por Einstein para explicar el efecto fotoeléctrico, es decir, el hecho de que la luz brillante que incide sobre un metal genere la emisión de electrones.

Fuerza nuclear débil: La fuerza dentro del núcleo que hace posible la descomposición nuclear. Esta fuerza no es lo bastante fuerte para mantener unido el núcleo, por lo que el núcleo puede deshacerse. La fuerza débil actúa sobre leptones (electrones y neutrinos) y la llevan los bosones W y Z.

Función de onda: La onda que acompaña a toda partícula subatómica. Es la descripción matemática de la onda de probabilidad que localiza la posición de toda partícula. Schrödinger fue el primero en formular las ecuaciones para la función de onda de un electrón. En la teoría cuántica, la materia se compone de partículas puntuales, pero la probabilidad de encontrar la partícula la da la función de onda. Dirac propuso más tarde una ecuación de onda que incluía la relatividad especial. Hoy en día, toda la física cuántica, incluyendo la teoría de cuerdas, está formulada en términos de estas ondas.

Gravedad cuántica: Una forma de gravedad que obedece al principio cuántico. Cuando la gravedad se cuantiza, aparece un paquete de gravedad que se llama «gravitón». Normalmente, cuando se cuantiza la gravedad, encontramos que sus fluctuaciones cuánticas son infinitas, lo que hace inútil la teoría. En el presente, la teoría de cuerdas es la única candidata que puede eliminar estas infinidades.

Hiperespacio: Dimensiones superiores a cuatro. La teoría de cuerdas (teoría M) predice que ha de haber diez (once) dimensiones hiperespaciales. En el presente, no hay datos experimentales que indiquen la existencia de estas dimensiones superiores, tal vez demasiado pequeñas para ser medidas.

Inflación caótica: Una versión de la inflación, propuesta por Andrei Linde, según la cual la inflación se produce aleatoriamente. Eso significa que los universos pueden hacer brotar otros universos de manera continua y caótica, creando un multiverso. La inflación caótica es un modo de resolver el problema del fin de la inflación, porque ahora tenemos la generación aleatoria de universos inflados de todo tipo.

Física clásica: La física antes de la teoría cuántica, basada en la teoría determinista de Newton. La teoría de la relatividad, como no incorpora el principio de la incertidumbre, forma parte de la física clásica. La física clásica es determinista, es decir, podemos predecir el futuro dados los movimientos de todas las partículas en el presente.

Fluctuación cuántica: Pequeñas variaciones de la teoría clásica de Newton o Einstein, debidas al principio de incertidumbre. El propio universo pudiera haber empezado como una fluctuación cuántica en la nada (hiperespacio). La fluctuación cuántica en el big bang nos dio los grupos galácticos de hoy. El problema con la gravedad cuántica, que ha impedido una teoría del campo unificado durante muchas décadas, es que las fluctuaciones cuánticas de la teoría de la gravedad son infinitas, lo que carece de sentido. Hasta ahora, sólo la teoría de cuerdas ha podido eliminar estas fluctuaciones cuánticas infinitas de la gravedad.

Fuerza electro-magnética: La fuerza de la electricidad y el magnetismo. Cuando estas fuerzas vibran al unísono, crean una onda que puede describir la radiación ultravioleta, de radio, de rayos gamma y otras, y que obedece a las ecuaciones de Maxwell. La fuerza electromagnética es una de las cuatro fuerzas que gobiernan el universo.

Fuerza nuclear fuerte: La fuerza que une el núcleo. Es una de las cuatro fuerzas fundamentales. Los físicos utilizan la cromodinámica cuántica para describir las interacciones fuertes, basadas en quarks y gluones con simetría SU (3).

Fusión: El proceso de combinar protones u otros núcleos ligeros para formar núcleos complejos, liberando energía en el proceso. La fusión de hidrógeno en helio crea la energía de una estrella de secuencia principal, como nuestro Sol. La fusión de los elementos ligeros en el big bang nos da la abundancia relativa de elementos ligeros como el helio.

Galaxia: Un gran conjunto de estrellas que suele contener del orden de 100 mil millones de estrellas. Hay distintas variedades, incluyendo la elíptica, la espiral (espirales normales y espirales barradas) y la irregular. Nuestra galaxia es la denominada Vía Láctea.

Gigante roja: Una estrella que quema helio. Cuando una estrella como nuestro Sol agota su combustible de hidrógeno, empieza a expandirse y a formar una estrella gigante roja que quema helio. Eso significa que la Tierra acabará muriendo en el fuego cuando nuestro Sol se convierta en una gigante roja, de aquí a unos 5.000 millones de años.

Gravitón: Una supuesta partícula subatómica que es el cuanto de gravedad. El gravitón tiene spin 2. Es demasiado pequeño para poderlo observar en el laboratorio.

GUT (Gran Teoría Unificada): Una teoría que unifica las interacciones débiles, fuertes y electromagnéticas (excluyendo la gravedad). La simetría de las teorías de la GUT, como la SU (5), mezcla los quarks y los leptones. El protón no es estable en estas teorías y puede desintegrarse en positrones. Las teorías de la GUT son inherentemente inestables (a no ser que se les añada supersimetría). Asimismo, carecen de gravedad. (Añadir gravedad a las teorías de la GUT las hace divergir con infinidades).

Horizonte de sucesos: Alrededor de un agujero negro hay una esfera mágica, en el radio de Schwarzschild, que es el punto de no retorno. En otros tiempos se creyó que era una singularidad de gravedad infinita debido a las coordenadas inadecuadas usadas para describirlo.

Inflación: La teoría que establece que el universo sufrió una cantidad increíble de expansión superliminal en el instante de su nacimiento. La inflación puede resolver los problemas del universo plano, del monopolo y del horizonte.

Interferencia: La mezcla de dos ondas que son ligeramente diferentes en fase o frecuencia, lo cual crea una pauta de interferencia característica. Analizando esta pauta, uno puede detectar pequeñas diferencias entre dos ondas que sólo difieren en una cantidad extremadamente pequeña.

Interferometría: El proceso de utilizar la interferencia de ondas de luz para detectar diferencias muy pequeñas en las ondas de dos fuentes diferentes. La interferometría puede utilizarse para medir la presencia de las ondas de gravedad y otros objetos que normalmente son difíciles de detectar.

Isótopo: Un compuesto químico que tiene el mismo número de protones que un elemento, pero con un número de neutrones diferente. Los isótopos tienen las mismas propiedades químicas pero diferente peso.

Lambda: La constante cosmológica, que mide la cantidad de energía oscura en el universo. En el presente, los datos sostienen que Omega + Lambda = 1, lo cual encaja con la predicción de inflación para un universo plano. Lambda, que antes se creía que era cero, ahora se sabe que determina el destino final del universo.

Láser: Un mecanismo para generar radiación de luz coherente. «Láser» es el acrónimo de Light Amplification through Stimulated Emission of Radiation (amplificación de la luz mediante emisión estimulada de radiación). En principio, el único límite a la energía que contiene un rayo láser es la estabilidad del material utilizado y la potencia aplicada.

Lentes y anillos de Einstein: Las distorsiones ópticas debidas a la gravedad de la luz de las estrellas al atravesar el espacio intergaláctico. Los grupos galácticos distantes a menudo tienen aspecto de anillo. Las lentes de Einstein pueden usarse para calcular mediciones clave, incluyendo la presencia de materia oscura e incluso el valor de Lambda y la constante de Hubble.

Leptón: Una partícula interactiva débil, como el electrón y el neutrino, y sus generaciones superiores, como el muón. Los físicos creen que toda materia consiste en hadrones y leptones (partículas de interacción fuerte y débil).

Ley de Hubble: Cuanto más lejos está una galaxia de la Tierra, más rápido se mueve. Descubierta por Edwin Hubble en 1929, esta observación coincide con la teoría de la expansión del universo de Einstein.

Leyes de conservación: Las leyes que establecen que determinadas magnitudes no cambian con el tiempo. Por ejemplo, la conservación de materia y energía plantea que la cantidad total de materia y energía en el universo es una constante.

LHC: El Gran Colisionador de Hadrones, un acelerador de partículas para crear rayos energéticos de protones, con base en Ginebra (Suiza). Cuando finalmente se complete, colisionará partículas con energías no vistas desde el big bang. Se espera que el LHC encuentre la partícula de Higgs y spartículas cuando se inaugure en 2008.

LIGO: Observatorio de Interferometría Láser de ondas gravitacionales, con base en los estados de Washington y Louisiana. Es el detector de ondas de gravedad más grande del mundo y se puso en funcionamiento en 2003.

Límite de Chandrasekhar: 1,4 masas solares. Más allá de este límite, la gravedad de una enana blanca es tan inmensa que superará la presión de degeneración del electrón y colapsará la estrella, creando una supernova. Así, todas las estrellas enanas blancas que observamos en el universo tienen una masa inferior a 1,4 masas solares.

LISA: La Antena Espacial por Interferometría Láser es una serie de tres satélites espaciales que utilizan rayos láser para medir las ondas de gravedad. Puede ser lo bastante sensible para confirmar o rebatir la teoría inflacionaria y posiblemente incluso la teoría de cuerdas, cuando se ponga en funcionamiento en unas pocas décadas.

Longitud de Planck: 10−33 cm. Es la escala encontrada en el big bang en la que la fuerza gravitacional era tan fuerte como las otras fuerzas. A esta escala, el espacio-tiempo se vuelve «espumoso» y en el vacío aparecen pequeñas burbujas y agujeros de gusano.

MACHO: Siglas de Massive Compact Halo Object (objetos de halo compactos masivos). Son estrellas oscuras, planetas, asteroides y otros objetos oscuros difíciles de detectar mediante telescopios ópticos y que pueden constituir una porción de materia oscura. Los últimos datos indican que el grueso de la materia negra no es bariónico y no está constituido por MACHO.

Materia exótica: Una nueva forma de materia con energía negativa. Es diferente de la antimateria, que tiene energía positiva. La materia negativa tendría antigravedad, por lo que caería hacia arriba en lugar de hacia abajo. Si existe, podría usarse para hacer funcionar una máquina del tiempo. Sin embargo, no se ha encontrado en ninguna parte.

Materia oscura: Materia invisible que tiene masa pero no interacciona con la luz. La materia oscura suele encontrarse en un gran halo alrededor de las galaxias. Supera en masa a la materia ordinaria por un factor de 10. La materia oscura puede medirse indirectamente porque desvía la luz de las estrellas debido a su gravedad, de manera similar a cómo el vidrio refracta la luz. La materia oscura, según los últimos datos, constituye el 23% del total de material energía del universo. Según la teoría de cuerdas, la materia oscura puede estar constituida por partículas subatómicas, como el neutralino, que representa las vibraciones superiores de la supercuerda.

Mecánica cuántica: La teoría cuántica completa propuesta en 1925, que reemplazó a la «vieja teoría cuántica» de Planck y Einstein. A diferencia de la antigua teoría cuántica, que era un híbrido de antiguos conceptos clásicos y nuevas ideas cuánticas, la mecánica cuántica se basa en ecuaciones de onda y en el principio de incertidumbre, y representa una ruptura significativa respecto a la física clásica. No se ha encontrado nunca en el laboratorio ninguna desviación de la mecánica cuántica. Su versión más avanzada hoy en día se llama «teoría del campo cuántico», que combina la relatividad especial y la mecánica cuántica. Sin embargo, una teoría mecánica de la gravedad totalmente cuántica es extremadamente difícil.

Membrana: Una superficie extendida, en cualquier dimensión. Una 0-brana es una partícula en un punto. Una 1-brana es una cuerda. Una 2-brana es una membrana. Las membranas son una característica esencial de la teoría M. Las cuerdas pueden verse como membranas con una dimensión compactificada.

Modelo estándar: La teoría cuántica más exitosa de las interacciones débiles, electromagnéticas y fuertes. Se basa en la simetría SU (3) de los quarks, la simetria SU (2) de los electrones y neutrinos, y la simetría U (1) de la luz. Contiene una gran colección de partículas: quarks, gluones, leptones, bosones W y Z, y las partículas de Higgs. No puede ser la teoría del todo porque: (a) no contiene mención alguna de la gravedad; (b) tiene diecinueve parámetros libres que han de ser establecidos a mano; y (c) presenta tres generaciones idénticas de quarks y leptones, lo que es redundante. El modelo estándar puede ser absorbido en una teoría de la GUT y finalmente en la teoría de las cuerdas, pero actualmente no hay prueba experimental en este sentido.

Monopolo: Un solo polo de magnetismo. Habitualmente, los imanes tienen un par inseparable de polos norte y sur, por lo que los monopolos no se han visto nunca de manera concluyente en el laboratorio. Los monopolos deberían ser creados en cantidades copiosas en el big bang, pero hoy no encontramos ninguno, seguramente porque la inflación diluyó su número.

Multiplicidad de Calabi-Yau: Un espacio de seis dimensiones que se encuentra cuando tomamos la teoría de cuerdas de diez dimensiones y enrollamos o compactamos seis dimensiones en una pequeña bola, dejando un espacio supersimétrico de cuatro dimensiones. Los espacios de Calabi-Yau tienen múltiples conexiones, es decir, en ellos hay agujeros que pueden determinar el número de generaciones de quarks que existen en nuestro espacio de cuatro dimensiones. Son importantes en la teoría de cuerdas porque muchas de las características de estas multiplicidades, como el número de agujeros que tienen, pueden determinar el número de quarks que hay en nuestro universo de cuatro dimensiones.

Multiverso: Universo múltiple. Considerado al principio altamente especulativo, hoy en día el concepto del multiverso se considera esencial para entender el universo antiguo. Hay varias formas de multiverso íntimamente relacionadas. Cualquier teoría cuántica tiene un multiverso de estados cuánticos. Aplicado al universo, significa que debe de haber un número infinito de universos paralelos que se han descohesionado uno de otro. La teoría de la inflación introduce el multiverso para explicar el proceso de cómo empezó la inflación y luego se detuvo. La teoría de cuerdas introduce el multiverso debido a su gran número de soluciones posibles. En la teoría M, estos universos pueden colisionar en realidad unos con otros. En términos filosóficos, se introduce el multiverso para explicar el principio antrópico.

Muón: Una partícula subatómica idéntica al electrón pero con una masa mucho mayor. Pertenece a la segunda generación redundante de partículas encontrada en el modelo estándar.

Neutrino: Una partícula subatómica fantasmagórica y sin apenas masa. Los neutrinos reaccionan muy débilmente con otras partículas y pueden penetrar varios años luz de plomo sin interaccionar con nada. Se emiten en grandes cantidades desde las supernovas. El número de neutrinos es tan elevado que pueden calentar el gas que rodea a una estrella que colapsa, creando así una explosión de supernova.

Neutrón: Una partícula subatómica neutra que, junto con el protón, forma los núcleos de los átomos.

Núcleo: El centro diminuto de un átomo, consistente en protones y neutrones, que tiene un diámetro de aproximadamente 10−13 cm. El número de protones en un núcleo determina el número de electrones en el caparazón que rodea al núcleo, que a su vez determina las propiedades químicas del átomo.

Nucleosíntesis: La creación de núcleos superiores a partir del hidrógeno, que se inició en el big bang. De este modo, puede obtenerse la abundancia relativa de todos los elementos que se encuentran en la naturaleza. Es una de las tres «pruebas» del big bang. Los elementos superiores son cocinados en el centro de las estrellas. Los elementos más allá del hierro son cocinados en la explosión de una supernova.

Omega: El parámetro que mide la densidad media de la materia en el universo. Si Lambda = 0 y Omega es menos de 1, el universo se expandirá eternamente hasta la gran congelación. Si Omega es mayor que 1, hay bastante materia para invertir la expansión en una gran implosión. Si Omega es igual a 1, el universo es plano.

Onda de gravedad: Una onda de gravedad, predicha por la teoría de la relatividad general de Einstein. Esta onda ha sido indirectamente medida observando el envejecimiento de los púlsares que giran uno alrededor de otro.

Paradoja del abuelo: En las historias de viajes en el tiempo, es la paradoja que surge cuando se altera el pasado haciendo imposible el presente. Si uno se remonta en el tiempo y mata a sus padres antes de nacer, su existencia se hace imposible. Esta paradoja puede resolverse o bien imponiendo una coherencia, de modo que pueda viajarse hacia el pasado pero no pueda cambiarse arbitrariamente, o bien imaginando universos paralelos.

Paradoja del gato de Schrödinger: La paradoja que plantea si un gato puede estar muerto y vivo al mismo tiempo. Según la teoría cuántica, un gato en una caja puede estar muerto y vivo simultáneamente, al menos hasta que realicemos una observación, lo cual parece absurdo. Tenemos que añadir la función de onda de un gato en todos los estados posibles (muerto, vivo, corriendo, durmiendo, comiendo, etcétera) hasta que se haga una medición. Hay dos maneras principales de resolver la paradoja: o bien partiendo de la base de que el estado consciente determina la existencia, o bien suponiendo un número infinito de mundos paralelos.

Paradoja de Olbers: La paradoja que pregunta por qué el cielo de noche es negro. Si el universo es infinito y uniforme, deberíamos recibir luz de un número infinito de estrellas y, por tanto, el cielo debería ser blanco, lo que contradice la observación. Esta paradoja se explica por el big bang y el tiempo de vida finito de las estrellas. El big bang pone un límite a la llegada de la luz a nuestros ojos desde el espacio profundo.

Partículas virtuales: Partículas que entran y salen del vacío velozmente. Violan las leyes conocidas de la conservación pero sólo durante un breve periodo de tiempo, mediante el principio de incertidumbre. Las leyes de conservación funcionan entonces como media en el vacío. Las partículas virtuales pueden convertirse a veces en partículas reales si se añade suficiente energía al vacío. A escala microscópica, estas partículas virtuales pueden incluir agujeros de gusano y universos recién nacidos.

Planeta extrasolar: Un planeta que orbita alrededor de una estrella distinta de la nuestra. Se han detectado más de cien de estos planetas, a un ritmo aproximado de dos por mes. La mayoría de ellos, desgraciadamente, son como Júpiter y no son favorables a la creación de vida. En pocas décadas se enviarán satélites al espacio exterior para identificar planetas extrasolares como la Tierra.

Potencias de diez: Anotación manual utilizada por los científicos para expresar números muy grandes o muy pequeños. Así, 10n significa 1 seguido de n ceros. Mil es, por tanto, 103. También, 10−n significa el inverso de 10n, es decir, 0,0…001, donde hay n−1 ceros. Una milésima es, por tanto, 10−3 o 0,001.

Presión por degeneración de electrones: En una estrella moribunda, es la fuerza repulsiva que impide que los electrones o neutrones colapsen completamente. En el caso de una enana blanca, eso significa que su gravedad puede superar esta fuerza si su masa es superior a 1,4 masas solares. Es una fuerza causada por el principio de exclusión de Pauli, que establece que dos electrones no pueden ocupar exactamente el mismo estado cuántico. Si la gravedad es lo bastante grande para superar esta fuerza en una enana blanca, se colapsará y después explotará.

Principio antrópico: El principio que propugna que las constantes de la naturaleza están ajustadas para permitir la vida y la inteligencia. El principio antrópico fuerte concluye que se necesita una inteligencia de algún tipo para ajustar las constantes físicas de modo que permitan la inteligencia. El principio antrópico débil establece simplemente que las constantes de la naturaleza deben ajustarse para permitir la inteligencia (de otro modo no existiría), pero deja abierta la cuestión de qué o quién hizo el ajuste. Experimentalmente, vemos que, en realidad, las constantes de la naturaleza parecen estar bien ajustadas para permitir la vida e incluso la conciencia. Mientras algunos creen que esto es la señal de un creador cósmico, otros creen que es una señal del multiverso.

Principio de incertidumbre: El principio que establece que no puede conocerse la localización y velocidad de una partícula con precisión infinita. La incertidumbre de la posición de una partícula, multiplicada por la incertidumbre de su momento, debe ser mayor que o igual a la constante de Planck dividida por 2. El principio de incertidumbre es el componente más esencial de la teoría cuántica e introduce la probabilidad en el universo. A través de la nanotecnología, los físicos pueden manipular los átomos individuales a voluntad y, de este modo, comprobar en el laboratorio el principio de incertidumbre.

Problema de la jerarquía: Mezcla problemática que se produce entre la física de baja energía y la física de la longitud de Planck en las teorías GUT, haciendo que resulten inútiles. El problema de la jerarquía puede resolverse incorporando la supersimetría.

Problema del horizonte: El misterio de por qué el universo es tan uniforme miremos hacia dónde miremos. Incluso las regiones del cielo nocturno en lados opuestos del horizonte son uniformes, lo que es extraño porque podrían no haber tenido contacto térmico al principio del tiempo (puesto que la luz tiene una velocidad finita). El problema puede explicarse si el big bang tomó un pequeño pedazo uniforme y luego lo infló hasta el universo del presente.

Problema del universo plano: El ajuste preciso necesario para obtener un universo plano. A fin de que Omega sea aproximadamente igual a 1, tiene que haber un ajuste de una precisión increíble en el instante del big bang. Los experimentos actuales demuestran que el universo es plano, por lo que o bien fue ajustado con precisión en el big bang, o bien el universo se infló y eso lo aplanó.

Protón: Partícula subatómica cargada positivamente que, junto con los neutrones, forma los núcleos de los átomos. Son estables, pero la teoría GUT predice que pueden descomponerse durante un largo periodo de tiempo.

Puente de Einstein-Rosen: Un agujero de gusano formado por la unión de dos soluciones de agujero negro. Originariamente, la solución tenía como objetivo representar una partícula subatómica, como el electrón, en la teoría del campo unificado de Einstein. Desde entonces, se ha utilizado para describir el espacio-tiempo cerca del centro de un agujero negro.

Púlsar: Una estrella de neutrones giratoria. Como es irregular, parece un faro giratorio y tiene el aspecto de una estrella intermitente.

Quark: Una partícula subatómica que compone el protón y el neutrón. Tres quarks forman un protón o neutrón, y un par de quark y antiquark forman un mesón. Los quarks, a su vez, forman parte del modelo estándar.

Quásar: Objeto casi estelar. Son galaxias inmensas formadas poco después del big bang. Tienen grandes agujeros negros en el centro. El hecho de que no veamos quásares hoy en día contribuyó a rebatir la teoría del estado estacionario, según la cual el universo de hoy es similar al de hace miles de millones de años.

Radiación coherente: Radiación que está sincronizada con ella misma. Puede hacerse que la radiación coherente, como la que se encuentra en un rayo láser, interfiera consigo misma produciendo unas pautas de interferencia que pueden detectar pequeñas desviaciones de movimiento o posición. Es útil en los interferómetros y los detectores de ondas de gravedad.

Radiación de cuerpo negro: La radiación emitida por un objeto caliente en equilibrio térmico con su entorno. Si tenemos un objeto hueco (un cuerpo negro), lo calentamos, esperamos a que alcance el equilibrio térmico y perforamos en él un pequeño agujero, la radiación emitida por el agujero será radiación de cuerpo negro. Tanto el Sol como un badil caliente y el magma líquido emiten aproximadamente una radiación de cuerpo negro. La radiación tiene una frecuencia específica que es fácilmente medible mediante un espectrómetro. La radiación de fondo de microondas que llena el universo obedece a esta fórmula de radiación de cuerpo negro, dando así una prueba concreta del big bang.

Radiación del fondo cósmico de microondas: La radiación residual dejada por el big bang que todavía circula por el universo y que predijo por primera vez en 1948 George Gamow y su grupo. La temperatura es de 2,70 K (es decir, 2,7 grados por encima del cero absoluto). Su descubrimiento por parte de Penzias y Wilson brindó la «prueba» más convincente del big bang. Hoy en día, los científicos miden desviaciones diminutas dentro de esta radiación de fondo para encontrar pruebas de la teoría de la inflación u otras.

Radiación de Hawking: La radiación que se evapora lentamente de un agujero negro. Esta radiación tiene forma de radiación de cuerpo negro, con una temperatura específica, y se debe al hecho de que las partículas cuánticas pueden penetrar en el campo gravitacional que rodea a un agujero negro.

Radiación de infrarrojos: Radiación de calor o radiación electromagnética situada a una frecuencia ligeramente por debajo de la de la luz visible.

Radio de Schwarzschild: El radio del horizonte de sucesos, o el punto de no retorno de un agujero negro. Para el Sol, el radio de Schwarzschild es aproximadamente de tres kilómetros. Una vez la estrella se comprime dentro de su horizonte de sucesos, colapsa en un agujero negro.

Relatividad: Las teorías especial y general de Einstein. La primera teoría está relacionada con la luz y el espacio-tiempo plano de cuatro dimensiones. Se basa en el principio de que la velocidad de la luz es constante en todos los marcos inerciales. La segunda teoría trata de la gravedad y el espacio curvado. Se basa en el principio de que los marcos en gravitación y aceleración son indistinguibles. La combinación de la relatividad con la teoría cuántica representa la suma total de todo el conocimiento físico.

Relatividad especial: La teoría de 1905 de Einstein basada en la constancia de la velocidad de la luz. Entre sus consecuencias: el tiempo se reduce, la masa aumenta y las distancias se encogen cuanto más rápido se mueve uno. Además, la materia y la energía están relacionadas mediante E = mc2. Una consecuencia de la relatividad especial es la bomba atómica.

Relatividad general: Teoría de la gravedad de Einstein. En lugar de tratarse de una fuerza, en la teoría de Einstein la gravedad queda reducida a un subproducto de la geometría, de modo que la curvatura espacio-tiempo produce la ilusión de que hay una fuerza de atracción llamada gravedad. Se ha verificado experimentalmente con una precisión superior al 99,7% y predice la existencia de agujeros negros y del universo en expansión. Sin embargo, la teoría se viene abajo en el centro de un agujero negro o en el instante de la creación, donde sus predicciones pierden sentido. Para explicar estos fenómenos, debe recurrirse a la teoría cuántica.

Ruptura de simetría: La violación de una simetría encontrada en la teoría cuántica. Se cree que el universo tenía una simetría perfecta antes del big bang. Desde entonces, el universo se ha enfriado y ha envejecido y, por tanto, las cuatro fuerzas fundamentales y sus simetrías se han deteriorado. Hoy en día, el universo está horriblemente roto, con todas las fuerzas separadas unas de otras.

Salto cuántico: Un cambio súbito en el estado de un objeto que no podría producirse clásicamente. Los electrones dentro de un átomo realizan saltos cuánticos entre órbitas, liberando o absorbiendo luz en el proceso. El universo podría haber dado un salto cuántico de la nada al universo que tenemos hoy en día.

Simetría: Una remodelación o redisposición de un objeto que lo deja sin variación o idéntico. Los cristales de nieve, sometidos a una rotación de un múltiplo de 60°, no tienen variación. Los círculos no sufren variación bajo rotación del ángulo que sea. El modelo quark permanece sin variación bajo una redistribución de los tres quarks, dando una simetría de SU (3). Las cuerdas no varían bajo la supersimetría ni bajo las deformaciones conformales de su superficie. La simetría es crucial en la física porque ayuda a eliminar muchas de las divergencias encontradas en la teoría cuántica.

Singularidad: Un estado de gravedad infinita. En la relatividad general, se predice la existencia de singularidades en el centro de los agujeros negros y en el instante de la creación, bajo condiciones muy generales. Se cree que representan una ruptura de la relatividad general, que obliga a introducir una teoría cuántica de la gravedad.

Supernova: Una estrella en explosión. Son tan energéticas que a veces pueden eclipsar a una galaxia. Hay varios tipos de supernovas, de los que el más interesante es el tipo Ia. Se pueden utilizar como candelas estándar para medir las distancias galácticas. Las supernovas de tipo Ia se forman cuando una estrella blanca enana envejecida roba materia de su compañera y sobrepasa el límite de Chandrasekhar, lo cual provoca su colapso y posterior explosión.

Supernova de tipo Ia: Una supernova que a menudo se usa como candela estándar. Esta supernova tiene lugar en un sistema de doble estrella, en el que una estrella blanca enana sorbe lentamente materia de su estrella compañera, sobrepasando el límite de Chandrasekhar de 1,4 masas solares y explotando.

Supersimetría: La simetría que intercambian fermiones y bosones. Esta simetría resuelve el problema de jerarquía y también ayuda a eliminar las divergencias que quedan dentro de la teoría de las supercuerdas. Significa que todas las partículas del modelo estándar tienen que tener sus partículas correspondientes, llamadas «spartículas», que hasta el momento no han sido observadas en el laboratorio. La supersimetría en principio puede unificar todas las partículas del universo en un solo objeto.

Teoría del campo unificado: La teoría buscada por Einstein que unificaría todas las fuerzas de la naturaleza en una sola teoría coherente. Hoy en día el principal candidato de la teoría es la de cuerdas o la teoría M. Einstein creía en un principio que esta teoría del campo unificado podría incluir tanto la relatividad como la teoría cuántica en una teoría superior que no requeriría probabilidades. Sin embargo, la teoría de cuerdas es una teoría cuántica y, por tanto, introduce probabilidades.

Teoría de Kaluza-Klein: La teoría de Einstein formulada en cinco dimensiones. Cuando se reduce a cuatro dimensiones, encontramos la teoría habitual de Einstein asociada a la teoría de la luz de Maxwell. Así, ésta fue la primera unificación no trivial de luz con gravitación. Hoy, la teoría de Kaluza- Klein está incorporada a la teoría de cuerdas.

Teoría de la cuerda heterótica: La teoría de la cuerda más realista físicamente. Su grupo de simetría es E (8) × E (8), que es lo bastante grande como para incorporar la simetría del modelo estándar. Mediante la teoría M, puede demostrarse que la cuerda heterótica es equivalente a las otras cuatro teorías de cuerdas.

Teoría de la perturbación: El proceso mediante el cual los físicos resuelven teorías cuánticas acumulando un número infinito de pequeñas correcciones. Casi todo el trabajo en la teoría de cuerdas se hace a través de la teoría de la perturbación de las cuerdas, pero algunos de los problemas más interesantes están fuera del alcance de la teoría de la perturbación, como la rotura de la supersimetría. Así, necesitamos métodos que no sean de perturbación para resolver la teoría de cuerdas, métodos que en el momento presente no existen realmente de ningún modo sistemático.

Teoría de cuerdas: La teoría basada en pequeñas cuerdas vibratorias, en la que cada modo de vibración corresponde a una partícula subatómica. Es la única teoría que puede combinar la gravedad con la teoría cuántica, convirtiéndola en la candidata principal para una teoría del todo. Sólo es matemáticamente coherente en diez dimensiones. Su última versión es la llamada teoría M, que se define en once dimensiones.

Teoría del estado estacionario: La teoría que establece que el universo no tuvo un comienzo, sino que genera constantemente nueva materia a medida que se expande, manteniendo la misma densidad. Esta teoría ha quedado desacreditada por varias razones, siendo una de ellas el descubrimiento de la radiación de fondo de microondas. Además, se encontró que los quásares y las galaxias tienen distintas fases evolutivas.

Telescopio de rayos X Chandra: Telescopio de rayos X en el espacio exterior que observa emisiones de rayos X en los cielos, como los emitidos por un agujero negro o una estrella de neutrones.

Teoría cuántica: La teoría de la física subatómica. Es una de las teorías más exitosas de todos los tiempos. La teoría cuántica y la teoría de la relatividad agrupan todo el conocimiento físico a un nivel fundamental. En líneas generales, la teoría cuántica se basa en tres principios: (1) la energía se encuentra en paquetes discretos llamados «cuantos»; (2) la materia se basa en partículas puntuales, pero la probabilidad de encontrarlas la da una onda que obedece a la ecuación de ondas de Schrödinger; (3) se necesita una medición para colapsar la onda y determinar el estado final de un objeto. Los postulados de la teoría cuántica son el inverso de los postulados de la relatividad general, que es determinista y se basa en superficies lisas. Combinar la relatividad y la teoría cuántica es uno de los mayores problemas con los que se enfrenta la física en la actualidad.

Teoría de muchos mundos: La teoría cuántica que establece que todos los universos cuánticos posibles pueden existir simultáneamente. Resuelve el problema del gato de Schrödinger estableciendo que el universo se divide en cada coyuntura cuántica y, por tanto, el gato está vivo en un universo y muerto en otro. Recientemente, un número cada vez mayor de físicos ha expresado su apoyo a la teoría de muchos mundos.

Teoría M: La versión más avanzada de la teoría de cuerdas. La teoría M existe en un hiperespacio de once dimensiones, donde pueden existir dos-branas y cinco-branas. La teoría M puede ser reducida de cinco maneras a diez dimensiones, dándonos así las cinco teorías de supercuerdas conocidas, que ahora se ha revelado que son la misma teoría. Las ecuaciones completas de la teoría M son totalmente desconocidas.

Termodinámica: La física del calor. Hay tres leyes de la termodinámica: (1) la cantidad total de materia y energía se conserva, (2) la entropía total siempre aumenta y (3) no puede alcanzarse el cero absoluto. La termodinámica es esencial para entender cómo podría morir el universo.

Universo de De Sitter: Una solución cosmológica de las ecuaciones de Einstein que se expande exponencialmente. El término dominante es una constante cosmológica que crea esta expansión exponencial. Se cree que el universo estaba en una fase de De Sitter durante la inflación y que ha vuelto lentamente a una fase de De Sitter durante los últimos siete mil millones de años, creando un universo en aceleración. Se desconoce el origen de esta expansión de De Sitter.

Universo de Friedmann: La solución cosmológica más general de las ecuaciones de Einstein basada en un universo uniforme, isotrópico y homogéneo. Se trata de una solución dinámica, en la que el universo puede expandirse hacia una gran congelación, colapsar en una gran implosión o inflarse eternamente, dependiendo del valor de Omega y Lambda.

Vacío: Espacio vacío. Pero el espacio vacío, según la teoría cuántica, está repleto de partículas subatómicas virtuales que duran sólo una fracción de segundo. El término también se utiliza para describir la energía más baja de un sistema. Se cree que el universo pasó de un estado de falso vacío al verdadero vacío de hoy.

Variable Cefeida: Una estrella cuya luminosidad varía rítmicamente a un ritmo concreto calculable y, por tanto, sirve como indicador de distancia en mediciones astronómicas. Las variables Cefeidas ayudaron a Hubble de manera decisiva a calcular la distancia a las galaxias.

Zona de Goldilocks: La estrecha banda de parámetros en la que la vida inteligente es posible. En esta banda, la Tierra y el universo son «perfectos» para crear los productos químicos necesarios para la vida inteligente. Se han descubierto varias zonas de Goldilocks en las constantes físicas del universo, así como en las propiedades de la Tierra.

WIMP: Partícula masiva de interacción débil. Se conjetura que las WIMP forman la mayor parte de la materia oscura del universo. El principal candidato para las WIMP son las spartículas predichas por la teoría de cuerdas.

Lecturas recomendadas

  1. Adams, Douglas. The Hitchhiker's Guide to the Galaxy. Nueva York: Pocket Books, 1979. (Hay traducción española de Benito Gómez Ibáñez: Guía del autoestopista galáctico. Anagrama, 2005).
  2. Adams, Fred, y Greg Laughlin. The Five Ages of the Universe: Inside the Physics of Eternity. Nueva York: The Free Press, 1999.
  3. Anderson, Poul. Tau Zero. Londres: Victor Gollancz, 1967. (Hay traducción española de Pedro Jorge Romero: Tau cero. Ediciones B, 1997).
  4. Asimov, Isaac. The Gods Themselves. Nueva York: Bantam Books, 1972. (Hay traducción española de Pilar Giralt: Los propios dioses. Planeta, 1984).
  5. Barrow, John D. The Artful Universe. Nueva York: Oxford University Press, 1995. (Citado como Barrow 2). (Hay traducción española de Javier García Sanz: El universo como obra de arte. Crítica, 2007).
    The Universe That Discovered Itself. Nueva York: Oxford University Press, 2000. (Citado como Barrow 3).
  6. Barrow, John D. y F. Tipler. The Anthropic Cosmological Principle. Nueva York: Oxford University Press, 1986. (Citado como Barrow 1).
  7. Bartusiak, Marcia. Einstein's Unfinished Symphony: Listening to the Sounds of Space-time. Nueva York: Berldey Books, 2000. (Hay traducción española de Teresa Bosch: La sinfonía inacabada de Einstein. Océano, 2002).
  8. Bear, Greg. Eon. Nueva York: Tom Doherty Associates Books, 1985. (Hay traducción española de Roger Vázquez de Parga: Eón. Ediciones B, 1997).
  9. Bell, E. T. Men of Mathematics. Nueva York: Simon and Schuster, 1937. (Hay traducción española: Los grandes matemáticos. Losada, Buenos Aires, 1948).
  10. Bernstein, Jeremy. Quantum Profiles. Princeton, N. J: Princeton University Press, 1991.
  11. Brian, Denis. Einstein: A Life. Nueva York: John Wiley, 1996. (Hay traducción española: Einstein. Ed. Acento, 2004).
  12. Brownlee, Donald y Peter D. Ward. Rare Earth. Nueva York: Springer-Verlag, 2000.
  13. Calaprice, Alice, ed. The Expanded Quotable Einstein. Princeton: Princeton University Press, 2000.
  14. Chown, Marcus. The Universe Next Door: The Making of Tomorrow's Science. Nueva York: Oxford University Press, 2002. (Hay traducción española de Fernando Pardo Gella: El universo vecino. La Liebre de Marzo, 2005).
  15. Cole, K. C. The Universe in a Teacup. Nueva York: Harcourt Brace, 1998. (Hay traducción española de Guillermo Solana: El universo y la taza de té: las matemáticas de la verdad y la belleza. Ediciones B, 1999).
  16. Crease, Robert y Charles Mann. The Second Creation: Makers of the Revolution in Twentieth-Century Physics. Nueva York: Macmillan, 1986.
  17. Croswell, Ken. The Universe at Midnight: Observations Illuminating the Cosmos. Nueva York: The Free Press, 2001.
  18. Davies, Paul. How to Build a Time Machine. Nueva York: Penguin Books, 2001. (Citado como Davies 1).
  19. Davies, P. C. W. y J. Brown. Superstrings: A Theory of Everything. Cambridge, U. K.: Cambridge University Press, 1988. (Citado como Davies 2). (Hay traducción española de Tomás Ortín: Supercuerdas, ¿una teoría de todo? Alianza, 1995).
  20. Dick, Philip K. The Man in the High Castle. Nueva York: Vintage Books, 1990. (Hay edición española de Manuel Figueroa: El hombre en el castillo, Minotauro, 1994).
  21. Dyson, Freeman. Imagined Worlds. Cambridge, Mass.: Harvard University Press, 1998.
  22. Folsing, Albrecht. Albert Einstein. Nueva York: Penguin Books, 1997·
  23. Gamow, George. My World Line: An Informal Biography. Nueva York: Viking Press, 1970. (Citado como Gamow 1).
    One, Two, Three… Infinity . Nueva York: Bantam Books, 1961. (Citado como Gamow 2). (Hay traducción española de Carlos E. Prelat: Uno, dos, tres… infinito. RBA, 1993).
  24. Goldsmith, Donald. The Runaway Universe. Cambridge, Mass.: Perseus Books, 2000.
  25. Goldsmith, Donald y Neil de Grasse Tyson. Origins. Nueva York: W. W. Norton, 2004.
  26. Gott, J Richard. Time Travel in Einstein's Universe. Boston: Houghton Mifflin Co., 2001. (Hay traducción española de Luis Enrique Juan Vidales: Los viajes en el tiempo y el universo de Einstein. Tusquets, 2003).
  27. Greene, Brian. The Elegant Universe: Superstrings, Hidden Dimensions, and the Quest for the Ultimate Theory. Nueva York: W. W. Norton, 1999. (Citado como Greene 1).
    The Fabric of the Cosmos . Nueva York: W. W. Norton, 2004 (Hay traducción española: El tejido del cosmos. Crítica, Barcelona, 2006).
  28. Gribbin, John. In Search of the Big Bang: Quantum Physics and Cosmology. Nueva York: Bantam Books, 1986.
  29. Guth, Alan. The Inflationary Universe. Reading, Penn.: Addison Wesley, 1997. (Hay traducción española de Fabián Chueca: El universo inflacionario. Debate, 1999).
  30. Hawking, Stephen W., Kip S. Thorne, Igor Novikov, Timothy Ferris y Alan Lightman. The Future of Space-time. Nueva York: W. W. Norton, 2002. (Hay traducción española: El futuro del espaciotiempo, Crítica, Barcelona, 2002).
  31. Kaku, Michio. Beyond Einstein: The Cosmic Quest for the Theory of the Universe. Nueva York: Anchor Books, 1995. (Citado como Kaku 1). (Hay traducción española de Víctor Zabalza de Torres: El universo de Einstein: cómo la visión de Albert Einstein transformó nuestra comprensión del espacio y el tiempo. Antoni Bosch Editor, 2005).
    Hyperspace: A Scientific Odyssey Through Time Warps, and the Tenth Dimension . Nueva York: Anchor Books, 1994. (Citado como Kaku 2). (Hay traducción española de Javier García Sánchez: Hiperespacio: una odisea científica a través de universos paralelos, distorsiones del tiempo y la décima dimensión. Crítica, 1996).
    Quantum Field Theory . Nueva York: Oxford University Press, 1993. (Citado como Kaku 3).
  32. Kirshner, Robert P. Extravagant Universe: Exploding Stars, Dark Energy, and the Accelerating Universe. Princeton, N. J.: Princeton University Press, 2002. (Hay traducción española de Luis Enrique Juan Vidales: El universo extravagante: estrellas explosivas, energía oscura y cosmos acelerado. Siruela, 2006).
  33. Kowalski, Gary. Science and the Search for God. Nueva York: Lantern Books, 2003.
  34. Lemonick, Michael D. Echo of the Big Bang. Princeton: Princeton University Press, 2003.
  35. Lightman, Alan, y Roberta Brawer. Origins: The Lives and Wodds of Modern Cosmologists. Cambridge, Mass.: Harvard University Press, 1990.
  36. Margenau, H. y Varghese, R. A., eds. Cosmos, Bias, Theos. La Salle, Ill.: Open Court, 1992.
  37. Nahin, Paul J. Time Machines: Time Travel in Physics, Metaphysics, and Science Fiction. Nueva York: Springer-Verlag, 1999.
  38. Niven, Larry. N-Space. Nueva York: Tom Doherty Associates Books, 1990.
  39. Pais, A. Einstein Lived Here. Nueva York: Oxford University Press, 1994. (Citado como Pais 1).
    Subtle Is the Lord . Nueva York: Oxford University Press, 1982. (Citado como Pais 2).
  40. Parker, Barry. Einstein's Brainchild. Amherst, N.Y.: Prometheus Books, 2000. (Hay traducción española de José Casas: El sueño de Einstein . Cátedra, 1990).
  41. Petters, A. O., H. Levine, J. Wambsganss. Singularity Theory and Gravitational Lensing. Boston: Birkhauser, 2001.
  42. Polkinghorne, J. C. The Quantum World. Princeton, NJ.: Princeton University Press, 1984.
  43. Rees, Martin. Before the Beginning: Our Universe and Others. Reading, Mass.: Perseus Books, 1997. (Citado como Rees 1). (Hay traducción española de Néstor Herrán: Antes del principio: el cosmos y otros universos. Tusquets, 1999).
    Just Six Numbers: The Deep Forces that Shape the Universe . Reading, Mass.: Perseus Books, 2000. (Citado como Rees 2). (Hay traducción española de Fernando Velasco: Seis números nada más. Debate, 2001).
    Our Final Hour . Nueva York: Perseus Books, 2003. (Citado como Rees 3). (Hay traducción española de Lluís Riera Rey: Nuestra hora final. Crítica, 2004).
  44. Sagan, Carl. Carl Sagan's Cosmic Connection. Nueva York: Cambridge University Press, 2000. (Hay traducción española de Jaime Piñeiro: La conexión cósmica. Orbis, 1987).
  45. Schilpp, Paul Arthur. Albert Einstein: Philosopher-Scientist. Nueva York: Tudor Publishing, 1951.
  46. Seife, Charles. Alpha and Omega: The Search for the Beginning and End of the Universe. Nueva York: Viking Press, 2003.
  47. Silk, Joseph. The Big Bang. Nueva York: W. H. Freeman, 2001.
  48. Smoot, George y Davidson, Keay. Wrinkles in Time. Nueva York: Avon Books, 1993. (Hay traducción española de Néstor Míguez y Jonio González: Arrugas en el tiempo. Plaza & Janés, 1994).
  49. Thorne, Kip S. Black Holes and Time Warps: Einstein's Outrageous Legacy. Nueva York: W. W. Norton, 1994. (Hay traducción española de Rafael García Sanz: Agujeros negros y tiempo curvo: el escandaloso legado de Einstein. Crítica, 1995).
  50. Tyson, Neil deGrasse. The Sky Is Not the Limit. Nueva York: Doubleday, 2000.
  51. Weinberg, Steve. Dreams of a Final Theory: The Search for the Fundamental Laws of Nature. Nueva York: Pantheon Books, 1992. (Citado como Weinberg 1). (Hay traducción española: El sueño de una teoría final. Crítica, Barcelona, 1994).
    Facing Up: Science and Its Cultural Adversaries . Cambridge, Mass.: Harvard University Press, 2001. (Citado como Weinberg 2). (Hay traducción española: Plantar cara. Paidós. Barcelona, 2003).
    The First Three Minutes: A Modern View of the Origin of the Universe . Nueva York: Bantam New Age, 1977. (Citado como Weinberg 3). (Hay traducción española: Los tres primeros minutos del universo. Alianza, 1980).
  52. Wells, H. G. The Invisible Man. Nueva York: Dover Publications, 1992. (Citado como Wells 1). (Hay traducción española de Julio Gómez de la Serna: El hombre invisible. Anaya, 2001).
    The Wonderful Visit @. North Yorkshire, U.K.: House of Status, 2002. (Citado como Wells 2).
  53. Wilczek, Frank. Longing for Harmonies: Themes and Variations from Modern Physics. Nueva York: W.W. Norton, 1988.
  54. Zee, A. Einstein's Universe. Nueva York: Oxford University Press, 1989.

Notas:
[1] www.space.com. 11 de febrero de 2003.
[2] Croswell, p. 181.
[3] Croswell, p. 173
[4] www.space.com. 11 de febrero 2003
[5] www.space.com. 15 de enero de 2002.
[6] New York Times, 12 de febrero de 2003, p. A34.
[7] Lemonick, p. 53.
[8] New York Times, 29 de octubre de 2002, p. D4.
[9] Rees, p. 3.
[10] New York Times, 18 de febrero de 203, p. F1.
[11] Rothman, Tony. Discover, julio de 1987, p. 87.
[12] Hawking, p. 88.
[13] Bell, p. 105.
[14] Silk, p. 9.
[15] Croswell, p. 8.
[16] Croswell, p. 6.
[17] Smoot, p. 28.
[18] Croswell, p. 10.
[19] New York Times, 10 de marzo de 2004, p. A1.
[20] New York Times, 10 de marzo de 2004, p. A1.
[21] País 2, p. 41.
[22] Schilpp, p. 53.
[23] La contracción de objetos que avanzan a una velocidad cercana a la de la luz fue descubierta por Hendrik Lorentz y George Francis FitzGerald poco antes que Einstein, pero no entendieron este efecto. Intentaron analizar el efecto en un marco puramente newtoniano, partiendo de la base de que la contracción era una compresión electromecánica de los átomos provocada al pasar por el «viento espacial». El poder de las ideas de Einstein era que no sólo obtuvo toda la teoría de la relatividad especial a partir de un principio (la constancia de la velocidad de la luz), sino que lo interpretó como un principio universal de la naturaleza que contradecía la teoría newtoniana. Así, estas distorsiones eran propiedades inherentes del espacio-tiempo, más que distorsiones electromecánicas de la materia. El gran matemático francés Henri Poincaré quizá se acercó más a derivar la misma ecuación que Einstein. Pero sólo Einstein obtuvo la serie completa de ecuaciones y la profunda perspicacia física para enfocar el problema.
[24] País 2, p. 239.
[25] Folsing, p. 444.
[26] Parker, p. 126.
[27] Brian, p. 102.
[28] Cuando el gas se expande, se enfría. En nuestra nevera, por ejemplo, una tubería conecta el interior y el exterior de la cámara. Cuando el gas entra en la nevera, se expande, lo que enfría la tubería y los alimentos. Al salir del recinto de la nevera, la tubería se contrae y, por tanto, se calienta. Hay un compresor electromecánico que conduce el gas a través de la tubería. Así, la parte de detrás de la nevera se calienta, mientras el interior se enfría. Las estrellas funcionan al revés. Cuando la gravedad comprime la estrella, ésta se calienta, hasta que alcanza las temperaturas de fusión.
[29] Lemonick, p. 26.
[30] Croswell, p. 37.
[31] Smoot, p. 61.
[32] Gamow 1, p. 14.
[33] Croswell, p. 39.
[34] Gamow 2, p. 100.
[35] Croswell, p. 40.
[36] New York Times, 29 de abril de 2003, p. F3.
[37] Gamow 1, p. 142.
[38] Croswell, p. 41.
[39] Croswell, p. 42.
[40] Croswell, p. 42.
[41] Croswell, p. 43.
[42] Croswell, pp. 45-46.
[43] Croswell, p. 111. Sin embargo, la quinta y última charla de Hoyle fue la más controvertida, porque criticó la religión. (Hoyle dijo en una ocasión, con su brusquedad característica, que la solución al problema de Irlanda del Norte era meter en la cárcel a todos los curas y clérigos. «Ninguna de las discusiones religiosas que he visto o he leído jamás vale la muerte de un solo niño», dijo. Croswell, p. 43).
[44] Gamow 1, p. 127.
[45] Croswell, p. 63.
[46] Croswell, pp. 63-64.
[47] Croswell, p. 101.
[48] Le produjo gran indignación haber sido ignorado cuando concedieron el premio Nobel… Aunque Zwicky, hasta el día de su muerte, expresó su amargura porque se ignoraban sus descubrimientos científicos, Gamow mantuvo silencio en público sobre la cuestión del Nobel, si bien en cartas privadas expresó su gran decepción. En lugar de quejarse, Gamow aplicó su considerable talento científico y creatividad a la investigación del ADN y descifró uno de los secretos de cómo la naturaleza hace aminoácidos a partir del ADN. El premio Nobel James Watson reconoció su contribución al poner el nombre de Gamow en el título de su reciente autobiografía.
[49] Croswell, p. 91.
[50] Scientific American, julio de 1992, p. 17.
[51] Cole, p. 43.
[52] Guth, p. 30.
[53] Guth, pp. 186-87.
[54] Guth, p. 191.
[55] Guth, p. 18.
[56] Kirschner, p. 188.
[57] Rees 1, p. 171.
[58] Croswell, p. 124.
[59] Rees 2, p. 100.
[60] Los científicos han buscado antimateria en el universo y han encontrado poca (excepto algunas corrientes de antimateria cerca del núcleo de la Vía Láctea). Como la materia y la antimateria son prácticamente indistinguibles y obedecen a las mismas leyes de la física y la química, es bastante difícil distinguirlas. Sin embargo, una manera es buscar las emisiones características de rayos gamma de 1,02 millones de electronvoltios. Ésta es la huella de la presencia de antimateria porque es la mínima energía que se libera cuando un electrón colisiona con un antielectrón. Pero, cuando exploramos el universo, no vemos prueba alguna de grandes cantidades de rayos gamma de 1,02 millones de electronvoltios, una indicación de que la antimateria es rara en el universo.
[61] Cale, p. 190.
[62] Scientific American, junio de 2003, p. 70.
[63] New York Times, 23 de julio de 2002, p. F7.
[64] El límite de Chandrasekhar puede ser obtenido con el siguiente razonamiento. Por un lado, la gravedad actúa para comprimir una enana blanca hasta densidades increíbles, lo que hace que los electrones de la estrella se acerquen cada vez más. Por otro lado, está el principio de exclusión de Pauli, que establece que no hay dos electrones que tengan exactamente los mismos números cuánticos describiendo su estado. Esto significa que dos electrones no pueden ocupar exactamente el mismo punto con las mismas propiedades, de modo que hay una fuerza neta que separa los electrones (además de la repulsión electrostática). Esto significa que hay una presión neta que empuja hacia fuera, impidiendo que los electrones se aplasten más uno contra otro. Por tanto, podemos calcular la masa de la enana blanca cuando estas dos fuerzas (una de repulsión y otra de atracción) se anulan exactamente una a otra, y éste es el límite de Chandrasekhar de 1,4 masas solares. En una estrella de neutrones existe un nuevo límite de Chandrasekhar de aproximadamente 3 masas solares, pues los neutrones se repelen mutuamente debido a esta fuerza. Si una estrella de neutrones sobrepasa un límite de Chandrasekhar se colapsa en un agujero negro.
[65] Croswell, p. 204.
[66] Croswell, p. 222.
[67] New York Times, 23 de julio de 2002, p. F7.
[68] Parker, p. 151.
[69] Thorne, p. 136.
[70] Thorne, p. 162.
[71] Rees 1, p. 84.
[72] Astronomy, julio de 1998, p.44.
[73] Rees 1, p. 88.
[74] Nahin, p. 81.
[75] Nahin, p. 81.
[76] Fueron de los primeros que aplicaron la mecánica cuántica a la física de agujeros negros. Según la teoría cuántica, hay una probabilidad finita de que una partícula subatómica pueda atravesar el túnel y salir del tirón gravitatorio del agujero negro y de que, por tanto, emita radiación lentamente. Es un ejemplo de tunelización.
[77] Thorne, p. 137.
[78] Nahin, p. 521.
[79] Nahin, p. 522
[80] Nahin, p. 522.
[81] Gott, p. 104.
[82] Gott, p. 104.
[83] Gott, p. 110.
[84] Hay un conocido ejemplo de paradoja sexual en una historia escrita por el filósofo británico Jonathan Harrison y publicada en 1979 en la revista Analysis. Se desafió a los lectores de la revista a que le diera un sentido. La historia empieza con una joven, Jocasta Jones, que un día encuentra un viejo congelador potente. Dentro del congelador descubre a un joven congelado vivo. Al descongelarlo, descubre que su nombre es Dum. Dum le dice que tiene un libro que describe cómo construir un congelador potente que puede conservar a los humanos y cómo construir una máquina del tiempo. Se enamoran, se casan y pronto tienen un niño, al que llaman Dee. Años más tarde, cuando Dee se ha convertido ya en un joven, sigue los pasos de su padre y decide construir una máquina del tiempo. Esta vez, tanto Dee como Dum emprenden un viaje al pasado y se llevan el libro con ellos. Sin embargo, el viaje termina trágicamente y se encuentran perdidos en el pasado distante y sin apenas comida. Consciente de que se acerca el final, Dee hace lo único que puede hacer para seguir vivo, que es matar a su padre y comérselo. A continuación, Dee decide seguir las instrucciones del libro y construir un congelador potente. Para salvarse él, entra en el congelador y queda congelado en un estado de animación suspendida. Muchos años después, Jocasta Jones encuentra el congelador y decide descongelar a Dee. Para disimular, Dee se hace llamar Dum. Se enamoran, después tienen un hijo al que llaman Dee… y el ciclo continúa. La reacción al desafío de Harrison provocó una docena de respuestas. Un lector decía que era «una historia tan extravagante en sus implicaciones que podía considerarse como un reductio ad absurdum de la dudosa presunción sobre la que yace la historia: la posibilidad del viaje en el tiempo». Vale la pena señalar que la historia no contiene una paradoja del abuelo, ya que Dee hace realidad el pasado volviendo a tiempo de encontrarse con su madre. En ningún momento Dee hace nada que imposibilite el presente. (Hay una paradoja de la información, sin embargo, ya que el libro que contiene el secreto de la animación suspendida y el viaje en el tiempo aparece de ninguna parte. Pero el libro en sí no es esencial para la historia). Otro lector apuntó una extraña paradoja biológica. Como la mitad del ADN de un individuo procede de la madre y la otra mitad del padre, esto significa que Dee tenía que tener la mitad del ADN de la señora Jones y la mitad del de su padre, Dum. Sin embargo, Dee es Dum. Por tanto, Dee y Dum han de tener el mismo ADN porque son la misma persona. Pero esto es imposible ya que, según las leyes de la genética, la mitad de los genes son de la señora Jones. Dicho de otro modo, las historias de viajes en el tiempo en las que una persona vuelve atrás en el tiempo, encuentra a su madre y se engendra a sí mismo violan las leyes de la genética. Podría pensarse que hay una escapatoria para la paradoja sexual. Si uno es capaz de convertirse en su padre y en su madre, todo su ADN procede de sí mismo. En «Todos ustedes, zombis», la historia de Robert Heinlein, una chica joven se somete a una operación de cambio de sexo y vuelve atrás en el tiempo para convertirse en su propia madre, padre, hijo e hija. Sin embargo, incluso en este cuento extraño, hay una sutil violación de las leyes de la genética. En «Todos ustedes, zombis», una joven llamada Jane vive de pequeña en un orfanato. Un día conoce a un guapo forastero y se enamora de él. Da a luz a su bebé, que es secuestrado misteriosamente. Jane tiene complicaciones durante el parto y los médicos se ven obligados a convertirla en un hombre. Años después, este hombre conoce a un viajero del tiempo, que le lleva al pasado, donde conoce a Jane de pequeña. Se enamoran y Jane se queda embarazada. A continuación él secuestra a su propio bebé y va más atrás en el pasado y deja al bebé Jane en un orfanato. Entonces Jane crece y conoce a un guapo forastero. Esta historia casi evade la paradoja sexual. La mitad de los genes son de Jane cuando era pequeña, y la otra mitad son de Jane el guapo forastero. Sin embargo, una operación de cambio de sexo no puede convertir el cromosoma X en cromosoma Y, por tanto, su historia también tiene una paradoja sexual.
[85] Hawking, pp. 84-85.
[86] Hawking, pp. 84-85
[87] En última instancia, para resolver estas complejas cuestiones matemáticas, uno tiene que ir a un nuevo tipo de física. Por ejemplo, muchos físicos, como Stephen Hawking y Kip Thorne, utilizan lo que se llama la «aproximación semiclásica», es decir, adoptan una teoría híbrida. Parten de la base de que las partículas subatómicas obedecen al principio cuántico, pero permiten que la gravedad sea plana y no cuantizada (es decir: eliminan a los gravitones de sus cálculos). Como todas las divergencias y anomalías vienen de los gravitones, la aproximación semiclásica no cae en infinitos. Sin embargo, uno puede demostrar matemáticamente que el enfoque semiclásico es incoherente; es decir, en última instancia da respuestas erróneas, por lo que no puede confiarse en los resultados de un cálculo semiclásico, especialmente en las áreas más interesantes, como el centro de un agujero negro, la entrada a una máquina del tiempo y el instante del big bang. Nótese que muchas de las «pruebas» que establecen que el viaje en el tiempo no es posible o que no puede pasarse a través del agujero negro se hicieron con un enfoque semiclásico y, por tanto, no son fiables. Ésta es la razón por la que tenemos que ir a una teoría de la gravedad cuántica como la teoría de cuerdas y la teoría M.
[88] Bartusiak, p. 62.
[89] Cole, p. 68.
[90] Cole, p. 68.
[91] Brian, p. 185.
[92] Bernstein, p. 96.
[93] Weinberg 2, p. 103.
[94] País 2, p. 318.
[95] Barrow 1, p. 185.
[96] Barrow 3, p. 143.
[97] Greene 1, p. 111.
[98] Weinberg 1, p. 85
[99] Barrow 3, p. 378.
[100] Folsing, p. 589.
[101] Folsing, p. 591; Brian, p• 199.
[102] Folsing, p. 591
[103] Kowalski, p. 156
[104] New York Herald Tribune, 12 de septiembre de 1933.
[105] New York Times, 7 de febrero de 2002, p. A12.
[106] Rees 1, p. 244.
[107] Crease, p. 67.
[108] Barrow 1, p. 458.
[109] Discover, junio de 2002, p. 48.
[110] Citado en Parallel Universes, de la BBC-TV, 2002.
[111] Wilczek, pp. 128-129
[112] Rees 1, p. 246.
[113] Bernstein, p. 131.
[114] Bernstein, p. 132.
[115] Nahin, p. 147.
[116] Wells 2, p. 20
[117] País 2, p. 179
[118] Moore, p. 432.
[119] Kaku 2, p. 137.
[120] Davies 2, p. 102.
[121] En principio, toda la teoría de cuerdas podría resumirse en función de nuestra teoría de campo de cuerdas. Sin embargo, la teoría no estaba en su forma final, ya que la manifiesta invariancia de Lorentz se rompió. Más tarde, Witten pudo escribir una elegante versión de la teoría de campo de la cuerda bosónica abierta que era covariante. Más adelante, el grupo del MIT, el de Kioto y yo pudimos construir la teoría covariante de cuerda bosónica cerrada (que, sin embargo, no era polinómica y, por tanto, era difícil trabajar con ella). Hoy en día, con la teoría M, el interés ha pasado a las membranas, aunque no está claro que pueda construirse una teoría genuina de campo de membrana.
[122] Hay en realidad varias razones por las que diez y once son los números preferidos en la teoría de cuerdas y la teoría M. En primer lugar, si estudiamos las representaciones del grupo de Lorentz en dimensiones cada vez superiores, encontramos que en general el número de fermiones crece exponencialmente con la dimensión, mientras que el número de bosones crece linealmente con la dimensión. Así, sólo en dimensiones inferiores podemos tener una teoría supersimétrica con números iguales de fermiones y bosones. Si hacemos un análisis de la teoría de grupo, encontramos un equilibrio perfecto si tenemos diez y once dimensiones (suponiendo que tenemos como máximo una partícula de spin dos, no tres o superior). Así, sobre una base teórica puramente de grupo, podemos demostrar que diez y once son las dimensiones preferidas. Hay otras maneras de demostrar que diez y once son «números mágicos». Si estudiamos los diagramas de bucle superiores, encontramos que en general no se preserva la «unitariedad», lo cual es un desastre para la teoría. Significa que las partículas pueden parecer y desaparecer como por arte de magia. Encontramos que la unitariedad se restablece con la teoría de la perturbación en estas dimensiones. También podemos demostrar que en diez y once dimensiones pueden hacerse desaparecer las artículas «fantasma». Hay partículas que no respetan las condiciones habituales de las partículas físicas. En resumen, podemos demostrar que en estos «números mágicos» podemos preservar (a) la supersimetría, (b) la finitud de la teoría de la perturbación, (c) la unitariedad de la serie de perturbación, (d) la invariancia de Lorentz, (e) la anulación de anomalía.
[123] Comunicación privada.
[124] Cuando los físicos intentan resolver una teoría compleja, a menudo utilizan la «teoría de la perturbación». La idea es resolver una teoría más simple primero y después analizar pequeñas desviaciones de esta teoría. Estas pequeñas desviaciones, a su vez, nos dan un número infinito de pequeños factores de corrección de la teoría idealizada original. Cada corrección suele llamarse un «diagrama Feynman» y puede describirse gráficamente mediante diagramas que representan todas las maneras posibles en que las distintas partículas pueden chocar una con otra. Históricamente, a los físicos les preocupaba el hecho de que los términos de la teoría de la perturbación se hagan infinitos, lo que hace inútil todo el programa. Sin embargo, Feynman y sus colegas descubrieron una serie de trucos y manipulaciones ingeniosas a través de las cuales podían barrer debajo de la alfombra estos infinitos (por lo cual le concedieron a Feynman el premio Nobel en 1965). El problema con la gravedad cuántica es que esta serie de correcciones cuánticas es en realidad infinita: cada factor de corrección equivale a infinito, aunque utilicemos la bolsa de trucos diseñada por Feynman y sus colegas. Decimos que la gravedad cuántica es «no renormalizable». En la teoría de cuerdas, esta expansión de la perturbación es en realidad finita. Ésta es la razón fundamental por la que estudiamos la teoría de cuerdas para empezar. (Hablando técnicamente, no existe una prueba absolutamente rigurosa. Sin embargo, puede mostrarse que hay infinitas clases de diagramas finitos, y se han postulado argumentos matemáticos no muy rigurosos que muestran que la teoría es probablemente finita en todos los casos). Sin embargo, la expansión de la perturbación por sí sola no puede representar el universo tal como lo conocemos, ya que la expansión de la perturbación preserva la supersimetría perfecta, lo que no vemos en la naturaleza. En el universo, vemos que las simetrías se rompen miserablemente (por ejemplo, no vemos una prueba experimental de superpartículas). Por tanto, los físicos quieren una descripción «no perturbativa» de la teoría de cuerdas, lo que es francamente difícil. De hecho, en la actualidad no hay una manera uniforme de calcular las correcciones no perturbativas de una teoría de campo cuántica. Hay muchos problemas para construir una descripción no perturbativa. Por ejemplo, si deseamos aumentar la fuerza de las interacciones en la teoría, significa que cada término de la teoría de la perturbación se hace más y más grande, de modo que la teoría de la perturbación no tiene sentido. Por ejemplo, la suma 1 + 2 + 3 + 4 +… no tiene sentido, ya que cada termino se hace más y más grande. La ventaja de la teoría M es que, por primera vez, podemos establecer resultados no perturbativos a través de la dualidad. Esto significa que puede demostrarse que el límite no perturbativo de una teoría de cuerdas sea equivalente a otra teoría de cuerdas.
[125] La teoría de cuerdas y la teoría M representan un nuevo enfoque radical de la teoría de la relatividad. Mientras Einstein construyó la relatividad general alrededor del concepto del espaciotiempo curvado, la teoría de cuerdas y la teoría M se construyen alrededor de un objeto extendido, como una cuerda o membrana, que se mueve en un espacio supersimétrico. En última instancia, sería posible vincular los dos enfoques, pero en el presente esto no se entiende bien.
[126] Discover, agosto de 1991, p. 56.
[127] Barrow 2, p. 305.
[128] Barrow 2, p. 205.
[129] Barrow 2, p. 205.
[130] A finales de la década de 1960, cuando los físicos empezaron a buscar una simetría que pudiera incluir todas las partículas de la naturaleza, la gravedad, significativamente, no fue incluida. La causa es que hay dos tipos de simetrías. Las que se encuentran en la física de partículas son las que barajan las partículas entre sí. Pero también hay otro tipo de simetría, que convierte el espacio en tiempo, y estas simetrías de espacio-tiempo se asocian con la gravedad. La teoría de la gravedad se basa no en las simetrías de intercambio de partículas puntuales, sino en las simetrías de rotaciones en cuatro dimensiones: el grupo de Lorentz en cuatro dimensiones O (3,1). En esta época, Sidney Coleman y Jeffrey Mandula demostraron un célebre teorema que establecía que era imposible casar las simetrías espacio-tiempo, que describen la gravedad, con las simetrías que describen las partículas. Este teorema que no funciona echó una jarra de agua fría sobre cualquier intento de construir una «simetría maestra» del universo. Por ejemplo, si alguien intentaba casar el grupo SU (5) de la GUT con el grupo O (3,1) de la relatividad, encontraba una catástrofe. Por ejemplo, las masas de las partículas de pronto se volvían continuas en lugar de discretas. Esto fue una decepción, porque significaba que uno no podía incluir inocentemente la gravedad en las otras interacciones apelando a una simetría superior. Esto significaba que probablemente era imposible una teoría del campo unificado. Sin embargo, la teoría de cuerdas resuelve todos estos espinosos problemas matemáticos con la simetría más potente encontrada jamás para la física de partículas: la supersimetría. En el presente, la supersimetría es la única manera conocida con la que evitar el teorema de Coleman-Mandula. (La supersimetría explota una fisura pequeña pero crucial en este teorema. Normalmente, cuando introducimos números como a o b, presumimos que a × b = b × a. Esto se asumía tácitamente en el teorema de Coleman-Mandula. Pero en la supersimetría introducimos «supernúmeros», de modo que a × b = −b × a. Estos supernúmeros tienen propiedades extrañas. Por ejemplo, si a × a = 0, entonces a puede no ser cero, lo cual suena absurdo con números ordinarios. Si insertamos supernúmeros en el teorema de Coleman-Mandula, nos encontramos con que falla).
[131] En primer lugar resuelve el problema de la jerarquía, que condena a la teoría GUT. Cuando construimos teorías del campo unificado, se nos presentan dos escalas de masa bastante diferentes. Algunas partículas, como el protón, tienen masas como las que se encuentran en la vida cotidiana. Sin embargo, otras partículas son bastante masivas y tienen energías comparables a las que se encuentran cerca del big bang, la energía de Planck. Estas dos escalas de masas han de mantenerse separadas. No obstante, cuando tomamos en consideración las correcciones cuánticas, encontramos el desastre. Debido a las fluctuaciones cuánticas, estos dos tipos de masas empiezan a mezclarse, porque hay una probabilidad finita de que una serie de partículas de luz se convierta en la otra serie de partículas pesadas, y viceversa. Esto significa que debería haber un continuo de partículas con masas que varían suavemente entre masas cotidianas y las enormes masas que se encuentran en el big bang, que nosotros claramente no vemos en la naturaleza. Aquí es donde interviene la supersimetría. Uno puede demostrar que las dos escalas de energía no se mezclan en una teoría supersimétrica. Tiene lugar un bello proceso de anulación, de modo que las dos escalas nunca interaccionan una con otra. Las condiciones de los fermiones se anulan precisamente con las condiciones de los bosones, dando resultados finitos. Que sepamos, la supersimetría puede ser la única solución al problema jerárquico. Además, la supersimetría resuelve el problema planteado por primera vez por el teorema de la década de 1960 de Coleman-Mandula, que demostró que era imposible combinar un grupo de simetría que actuase sobre los quarks, como SU (3), con una simetría que actuase sobre el espacio-tiempo, como en la teoría de la relatividad de Einstein. Así, una simetría unificadora que los uniera a ambos sería imposible, según el teorema. Esto era descorazonador, porque significaba que la unificación era matemáticamente imposible. Sin embargo, la supersimetría proporciona una sutil escapatoria a este teorema. Es uno de los muchos avances teóricos de la supersimetría.
[132] Cale, p. 174.
[133] Wilzcek, p. 138.
[134] www.edge.org, 10 de febrero de 2003.
[135] www.edge.org, 10 de febrero de 2003.
[136] Seife, p. 197.
[137] Astronomy, mayo de 2002, p. 34.
[138] Astronomy, mayo de 2002, p. 34.
[139] Astronomy, mayo de 2002, p. 34.
[140] Discover, febrero de 2004, p. 41.
[141] Astronomy, mayo de 2002, p. 39.
[142] Astronomy, mayo de 2002, p. 39.
[143] Greene 1, p. 343.
[144] Más precisamente, lo que Maldacena demostró fue que la teoría de cuerdas de tipo II, compactificada en un espacio anti-De Sitter de cinco dimensiones, era dual para una «teoría de campo conformal» de cuatro dimensiones ubicada en su límite. La esperanza original era que una versión modificada de esta extraña dualidad pudiera establecerse entre la teoría de cuerdas y la cromo dinámica cuántica (QCD) de cuatro dimensiones, la teoría de las interacciones fuertes. Si esta dualidad puede construirse, representaría un avance, porque entonces uno podría ser capaz de calcular las propiedades de las partículas de interacción fuerte, como el protón, directamente con la teoría de cuerdas. Sin embargo, en el presente esta esperanza todavía no se ha visto colmada.
[145] Scientific American, agosto de 2003, p. 65.
[146] Ibíd.
[147] Greene 1, p. 376.
[148] Brownlee y Ward, p. 222.
[149] Barrow 1, p. 37.
[150] www.sciencedaily.com. 4 de julio de 2003.
[151] www.sciencedaily.com. 4 de julio de 2003.
[152] www.sciencedaily.com. 4 de julio de 2003.
[153] Page, Don. «The Importance of the Anthropic PrincipIe», Pennsylvania State University, 1987.
[154] Margenau, p. 52.
[155] Rees 2, p. 166.
[156] New York Times, 29 de octubre de 2002, p. D4.
[157] Lightman, p. 479.
[158] Rees 1, p. 3.
[159] Rees 2, p. 56.
[160] Rees 2, p. 99.
[161] Discover, noviembre de 2000, p. 68.
[162] Discover, noviembre de 2000, p. 66.
[163] Croswell, p. (Incompleta en el original P.B.)
[164] Bartusiak, p. 55.
[165] Este cambio tiene lugar de dos maneras. Como los satélites cercanos a la Tierra viajan a 29.000 kilómetros por hora, domina la relatividad especial y, en el satélite, el tiempo se hace más lento. Esto significa que los relojes en el satélite parecen ir más lentos en comparación con los de la tierra. Pero como el satélite experimenta un campo gravitatorio más débil en el espacio exterior, el tiempo también se acelera, debido a la relatividad general. Así, según la distancia a la que se encuentra el satélite de la Tierra, los relojes del satélite o bien irán más despacio (debido a la relatividad especial), o bien más rápido (debido a la relatividad general). En realidad, a cierta distancia de la Tierra, los dos efectos se equilibrarán y el reloj del satélite irá a la misma velocidad que un reloj en la Tierra.
[166] Newsday, 17 de septiembre de 2002, p. A46.
[167] Newsday, 17 de septiembre de 2002, p. A47.
[168] Bartusiak, p. 152.
[169] Bartusiak, pp. 158-159.
[170] Bartusiak, p. 154.
[171] Bartusiak, p. 158.
[172] Bartusiak, p. 150.
[173] Bartusiak, p. 169.
[174] Bartusiak, p. 170.
[175] Bartusiak, p. 171.
[176] La radiación de fondo cósmico medida por el satélite WMAP se remonta a 379.000 años después del big bang, cuando los átomos empezaron a condensarse por primera vez después de la explosión inicial. Sin embargo, las ondas de gravedad que pueda detectar LISA se remontan a cuando la gravedad empezó a separarse de las otras fuerzas, lo que tuvo lugar cerca del instante del propio big bang. En consecuencia, algunos físicos creen que LISA podrá verificar o descartar muchas de las teorías que se proponen hoy, incluida la teoría de cuerdas.
[177] Scientific American, noviembre de 2001, p. 66.
[178] Petters, pp. 7, 11.
[179] Scientific American, noviembre de 2001, p. 68.
[180] Scientific American, noviembre de 2001, p. 68.
[181] Scientific American, noviembre de 2001, p. 69.
[182] Scientific American, noviembre de 2001, p. 70.
[183] Scientific American, marzo de 2003, p. 54.
[184] Scientific American, marzo de 2003, p. 55.
[185] Scientific American, marzo de 2003, p. 59.
[186] www.space.com. 27 de febrero de 2003.
[187] Scientific American, julio de 2000, p. 71.
[188] Scientific American, junio de 2003, p. 71.
[189] En los últimos días de sesiones sobre el destino del SSC, un congresista preguntó: ¿qué encontraremos con esta máquina? Por desgracia, la respuesta era el bosón de Higgs. Casi pudo oírse el suspiro de decepción: ¿11.000 millones de dólares sólo por una partícula más? Una de las últimas preguntas fue formulada por el diputado Harris W. Fawell (R-I11.), que preguntó: « ¿Nos ayudará esta máquina a encontrar a Dios?». El diputado Don Ritter (R-Penn.) añadió entonces: «Si esta máquina nos ayuda, voy a ir adonde sea para expresar mi apoyo» (Weinberg 1, p. 244). Lamentablemente, los congresistas no recibieron una respuesta contundente que los convenciera. Como resultado de este y otros errores de relaciones públicas, se anuló el proyecto del SSC. El Congreso de los Estados Unidos nos había dado mil millones de dólares para cavar el agujero para la máquina. Cuando se anuló el proyecto nos dio mil millones de dólares más para tapar el agujero. El Congreso, con su sabiduría, nos había dado dos mil millones de dólares para cavar un agujero y para llenarlo de nuevo, lo que lo convertía en el agujero más caro de la historia. (Personalmente, creo que el pobre físico que tuvo que responder a la pregunta sobre Dios debía haber dicho: «Honorable señor, podemos encontrar o no a Dios, pero nuestra máquina nos llevará lo más cerca que es humanamente posible de Dios, como sea que quiera llamar a la deidad. Puede revelar el secreto de su mayor acto, la creación del propio universo»).
[190] Greene 1, p. 224.
[191] Greene 1, p. 225.
[192] Kaku 3, p. 699.
[193] La ley, a su vez, significa que las «máquinas de movimiento perpetuo» que pretenden conseguir «algo a partir de nada» no son posibles con las leyes conocidas de la física.
[194] Barrow 1, p. 658.
[195] Rees 1, p. 194.
[196] Rees 1, p. 198.
[197] www.sciencedaily.com. 28 de mayo de 2003; Scientific American, agosto de 2003, p. 84.
[198] Croswell, p. 231.
[199] Croswell, p. 232.
[200] Astronomy, noviembre de 2001, p. 40.
[201] www.abcnews.com. 24 de enero de 2003.
[202] Rees 1, p. 182.
[203] Discover, julio de 1987, p. 90.
[204] Scientific American, noviembre de 1999, pp. 60-63.
[205] Scientific American, noviembre de 1999, pp. 60-63.
[206] Rees 3, p. 182.
[207] Esto también puede aplicarse a la cultura de tipo I. En muchos países del Tercer Mundo, una elite que habla tanto el idioma local como el inglés también está a la altura de lo último en la cultura y la moda occidental. Una civilización de tipo I puede ser pues bicultural, con una cultura planetaria que se extiende por todo el globo, coexistiendo con culturas y tradiciones locales. Así pues, una cultura planetaria no significa necesariamente la destrucción de las culturas locales.
[208] Scientific American, julio de 2000, p. 40.
[209] Scientific American, julio de 2000, p. 162.
[210] Scientific American, julio de 2000, p. 40.
[211] Dyson, p. 163.
[212] Es concebible que pueda haber una civilización superior que la de tipo III, que explote la potencia de la energía oscura, que constituye el 73% del contenido de material energía total del universo. Q podría ser una civilización como la de la serie de televisión Star Trek, ya que el poder de Q abarca las galaxias.
[213] Lightman, p. 169.
[214] Lightman, p. 169.
[215] Guth, p. 255.
[216] Gott, p. 126.
[217] Hawking, p. 104.
[218] En principio, este proceso podría hacerse manteniendo la conciencia. Al borrarse del cerebro algunos grupos de neuronas, se crearían redes de transistor duplicadas para reemplazarlas, ubicadas en el cráneo de un robot. Como los transistores realizan la misma función que las neuronas borradas, uno sería plenamente consciente durante este procedimiento. Así, después de terminar la operación, uno se encontraría en el cuerpo de un robot de silicio y metal.
[219] Kaku 2, p. 334.
[220] Calaprice, p. 202.
[221] Calaprice, p. 213.
[222] Kowalski, p. 97.
[223] Ibíd.
[224] Smoot, p. 24.
[225] Barrow 1, p. 106.
[226] Kowalski, p. 49.
[227] Polkinghorne, p. 66.
[228] Kowalski, p. 19.
[229] Kowalski, p. 50.
[230] Kowalski, p. 71.
[231] Kowalski, p. 71.
[232] Chown, p. 30.
[233] Weinberg 3, p. 144.
[234] Weinberg 2, p. 231.
[235] Weinberg 2, p. 43.
[236] Weinberg 2, p. 43.
[237] Kowalski, p. 60.
[238] Lightman, p. 340.
[239] Lightman, p. 377.
[240] Lightman, p. 409.
[241] Lightman, p. 409.
[242] Lightman, p. 248.
[243] Weinberg 1, p. 242.
[244] Weinberg 1, p. 245.
[245] Kowalski, p. 24.
[246] Wilczek, p. 100.
[247] Kowalski, p. 168.
[248] Kowalski, p. 148.
[249] Croswell, p. 127.