Antes del Big Bang - Martin Bojowald

Prólogo

and if he does not do it solely for his own pleasure, he is not an artist at all.
OSCAR WILDE, The Soul of Man under Socialism

Un científico encuentra muchos motivos para escribir un libro de divulgación científica, aunque también hay muchas razones para no hacerlo. Desde luego, lo primordial en toda actividad científica es y será siempre la investigación: con ella se forja una carrera profesional y se ganan premios. Todo lo demás hace perder un tiempo precioso, al menos tal como lo ven algunos colegas que se ven obligados a sopesar ventajas e inconvenientes a la hora de tomar una decisión importante.
Pero ¿para qué sirven todos los avances científicos si uno no puede transmitirlos? ¿Realmente comprendemos el universo cuando no somos capaces de explicárselo a alguien que no haya estudiado previamente una carrera de varios años? Con demasiada frecuencia resulta que el aprendizaje de una materia compleja queda limitado a la aceptación de unos conceptos fundamentales y a entrenarse para manejar unos métodos de cálculo. La auténtica prueba para saber si hemos comprendido todo surge cuando hemos de explicar nuestros conocimientos a cualquier lego de mentalidad abierta. Por ejemplo, la mecánica cuántica, a pesar de todo su éxito y sus múltiples aplicaciones tecnológicas, es difícil de entender, cosa que se podrá comprobar en el capítulo 3 de este libro. Para un científico escribir un libro de divulgación científica es, pues, un buen ejercicio, además de resultar extremadamente importante para la propia investigación.
Además, un libro de divulgación científica es el medio idóneo para mostrar la unidad de la ciencia, la literatura y las artes plásticas. En todos estos ámbitos la persona se hace una imagen del mundo e intenta transmitirla. Por supuesto, esta unidad no existe realmente; es solo un ideal. Sin embargo, un libro que pretenda ser comprensible para todo el mundo tiene también derecho a intentar forjar esa síntesis ideal. Por consiguiente, quiero expresar mi agradecimiento a todos los autores citados en este libro que me han ayudado a configurar dicha unidad. En el contexto de las artes plásticas, merece una mención especial Gianni Caravaggio por las obras de arte aquí reproducidas, que ilustran algunas de las ideas que a continuación se exponen. También debo dar las gracias a Rüdiger Vaas, que, a lo largo de los últimos años y a través de muchas discusiones, ha contribuido notablemente a aumentar mis conocimientos y mi capacidad para transmitirlos. Fue uno de los primeros que se interesaron por los resultados de mis investigaciones y consideraron que valía la pena difundirlos ampliamente. Es imposible mencionar aquí a todos los que me han animado, aunque haya sido solo mediante un breve correo electrónico, a descender de la torre de marfil de la ciencia. No obstante, quisiera nombrar en especial a Hartmut Schneeweiss, de la Astronomische Vereinigung Weikersheim.
Este libro no existiría sin la iniciativa de Jörg Bongs, de la editorial S. Fischer, y el posterior apoyo de Alexander Roesler durante la redacción del texto. También quiero expresar mi agradecimiento al Departamento de Física de la Universidad del Estado de Pensilvania, que se afana en proporcionar a sus miembros un ambiente extraordinariamente agradable y estimulante. Además, sin ser consciente de ello, me ha ayudado en la redacción del libro mediante la oferta de un semestre sabático, aunque la noble institución no sabía nada de mis planes al respecto.
Agradezco a Elisabeth y Stefan Bojowald la lectura crítica de una versión previa de este libro, así como algunas sugerencias, por ejemplo las relativas a las imágenes cíclicas que ofrece la egiptología. Para la elaboración de algunos pasajes ha sido de gran ayuda la calma que encontré en un acogedor lugar junto al Eifel.

State College, Pensilvania, abril de 2008

Capítulo 1
Introducción

Cuanto más abstracta sea la verdad que quieres enseñar, más tendrás que tentar con ella a los sentidos.
FRIEDRICH NIETZSCHE, Más allá del bien y del mal

Durante el último siglo ha avanzado mucho la investigación en el campo de la física y ha desarrollado un imponente andamiaje teórico: la teoría cuántica y la teoría de la relatividad general. Este avance ha permitido comprender la naturaleza tanto a gran escala como en pequeñas dimensiones, desde la totalidad del universo mediante la cosmología, hasta las moléculas, los átomos e incluso las partículas elementales con ayuda de la teoría cuántica. Uniéndolo todo, se obtiene, para fenómenos muy diversos, una descripción precisa y una comprensión profunda que han sido verificadas de manera espectacular mediante observaciones. En los últimos años se ha conseguido esto ante todo en la cosmología del universo primitivo.
Además de su importancia tecnológica, en casi todos los ámbitos de la vida cotidiana la indiscutible marca de calidad de este progreso científico se hace patente por el hecho de que, desde hace algún tiempo, ciertos aspectos de la investigación chocan con los planteamientos tradicionales de la filosofía. (Como sostiene el físico y filósofo Abner Shimony, se puede hablar aquí de «metafísica experimental» con toda justicia, admitiendo también una deliberada contradicción interna). Desde Aristóteles, el objetivo de la construcción teórica es el examen de los hechos en general y la comprensión de sus causas, en vez de conformarse con una mera recopilación de conocimientos individuales. En cambio, la filosofía se pregunta por los fundamentos o principios más profundos de la realidad existente. En este sentido, la fusión de algunos planteamientos físicos con otros de índole filosófica se ha de entender como el rasgo característico del progreso científico. Cuando la física se abre paso entre estos interrogantes, consigue situarse en una posición desde la cual pueden abordarse discusiones relativas a intereses muy generales y de largo alcance. Por lo que respecta a la combinación de cosmología y física cuántica, la cuestión más importante es la relativa al origen y las primeras etapas del universo, algo que ha intrigado a la humanidad desde los inicios de la filosofía e incluso con anterioridad.
Otro ejemplo, tanto en la teoría cuántica como en la teoría de la relatividad general, es el papel de los observadores en el universo y la cuestión relativa a qué es lo que puede observarse y lo que no es posible observar. La aplicación de los métodos de la física en la cosmología implica la obtención de modelos del universo empíricamente comprobables. El modelo del big bang se basa tanto en la teoría de la relatividad general para la descripción del espacio, el tiempo y la fuerza de la gravitación, como en la teoría cuántica, que sirve para conocer las propiedades de la materia en el universo primitivo. En conjunto se obtiene una explicación asombrosa de la aparición sucesiva de los núcleos atómicos, de los átomos y de la materia que va configurando formas cada vez más complejas hasta llegar a las galaxias a partir de una fase inicial extremadamente caliente.
Sin embargo, es precisamente en este punto cuando también se ponen de manifiesto los límites del modelo del universo así establecido. A pesar de todos los éxitos obtenidos, la teoría de la relatividad general, junto con la teoría cuántica, tal como se utiliza actualmente, no consigue dar una descripción completa del universo. Si resolvemos las ecuaciones matemáticas de la teoría de la relatividad general para obtener un modelo de la evolución temporal del universo, se obtiene siempre un punto en el tiempo, la llamada «singularidad del big bang», en el que la temperatura del universo era infinitamente elevada. No decimos nada nuevo si afirmamos que el universo en la fase del big bang estaba muy caliente; hay que tener en cuenta que el universo en expansión de aquellos tiempos era mucho más pequeño y estaba mucho más comprimido que ahora, lo cual suponía un enorme aumento de la temperatura. Pero hablar de infinito como resultado de una teoría física significa sencillamente que se está abusando de dicha teoría. En ese punto, sus ecuaciones pierden todo su sentido. En el caso del modelo del big bang no debe confundirse esto con una predicción del comienzo del universo, aunque a menudo se representa así. Un momento en el que una ecuación matemática da como resultado «infinito» no es el principio (o el final) de los tiempos. Es simplemente un momento en el que la teoría muestra sus limitaciones. A pesar de todos los éxitos obtenidos en otros campos, es necesario ampliar esta teoría, que se ha desarrollado a partir de la teoría de la relatividad general en combinación con la teoría cuántica.
El problema tiene su raíz en el hecho de que la revolución que tuvo lugar en la investigación física del siglo pasado sigue siendo incompleta. La teoría cuántica se utiliza para explicar la materia en el universo, pero no se ha aplicado a la fuerza de la gravitación, ni siquiera a la cuestión del espacio y el tiempo. Esta última es el dominio de la teoría de la relatividad general, que sin embargo es en gran medida independiente de la teoría cuántica. Una combinación adecuada de la teoría cuántica y la teoría de la relatividad general que incluyera las cuestiones relativas al espacio y el tiempo ampliaría de manera considerable la teoría que actualmente se conoce. Esta combinación, la gravitación cuántica, es importante sobre todo para explicar la fase caliente del big bang en el universo, y es de esperar que podrá aclarar lo que sucedió en ese momento de resultado infinito, en la llamada singularidad del big bang. ¿Fue ese el instante inicial del universo y el tiempo, o hubo algo con anterioridad? Y, si hubo algo antes del big bang, ¿qué pudo ser?
Por desgracia, la gravitación cuántica resulta extraordinariamente complicada. En sí mismas la teoría de la relatividad general y la teoría cuántica se caracterizan por un enorme despliegue matemático como nunca se había conocido en teorías físicas anteriores. Además, los métodos matemáticos que se utilizan en estos dominios son muy diferentes entre sí. Una combinación de teorías físicas exige también una unificación de los objetos matemáticos que las sustentan, lo cual aumenta el grado de dificultad del proceso. Por esto, a pesar de las muchas décadas de investigación y de los grandes esfuerzos de numerosos científicos, no disponemos todavía de una formulación completa para la gravitación cuántica. Sin embargo, lo que sí hemos visto sobre todo en los últimos años es una gran cantidad de prometedores indicios relativos a sus propiedades, que ya pueden ser analizadas. Tal como suele suceder en la investigación, la situación se parece a la de los momentos iniciales en la configuración de un puzzle, cuando quizá se pueda intuir en parte la imagen final, pero también se podría estar emprendiendo un camino falso. Por ahora, la imagen de que disponemos nos da un indicio de lo que se podría conseguir completando la teoría física: nos permite ver lo que pudo suceder durante el big bang, e incluso antes. Nos hacemos una idea de cómo pudieron ser los instantes más remotos de la existencia de nuestro universo, y por primera vez podemos analizar el modo en que surgió.
En este libro se hablará tanto de los resultados más recientes de la teoría como de las observaciones planificadas para un futuro cercano en el ámbito del universo, y se mostrará lo radical que podrá ser el cambio que produzcan en nuestra concepción del mismo. En particular, con la gravitación cuántica de bucles, una de las variantes que se manejan actualmente como combinación de la teoría de la relatividad general y la teoría cuántica, se ha conseguido establecer los elementos básicos para una descripción del big bang sin singularidades. En este marco el universo existía ya antes del big bang, y es posible valorar aproximadamente en qué medida sus características de entonces se diferencian de las actuales. A través de la influencia sobre fases posteriores de la expansión cósmica que unas observaciones sensibles ponen de manifiesto, se puede investigar la historia inicial del universo. A continuación se expondrá esta historia a partir de los resultados más recientes de la investigación, y seguiremos con los agujeros negros, que producen, asimismo, unos efectos fascinantes. Los capítulos finales tocan el planteamiento de cuestiones que van más allá, que se refieren a una comprensión general del universo, y entre las cuales se situarían la cosmogonía, el misterio del tiempo y su dirección, así como el Grial de la «fórmula universal». Al igual que la imagen científica del universo, también la senda humana hacia el conocimiento se verá ilustrada mediante ejemplos extraídos de la investigación moderna. En esta parte del libro se ofrecerán algunas ideas formuladas desde un punto de vista personal.
Aunque la teoría utiliza unas matemáticas de alto nivel, muchas ecuaciones pueden comprenderse de una forma intuitiva. La intuición no solo es útil a la hora de investigar en un campo desconocido, sino que permite también una explicación divulgativa. Esto es lo que pretende conseguir este libro, renunciando al formalismo matemático (salvo en la ilustración del apartado «La utilidad de las matemáticas», en el capítulo 5) y siguiendo fielmente la máxima de Nietzsche que se cita al principio de la introducción. Aunque para descubrir y examinar estos hechos es imposible renunciar a las matemáticas, se puede llegar a una clara comprensión de los mismos sin tanta profusión de fórmulas. Desde luego, no siempre se llegará a comprender por qué las cosas son así, y no de otra manera, pero con un poco de confianza en el guía turístico será posible reconocer algunas de estas relaciones.

01.jpg
Figura 1: La piedra filosofal se derrite: un conocimiento que se da por seguro puede necesitar rectificaciones si se examina con más detenimiento. El análisis de los resultados o de las promesas de la ciencia debe tener en cuenta siempre los límites de esta. A menudo esos límites son incluso más importantes que los resultados ya obtenidos, porque indican el camino que llevará a nuevos descubrimientos. (Escultura de Gianni Caravaggio: Spreco di energia assoluta [Despilfarro total de energía], 2006, mármol negro marquina, mármol cepillado, crema, lente negra, 50 × 70 × 80 cm. Fotografía de Roberto Marossi).

No obstante, es necesario formular una advertencia: muchos dominios de la investigación de la gravitación cuántica han de ser considerados todavía como especulativos. A diferencia de lo sucedido durante la primera mitad del siglo pasado, cuando se desarrollaron la teoría de la relatividad general y la teoría cuántica, no existen (todavía) unas observaciones que puedan valer como pauta para la reformulación teórica de la gravitación cuántica. Lo que actualmente impulsa la investigación son ponderaciones conceptuales del estado incompleto que presenta la teoría de la relatividad general, así como los requisitos de coherencia matemática en la formulación de ecuaciones. Por ejemplo, no está en absoluto garantizado que la combinación de determinados métodos matemáticos, como los utilizados en la teoría de la relatividad general y en la física cuántica, conduzca a unas soluciones que permitan una descripción fiable del universo. De hecho, los métodos matemáticos son tan restrictivos que la formulación de una teoría con soluciones que tuvieran sentido constituiría un éxito extraordinario. La posibilidad de que hubiera otras teorías con esta característica es otra cuestión que hasta ahora no se ha investigado plenamente. Esto revela la fragilidad de los fundamentos en los que se apoya hoy día la gravitación cuántica. Sin embargo reina el optimismo, ya que hay muchos indicios independientes, como los que se presentan en este libro, que apuntan en la misma dirección. Por otra parte, y es lo más importante, para un futuro próximo se espera la realización de unas observaciones cosmológicas que podrían poner de manifiesto los fenómenos que predice la gravitación cuántica. Tales observaciones, que también se describen en este libro, convertirían la gravitación cuántica definitivamente en una teoría comprobada de forma empírica.
El estado en que se encuentra la gravitación cuántica es todavía equivalente a la primera etapa de explotación de un nuevo territorio. El papel del pionero lo desempeñan aquí las matemáticas, que abren nuevos dominios más allá de las fronteras establecidas. En nuestro caso las fronteras son las del universo y el tiempo. Las matemáticas sirven también para la exploración de ese territorio recién conquistado, pero la observación es el único procedimiento para asegurarlo definitivamente en el marco de una ciencia empírica como la física. Esto es lo que por ahora le falta a la gravitación cuántica, que por esta razón es todavía como un territorio lleno de peligros. En él es demasiado fácil extraviarse o hundirse en la ciénaga de la especulación.
Un terreno como este exige un profundo respeto a la naturaleza, pero no siempre se satisface esta exigencia. Aunque el lenguaje de los físicos al referirse a la naturaleza suele sonar muy preciso (a veces incluso pedante), en general se cumple lo que decía Rudolf Carnap: « [Una ley natural] puede ser verdadera, pero también falsa. Cuando no es verdadera, la culpa la tiene el físico, no la naturaleza». [1] El físico formula leyes de la naturaleza, pero, si estas no se cumplen, la responsabilidad es de él. Nadie es vasallo del físico, ni siquiera la naturaleza. Esto es especialmente válido en el caso de ciertos bosquejos teóricos, como la gravitación cuántica. Mientras tanto, hasta que las observaciones muestren que la naturaleza siente al menos algún respeto por las leyes que aquí se proponen y detallan, la intuición sirve de guía para el viajero que se adentra en un territorio desconocido y emprende la aventura de viajar a la época anterior al big bang.

Capítulo 2
La gravitación

Cuando se me cae algo por la ventana (aunque sea una cosa de tamaño mínimo), hay que ver cómo se abalanza la ley de la gravedad, poderosa como un viento marino, sobre una pelota cualquiera y sobre una simple baya, para arrastrarlas hacia el núcleo del universo.
RAINER MARIA RILKE, El libro de horas

Contenido:

  1. La ley de la gravitación de Newton
  2. La relatividad del espacio y el tiempo
  3. La teoría de la relatividad general
    3.1. Espacio-tiempo curvo
    3.2. Límites del espacio y el tiempo
    3.3. Carencia de fuerzas antagonistas

Se puede decir que, grosso modo, el universo está gobernado por la fuerza de la gravitación. En física, cuando una fuerza actúa, se produce movimiento o algún tipo de transformación. El reposo total solo existe cuando no actúa fuerza alguna. Esto es posible, por ejemplo, en ausencia de materia, en lo que se denomina el vacío. Pero la materia evidentemente existe, y solo a causa de su masa ejerce una fuerza gravitatoria sobre otras masas. Para que se den estados de reposo, al menos aproximados, es preciso que las fuerzas presentes se compensen entre sí. Además de la fuerza de la gravitación hay que tener en cuenta las fuerzas eléctrica y magnética, así como, en principio, otros dos tipos de fuerza que se denominan interacción débil e interacción fuerte, y actúan en el ámbito de las partículas elementales.
Mientras que la fuerza eléctrica necesita la existencia de cargas positivas y negativas para mantenerse activa a grandes distancias, las fuerzas que actúan en el interior de los núcleos atómicos tienen solo un alcance extremadamente corto. Por lo tanto, la única que en cualquier caso se mantiene a grandes distancias es la fuerza de la gravitación. Esta fuerza explica la atracción que se produce en general entre masas y acumulaciones de energía en el espacio, así como el comportamiento del propio universo a través del tiempo. A diferencia de lo que sucede en el caso de la electricidad, aquí no existen masas negativas: la atracción gravitatoria no puede contrarrestarse. Una vez que aparecen objetos dotados de una gran masa, como las estrellas o las galaxias, la interacción gravitatoria que estos objetos ocasionan domina todo lo que vaya a suceder. El tema de este libro son precisamente las múltiples facetas de esta fuerza, que tan a menudo ha sido ignorada en lo cotidiano y en las primeras investigaciones —tanto en cosmología como en lo relativo a los agujeros negros—, y que, sin embargo, produce tal multiplicidad de fenómenos curiosos.

1. La ley de la gravitación de Newton
La primera ley de la gravitación universal fue formulada por Isaac Newton. Siguiendo la pauta habitual de muchos avances importantes en la investigación relativa a la gravitación, fueron decisivas en este caso las observaciones cotidianas de la naturaleza, aunque también fue determinante una larga serie de trabajosas observaciones de objetos espaciales, concretamente de la Luna y algunos planetas. Todo ello fue posible gracias al desarrollo técnico, que para la época era muy avanzado, y a su vez las propias observaciones influyeron y propiciaron el desarrollo de nuevos instrumentos. Esta historia de logros obtenidos mediante una combinación de cuestiones fundamentales y aplicaciones tecnológicas ha seguido de manera ininterrumpida hasta el día de hoy en muchos campos de la investigación científica, incluido el de la investigación relativa a la gravitación.
Con anterioridad a Newton, el casi desbordante flujo de datos obtenidos por astrónomos como Tycho Brahe, Johannes Kepler y muchos otros se había ordenado ya para configurar un modelo de sistema solar. Desde los tiempos de Nicolás Copérnico y Johannes Kepler este modelo había adoptado una forma similar en gran medida a la que conocemos actualmente: los planetas se mueven alrededor del Sol siguiendo trayectorias que en una buena aproximación pueden describirse como elipses, es decir, como círculos un tanto estirados. Pero ¿a qué se debía que los planetas siguieran unas trayectorias curvas especialmente determinadas para cada uno de ellos? A partir de la experiencia cotidiana sabemos que es necesaria una fuerza para modificar el movimiento rectilíneo de un cuerpo. ¿Cómo se puede describir o explicar esa fuerza en el caso de los planetas?
Es impresionante el impacto de la revolucionaria idea de Newton, según la cual existe una única fuerza, la fuerza de la gravitación, que no solo determina la trayectoria de todos los planetas alrededor del Sol, y de la Luna en torno a la Tierra, sino también los sucesos ordinarios de caída de cuerpos sobre nuestro planeta. Constituye un ejemplo excelente para entender los orígenes del razonamiento científico: no se da respuesta a una pregunta sobre el «porqué» en el sentido de una motivación antropomórfica, sino que múltiples y diversos fenómenos, que parecen complicados y aparentemente inconexos, serán remitidos a un único mecanismo, una ley natural. Además, la descripción matemática formulada por Newton es muy compacta y, por lo tanto, altamente eficaz para la predicción de fenómenos descritos por la misma ley. En el caso de la ley de la gravitación de Newton, esta se ha utilizado en repetidas ocasiones, por ejemplo para el descubrimiento de nuevos planetas considerando las ligeras desviaciones que estos ocasionan en las trayectorias de planetas conocidos, o para planificar las misiones de los modernos satélites.
Estos casos históricamente fulgurantes en los que una elegante descripción matemática logra explicar muchos fenómenos diferentes son frecuentes en la física y constituyen los hitos que marcan el progreso de esta ciencia. A menudo estas ideas son tan impresionantes que los científicos recurren al concepto de belleza, una belleza pragmática cuyo núcleo dentro de la formulación matemática solo es visible para los iniciados, si bien los legos también la reconocen en los logros concretos.
La ley de la gravitación de Newton describe concretamente la fuerza de atracción que existe entre dos cuerpos en virtud de sus masas. La fuerza aumenta en proporción a las dos masas, de tal modo que la fuerza de atracción es mayor entre objetos muy pesados que entre otros más ligeros. Depende también de la distancia que separa los cuerpos, pero en proporción inversa al cuadrado de dicha distancia. En consecuencia, la fuerza de la gravitación se debilita cuando los cuerpos se alejan el uno del otro. Aparte de estas proporcionalidades, la magnitud exacta de la fuerza puede calcularse utilizando una constante matemática, llamada constante de la gravitación de Newton. También aquí se pone de manifiesto con total claridad la unificación de los fenómenos terrestres con los celestes: la constante de la gravitación se puede calcular a partir de la débil atracción que se produce entre dos masas sobre la Tierra, tal como lo hizo Henry Cavendish por primera vez entre 1797 y 1798 en su laboratorio. Si se utiliza el mismo valor para calcular la fuerza que el Sol ejerce sobre los planetas, se obtienen exactamente las trayectorias observadas para estos cuerpos celestes.
Mientras la dependencia de la distancia es un hecho claro, por el contrario sucede que la fuerza de la gravitación de Newton es totalmente independiente del tiempo. Esto suena plausible, pues una ley natural básica como esta debe aplicarse del mismo modo en cualquier instante. Asimismo concuerda con las opiniones sobre el tiempo y el espacio que predominaron en la época de Newton e incluso mucho después, por no hablar de nuestras ideas cotidianas al respecto. Aunque es posible cambiar la posición y la distancia de los objetos en el espacio, este último resulta en sí mismo invariable. También el tiempo transcurre de una manera sencilla y regular, sin dejarse impresionar por los fenómenos físicos. Dado que, según Newton, la gravitación actúa sin que para ello tenga que transcurrir un tiempo, con independencia de la distancia a la que se encuentren las masas, la ley se aplica solo en el caso de que ambas masas no estén en el mismo lugar, pero sí en el mismo instante. Por lo tanto, la ley es totalmente independiente del tiempo, e incluso la «distancia temporal» existente entre las masas es irrelevante, al contrario de lo que sucede con la distancia espacial.
A pesar de su enunciado plausible y de los logros que he mencionado antes, la teoría de Newton tiene un defecto estético. Al igual que sucede con la belleza de la teoría, esta imperfección solo puede comprenderse del todo si se posee un conocimiento suficiente del trasfondo, pero, aunque se considere superficialmente, es un buen ejemplo del modo en que avanza la física teórica. Parece ser que el propio Newton lamentaba el hecho de que su ley de la gravitación mostrara «tendencias animalísticas»: del mismo modo que un animal se siente atraído desde lejos por la visión de algo comestible, así también un cuerpo pesado se mueve desde la lejanía hacia otro. A pesar de todos los logros concretos a que dio lugar, ese efecto que se produce desde lejos, y no como las interacciones locales ocasionadas cuando los cuerpos entran en contacto directo, se consideró una debilidad conceptual.
Subsanar este punto débil mediante una teoría que contemple solo interacciones locales, y que además tenga que ser compatible con los logros de la teoría newtoniana en astronomía, es una empresa extremadamente difícil. Además, es necesario tener en cuenta también la dimensión temporal, ya que una interacción local de este tipo tendría que propagarse de un cuerpo a otro. Como ya se ha comprobado, esto solo puede conseguirse dando la vuelta radicalmente a los planteamientos newtonianos, y evidentes, relativos al espacio y al tiempo. Para ello se necesita un despliegue matemático de mucha más envergadura, que sin embargo se vería recompensado con una teoría de una belleza insospechada, en el sentido que se ha mencionado anteriormente. Todo esto exigía una exhaustiva investigación física, así como un mayor desarrollo de los fundamentos matemáticos. Albert Einstein sería el encargado de solucionar el defecto de la teoría newtoniana en una época muy posterior a la de Newton.

2. La relatividad del espacio y el tiempo

Todo esto duró mucho tiempo, o poco, porque, hablando con propiedad, en esta tierrano haytiempo para tales cosas.
FRIEDRICH NIETZSCHE, Así habló Zaratustra

Las primeras fisuras en la visión newtoniana del mundo se pusieron de manifiesto con la teoría de la relatividad especial. El espacio y el tiempo no podían ya verse como conceptos separados, sino como pertenecientes al mismo ámbito. Son dimensiones de un objeto físico único, el espacio-tiempo. ¿Cómo puede determinarse esto con métodos físicos? Para responder a esta pregunta y explicar el papel que desempeñan las dimensiones, vamos a empezar por considerar solo el espacio. También este tiene varias dimensiones, concretamente tres: podemos desplazarnos lateralmente, adelante o atrás, y hacia arriba o hacia abajo. Podríamos preguntarnos por qué se consideran como tres dimensiones de un único espacio, en vez de tres direcciones completamente independientes: ancho, largo y alto.
La respuesta es sencilla: la anchura, la longitud y la altura no son absolutamente independientes entre sí, sino que pueden «intercambiarse». Basta con que giremos en el espacio para que, por ejemplo, la altura de un cubo se presente como su anchura; en este sentido, la altura y la anchura son intercambiables. No se trata de un cambio realizado mediante un proceso físico, o una reacción química, sino de algo mucho más sencillo, pues basta con cambiar la posición del observador. Lo que llamamos anchura, longitud y altura depende de la posición del observador (o de convenios tales como medir la superficie terrestre según la anchura y la longitud) y, por lo tanto, no han de considerarse como características del espacio como objeto físico. Por ello se habla de espacio tridimensional, en vez de sobre la existencia de tres direcciones unidimensionales.
El tiempo se comporta de una forma parecida, aunque aquí el cambio es más difícil. El modo de ver el espacio se puede modificar mediante un simple giro: la variación del ángulo de visión (o, más exactamente, de la tangente del ángulo de visión como función matemática que, sin embargo, en el caso de ángulos pequeños no difiere mucho del valor del propio ángulo) viene dada por la proporción de una dimensión espacial, por ejemplo de la altura, antes y después del cambio de posición del observador. Por lo tanto, mediante la variación del ángulo solo pueden intercambiarse las dimensiones espaciales. Cuando queremos que el espacio se intercambie con el tiempo, debemos modificar una magnitud que viene dada por la proporción entre la dimensión espacial y la temporal: la velocidad. Si en un tiempo determinado recorremos una longitud concreta, nos estamos moviendo con una velocidad que viene dada por la proporción, o sea, el cociente, entre el espacio recorrido y el tiempo necesario para recorrerlo.
De hecho, esta reflexión conduce a la formulación básica de la teoría de la relatividad especial. Cuando estamos observando una situación y nos movemos a más velocidad que un segundo observador, los intervalos del espacio y el tiempo correspondientes a los sucesos observados resultan diferentes para nosotros y para el otro observador. Del mismo modo que un cambio del ángulo de visión produce un intercambio de dimensiones espaciales, así también un cambio en la velocidad del observador produce una conversión de las dimensiones espaciales en temporales, y viceversa. Esta es la razón por la cual la diferenciación entre dimensiones espaciales y temporales depende de la posición del observador (o, más exactamente, de la «trayectoria del observador», si en realidad estamos moviéndonos) y no tiene base física alguna que sea independiente de los observadores. No hay separación entre el espacio y el tiempo, puesto que solo existe un único objeto común: el espacio-tiempo.
Por supuesto, este ejemplo no constituye una prueba, ya que no es cierto que toda proporción lleve a una conversión solo modificando su valor. Por ejemplo, el índice de natalidad de un país se obtiene como la proporción de nacimientos con respecto a la población total, pero haciendo una modificación de dicho índice no se consigue que ningún habitante del país se convierta en recién nacido. Una diferencia importante con respecto a los ejemplos anteriores es el papel del observador: las modificaciones se producen mediante cambios en la posición o el movimiento de quien observa y, dado que los enunciados físicos han de ser independientes de las características especiales de quienes realizan la observación, queda descartada cualquier separación de aquellos conceptos que solo sean diferenciables por la posición del observador. En la teoría de la relatividad especial esta especie de «convertibilidad» entre el espacio y el tiempo no se fundamenta solo en las matemáticas, sino que también se ha comprobado experimentalmente en repetidas ocasiones. Mientras que la idea newtoniana de un espacio fijo y un tiempo independiente de él no concordaría con muchas de las mediciones realizadas durante el siglo pasado, desde la perspectiva de la teoría de la relatividad especial no surge contradicción alguna.
El punto de vista newtoniano tuvo éxito durante tantos siglos porque, para que se produzca una transformación perceptible entre el espacio y el tiempo, es preciso que los observadores se desplacen a unas velocidades altísimas que alcancen de manera apreciable la enorme velocidad de propagación de la luz (unos trescientos mil kilómetros por segundo). Esta es la razón por la cual esa convertibilidad de espacio y tiempo no es perceptible en el entorno cotidiano.[2] Para llevar a cabo una comprobación experimental se necesitan o bien velocidades muy altas, o unas mediciones del tiempo muy precisas para unas transformaciones mínimas que se producen a bajas velocidades. Ambas cosas han llegado a ser posibles durante el siglo pasado: mediciones muy precisas se consiguen con los relojes atómicos, que hacen observables las transformaciones del espacio y el tiempo incluso con las velocidades características de las aeronaves. (Dado que los aviones tienen que desplazarse a cierta altura, aparecen efectos adicionales a causa de una merma de la gravitación que influye en el reloj. Más adelante volveré sobre esta cuestión).
A altas velocidades, cercanas a la de la luz, las transformaciones son drásticas: se produce una transformación casi completa del tiempo en espacio, y con ello el tiempo transcurre cada vez más lentamente. Cuando se alcanza por fin la velocidad de la luz, lo cual solo es posible para objetos carentes de masa, como la propia luz, al moverse tan rápido el sistema, desaparecen en él los intervalos de tiempo. La velocidad no puede ir más allá de esa frontera, pues cuando se alcanza la velocidad de la luz se ha agotado ya todo el tiempo. Por lo tanto, ninguna señal puede propagarse más rápidamente que la luz. Se llega siempre a desaceleraciones que, aunque son pequeñas, en el caso de grandes distancias pueden hacerse perceptibles. (Esta velocidad máxima es la velocidad de la luz en el vacío. En materiales transparentes, como el agua, la luz suele propagarse más lentamente que en el vacío. En estos medios puede suceder también que haya señales que se desplacen más rápido que la luz en el mismo medio, pero no con mayor rapidez que la luz en el vacío).
Las altas velocidades pueden también investigarse, aunque no sometiendo un reloj a una fuerte aceleración, sino mediante la utilización de algunos relojes rápidos que nos proporciona la naturaleza: la Tierra recibe bombardeos de partículas de alta energía que proceden del universo y se desplazan con una velocidad cercana a la de la luz.[3] La mayoría de estas partículas no alcanzan la superficie terrestre, sino que reaccionan con núcleos atómicos en la parte superior de la atmósfera, dando lugar a nuevas partículas, entre las cuales se encuentran los muones. Estos son una especie de electrones pesados y se diferencian poco de los electrones, salvo por su masa y por el hecho de no ser estables: un muón en reposo se desintegra aproximadamente en una millonésima de segundo y da lugar a un electrón y a otras dos partículas estables, que reciben el nombre de neutrinos. Este tiempo de desintegración se puede utilizar como unidad de tiempo de un reloj, que, en comparación con los relojes atómicos, no sería muy preciso. Sin embargo, es mucho más fácil acelerar muones hasta que alcancen altas velocidades que hacer lo mismo con relojes atómicos, y además es algo que la naturaleza nos proporciona sin coste alguno mediante la radiación cósmica.
Esto lleva a una impresionante confirmación de la teoría de la relatividad especial y su convertibilidad del espacio y el tiempo. Incluso con las altas velocidades con las que surgen los muones en la zona superior de la atmósfera, el tiempo de vida de una millonésima de segundo no es suficiente para que puedan llegar desde allí a la superficie terrestre. Sin embargo, es posible medir un gran número de esos muones mediante detectores, aunque en realidad dichas partículas se hayan desintegrado ya por el camino. La razón de esto es que esa millonésima de segundo que tarda el muón en reposo en desintegrarse parece mucho más larga para un muón que se mueve a gran velocidad y que está siendo observado desde una superficie terrestre en reposo. A causa de su gran velocidad, para los muones es tanta la cantidad de espacio que se convierte en tiempo que pueden alcanzar la superficie terrestre antes de desintegrarse, cosa que no sería posible sin esa dilatación del tiempo, a pesar de su alta velocidad.
Cuando estaba desarrollando su teoría de la relatividad especial, Einstein no tenía todavía a su alcance las mediciones con relojes atómicos o mediante muones. En vez de eso, se dedicó a deducir las ecuaciones que describen la conversión del espacio y el tiempo, basándose en profundas reflexiones sobre la teoría de la luz, tal como la había expuesto James Clerk Maxwell en 1861. La aplicación de esos principios, prescindiendo de cualquier observación, se puede comparar con la visión de Newton en relación con la imperfección de su propia teoría. La ley de la gravitación de Newton tuvo un gran éxito en el momento de su aparición, y posteriormente durante mucho tiempo, a la hora de explicar diversos fenómenos astronómicos observados. Pasaron siglos hasta que se realizaron ciertas observaciones que sin duda se desviaban de lo que establecía la ley de Newton. Sin embargo, este científico nunca estuvo del todo satisfecho con su ley, porque, como él mismo afirmó, resultaba demasiado anomalística: ¿qué es lo que induce a dos masas a atraerse mutuamente, si pueden estar todo lo alejadas que quieran la una de la otra?
Este defecto que Newton ya intuía llegó a ser crítico en el contexto de la teoría de la relatividad especial. En la idea newtoniana de separación del tiempo y el espacio no hay en principio problema alguno con la ley de la gravitación; como mucho hay un problema estético. Sin embargo, en la teoría de la relatividad especial la ley de Newton resulta sencilla y llanamente incoherente: la fuerza gravitatoria newtoniana depende de la distancia espacial entre dos cuerpos, pero no aparece en su fórmula ninguna magnitud temporal. Si se intenta combinar esto con una convertibilidad del espacio y el tiempo, entonces cualquier aplicación consecuente de la ley implica que la fuerza gravitatoria depende del estado de movimiento y de la velocidad del aparato de medición. Esto es así porque cualquier variación de la velocidad tendría que convertir el espacio en tiempo, y con ello ocasionaría una dependencia temporal en la ley de Newton. La reducción de la distancia espacial se vería entonces compensada por la dilatación del tiempo, de tal modo que cualquier observador pueda medir la fuerza correcta. Al formular su ley, Newton no tuvo en cuenta esta posibilidad, por lo que se hace necesario ampliar la teoría newtoniana.
En la teoría electromagnética surge una situación parecida. La ley de Coulomb para la atracción (o repulsión) electrostática de dos cuerpos dotados de cargas eléctricas, que recibe su nombre de Charles-Augustin de Coulomb, se parece mucho a la ley newtoniana relativa a la atracción gravitatoria de dos masas. Lo único que hay que hacer es sustituir las masas por las cargas, y la constante de la gravitación de Newton por un parámetro que cuantifica la fuerza eléctrica. (Además, es necesario invertir el signo de la fuerza, ya que dos cargas del mismo signo se repelen, mientras que dos masas, siempre positivas, se atraen). Sin embargo, el comportamiento de las distancias espaciales es el mismo, y aquí tampoco interviene ninguna dimensión temporal. En este caso, y por otros motivos, basados en la relación entre fenómenos eléctricos y magnéticos, Maxwell halló una formulación que era compatible con la convertibilidad del espacio y el tiempo. Esto sucedió antes de Einstein y desempeñó un papel importante en las reflexiones de este científico. Sin embargo, Maxwell no reconoció la relación de su ampliación de la ley de Coulomb con la convertibilidad del espacio y el tiempo.
En 1905, cuando Einstein desarrolló su teoría de la relatividad especial, no existía ninguna reformulación de la ley de la gravitación de Newton. Esta generalización de la teoría, de la cual se encargó el propio Einstein, resultaría mucho más difícil que la de Maxwell. Transcurrieron diez años hasta que Einstein presentó en 1915 su forma definitiva: la teoría de la relatividad general. La, recompensa no consistió solo en el logro de una ley de la gravitación compatible con los principios de la teoría de la relatividad especial, sino en un cambio radical de nuestra manera de entender el espacio y el tiempo, así como una fundamentación matemática de la cosmología. En este capítulo me centraré principalmente en la estructura del espacio y el tiempo, para luego, en el capítulo relativo a la cosmogonía (capítulo 9, sección titulada Cosmología física), volver al papel que desempeñan estas magnitudes en el comportamiento del universo en su conjunto.

3. La teoría de la relatividad general

Él mueve el universo sin esfuerzo, tan solo con su sabiduría y su voluntad.
JENÓFANES DE COLOFÓN, Fragmento

La teoría de la relatividad general incluye una ley de la gravitación que es compatible con la teoría de la relatividad especial. Sin embargo, la teoría de la relatividad general no es solo una versión más ampliada y compleja de la ley de Newton, sino que consagra definitivamente el espacio-tiempo como un objeto de la investigación física. La determinación de qué se considera espacio y qué se considera tiempo no depende únicamente de la situación del observador, sino que es algo sometido a procesos físicos: la forma del espacio-tiempo viene determinada por la materia. Así como en la teoría de la relatividad especial las velocidades han de ser muy grandes para ver claros los efectos, la influencia de la materia en el espacio-tiempo es normalmente escasa. Con la tecnología de que disponemos en la actualidad no es posible influir en el espacio-tiempo (aunque ocasionalmente se especula sobre la construcción de agujeros de gusano, motores de curvatura o pequeños agujeros negros). Sin embargo, en astrofísica o en cosmología nos encontramos a menudo con unos objetos tan pesados que, para hacer una descripción precisa de los mismos, no solo se ha de tener en cuenta la materia que contienen, sino también el espacio y el tiempo. Hasta la fecha, esto ha llevado a la realización de numerosas comprobaciones de la teoría de la relatividad general y, como veremos más adelante, a una nueva imagen del universo en el marco de la cosmología.
No obstante, como en el caso de la teoría de la relatividad especial, Einstein no disponía en 1915 de observaciones de este tipo; sus construcciones se basaban en la posibilidad de una formulación matemáticamente coherente de sus principios. El resultado fue una teoría dotada de una elegancia que nunca antes se había logrado en física. Basándose en principios generales y en una versión geométrica de las matemáticas que se remonta a los sublimes comienzos de la ciencia en la antigua Grecia a través de una larga e ilustre línea de antepasados (en el caso de la geometría, sobre todo, Platón y Euclides), surgió casi necesariamente un tipo de ecuaciones que describen el universo en su totalidad.
Einstein tuvo que esforzarse durante mucho tiempo, hasta que logró comprender cuáles eran los principios correctos y las matemáticas necesarias, pero su trabajo acabó siendo coronado por un extraordinario éxito. La teoría no solo satisfacía las más altas exigencias de las matemáticas, en cuyo contexto hasta hoy día ha producido importantes estímulos para la investigación, sino que más tarde explicaría muchas observaciones en las que siempre habría fracasado la teoría de Newton.
En cualquier caso, esto justifica el gran interés que suscitaron Einstein y sus logros; sin embargo, en las últimas décadas lamentablemente el éxito se ha convertido a menudo en una maldición: a menudo surgen amplios colectivos de físicos a los que les parece que la teoría de la relatividad general se comprende perfectamente y está totalmente confirmada de un modo experimental. En ocasiones incluso se utiliza esto como argumento para suprimir investigaciones en este campo y prescindir del personal vinculado con las mismas. Precisamente en Alemania, la cuna de la teoría de la relatividad general, se da lamentablemente esta circunstancia. Por supuesto, nunca es posible la confirmación completa de una teoría, por lo que, sobre todo en algo tan importante como la teoría de la relatividad general, nunca se debería renunciar a realizar nuevos experimentos que puedan proporcionar comparaciones independientes entre la teoría y la observación. La cantidad de experimentos que sirven para comprobar una teoría nunca llega a cubrir más que una porción limitada de todos los fenómenos posibles. Una teoría comprobada experimentalmente puede resultar adecuada en un marco concreto, pero no hay seguridad alguna de que pueda describir correctamente todos los posibles procesos a los que en principio sería aplicable. Del mismo modo que la teoría de Newton estuvo durante mucho tiempo en concordancia con los fenómenos observados, hasta que se descubrió que solo era válida como un caso extremo de la teoría de la relatividad general, también podría suceder que esta última fuera quizá tan solo un caso extremo de alguna teoría que todavía es desconocida. Incluso en su aspecto teórico la teoría de la relatividad se comprende aún de una manera incompleta, y son innumerables las preguntas sin respuesta que tienen una incidencia directa sobre todo en el campo de la cosmología. Sigue siendo perentoria la necesidad de realizar investigaciones. De hecho, muchos indicios apuntan a que la teoría de la relatividad general aún ha de completarse, como veremos más adelante.
En su mayoría, las teorías físicas se desarrollan mediante un laborioso y largo proceso que arranca de una idea creativa o de una observación que no se explica con los conocimientos existentes. O bien se procede a desarrollar esa idea, porque pueda resultar atractiva desde un punto de vista estético y matemático, o se intenta modificar las teorías ya conocidas, para que concuerden con el nuevo fenómeno observado. Este proceso puede durar décadas, y lo más frecuente es que en él participen muchos físicos, tanto teóricos como experimentales. Muchas de las teorías que son actualmente objeto de acaloradas discusiones, como la física de partículas elementales o la gravitación cuántica, las cuales se recogen en este libro, están todavía dentro de ese proceso. También el desarrollo de la mecánica cuántica transcurrió de este modo durante mucho tiempo, hasta que quedó forjada tal como la conocemos hoy día. (Aquí también hay un gran número de interrogantes fundamentales que continúan abiertos, pero desde la perspectiva de su aplicación se considera que la mecánica cuántica se comprende totalmente). El resultado final, tal como luego se expone en los libros de texto, a menudo no es reconocible si se compara con los primeros esbozos, ya que se ha puesto de manifiesto que muchas de las aportaciones históricas realizadas durante la evolución del proceso eran en realidad nada importantes, demasiado complicadas o incluso erróneas. En el caso de las teorías que se encuentran aún en fase de desarrollo no se puede prever si surgirá de ellas un sólido componente del conocimiento del universo; hay ramas de la física que han resultado en su totalidad un callejón sin salida, aunque lo cierto es que de la investigación siempre se aprende algo que luego se puede utilizar para otra cosa.
En el desarrollo que hizo Einstein de la teoría de la relatividad general fue todo completamente diferente. Fue Einstein en solitario, apoyado solo por algunos amigos como Marcel Grossmann y, de algún modo, rivalizando con el matemático David Hilbert, quien realizó los trabajos decisivos. No todo encajó de forma coherente, y habría que reconocer que algunas de las ideas publicadas demostraron ser inutilizables. Sin embargo, en un tiempo relativamente corto Einstein llegó a su resultado final, que, manteniendo su propia forma, respondió maravillosamente bien al aplicarlo a fenómenos observados. Es fácil que al saber esto tengamos la impresión de que Einstein habría creado su teoría de manera directa y en su forma perfecta, y que no sería necesario proceso alguno de aburrida investigación, ni pesadas tareas de perfeccionamiento; esto explica seguramente por qué muchos físicos consideran que la teoría de la relatividad general no necesita más investigaciones[4].
Pero la realidad es muy diferente. Solo se comprenden las soluciones más sencillas de la teoría de la relatividad general, lo cual afortunadamente basta para dar respuesta a muchas cuestiones de la física, porque incluso las soluciones más elementales y dotadas de una alta simetría permiten llegar a explicaciones asombrosas relativas a la cosmología y a objetos astronómicos tales como los agujeros negros. Sin embargo, cuando se quiere ir más allá de estas soluciones, aparecen unas dificultades enormes a causa de la complejidad de la teoría. Esta es la razón por la cual muchos matemáticos se interesan por ciertas cuestiones de la teoría de la relatividad general y no cesan de hacer aportaciones a su comprensión. También existen preguntas abiertas, como la relativa a la predictibilidad (mencionada, por ejemplo, en la página 240), que afectan a la coherencia global de la física.
La realización por ordenador de un análisis numérico de las ecuaciones de Einstein es a menudo el último recurso cuando las resoluciones matemáticas directas resultan demasiado difíciles, pero, incluso así, dicho análisis constituye una tarea extremadamente complicada. Los intentos iniciales se hicieron en la década de 1970 y se intensificaron en la de 1990. Se trataba en especial de comprender mejor las colisiones entre estrellas pesadas o agujeros negros, ya que estos fenómenos están considerados como fuentes potentes de un fenómeno totalmente nuevo: las ondas gravitatorias. En los próximos años se espera poder demostrar la existencia de estas ondas mediante detectores sensibles, no solo para seguir comprobando la teoría de la relatividad general, sino también para abrir una nueva rama de la astronomía. De esta forma se mediría el cosmos, no mediante la luz u otra radiación electromagnética, sino con ayuda de las ondas gravitatorias. Esto sería como si, además de mirar lo que hay en el cielo, pudiéramos también escuchar lo que sucede en él. Esta analogía muestra claramente que las ondas gravitatorias posibilitarán nuevas experiencias y nuevos conocimientos.
Para realizar una comprobación mediante detectores es necesario, en primer lugar, saber qué es exactamente lo que se busca; también se ha de conocer la forma de las ondas: el curso temporal de la intensidad de una onda gravitatoria, cómo surge esta a partir de una colisión y el modo en que se propaga hasta nosotros a través del cosmos, una propagación similar a la de una onda en el agua. Lamentablemente, las ecuaciones matemáticas son demasiado complicadas para poder hacer una resolución directa, e incluso fue imposible durante mucho tiempo preparar los ordenadores para esta tarea: a causa de problemas de cálculo los programas informáticos disponibles interrumpían su funcionamiento demasiado pronto para conseguir mostrar resultados interesantes. Era como si se intentara escribir un largo texto con un programa que se bloqueara tras la introducción de cada palabra. Fue necesario el trabajo intensivo de algunos grupos (cuyo número sigue siendo modesto en comparación con los dedicados a las partículas elementales o a la física del estado sólido) durante muchos años para poder llegar recientemente (los primeros fueron los trabajos de Frans Pretorius en 2005) a abrir una vía en el desarrollo de los programas informáticos que proporcionaran al menos información numérica sobre el resultado de una colisión. Pero estos avances han llegado a tiempo, porque también la construcción de detectores de ondas gravitatorias, como el LIGO en Estados Unidos o el GEO600 en Hannover, ha progresado considerablemente, de tal modo que el sueño de una astronomía de ondas gravitatorias podría ser realidad en breve. Todo ello no hubiera sido posible sin la teoría de la relatividad general y la comprensión de dicha teoría, que no ha dejado de ampliarse mediante investigaciones realizadas de manera continua.
Volvamos al desarrollo histórico: por supuesto, Einstein no prescindió totalmente de las observaciones a la hora de realizar su trabajo, ya que intentaba ampliar la ley newtoniana de la gravitación, que había sido comprobada en el marco de la astronomía. Este contacto con leyes ya establecidas es importante para cualquier avance que se pretenda lograr en la física. Aparte de sus principios generales, Einstein no tenía prácticamente ningún indicio experimental que le permitiera saber hasta dónde podía llegar con su ampliación. Lo único que existía eran unas pequeñas desviaciones que se habían medido en las trayectorias de algunos planetas, especialmente en la de Mercurio, cuya órbita observada se desviaba del cálculo newtoniano por una pequeñísima diferencia: 43 segundos de arco (más o menos la centésima parte de un grado sexagesimal) cada siglo. Esto se debe precisamente a la influencia de Venus, el planeta más próximo a Mercurio. Otras anomalías, como las posibles irregularidades en la forma del Sol, tampoco concordaban con lo observado. Einstein fue el primero que pudo explicar la desviación de la órbita mediante sus nuevas ecuaciones del movimiento en el marco de la teoría de la relatividad general.
Afortunadamente, no tardaron en aparecer otros datos que eran incompatibles con la ley de Newton, pero que Einstein ya había predicho correctamente antes de que fueran recogidos. Se trata de unas pequeñísimas desviaciones que sufre la luz de las estrellas al pasar cerca del Sol. Fue Arthur Eddington quien las midió en 1919 durante un eclipse total del Sol, y estos datos condujeron a la primera y triunfal confirmación de la teoría de la relatividad general. (Desde entonces se han realizado mediciones exactas de este tipo utilizando ondas de radio emitidas por quásares. Los primeros en realizar estas mediciones fueron Edward Fomalont y Richard Sramek en 1976). Si hubiera habido divergencias con los cálculos, la teoría de Einstein habría caído rápidamente en el olvido, a pesar de que este científico dijo: «Si la naturaleza no concuerda con la teoría, pues peor para la naturaleza».
La teoría de la relatividad general fue comprobada por primera vez mediante un experimento terrestre por Robert Pound y Glen Rebka en 1960, y superó la prueba de manera impecable. En este experimento se midió la conversión del tiempo a distintas altitudes, es decir, en distintas posiciones del espacio-tiempo. Cuanto más nos alejemos del centro de la Tierra, la fuerza de la gravedad es más débil, lo cual, desde un punto de vista matemático, significa, como veremos más adelante, una modificación del espacio-tiempo. En lugares elevados el tiempo transcurre de una manera algo diferente (en este caso, con mayor rapidez) a como transcurre en zonas profundas. Normalmente, esto no se percibe, pero con mediciones precisas se puede detectar este comportamiento. Para ello, Pound y Rebka aprovecharon el efecto Mössbauer, por el cual algunos cristales tienen una frecuencia de emisión y absorción de la luz claramente determinada. En general, la materia, como un átomo, puede emitir determinadas frecuencias cercanas a la de la luz dentro de lo que se conoce como espectro, y luego absorberlas de nuevo, como sucede con la luminosidad de los tubos fluorescentes o con el láser. La razón de esto es la naturaleza cuántica de la materia, a la que volveré en el capítulo siguiente, que trata de la teoría cuántica. Puesto que los átomos o las moléculas con los que se realizan estas mediciones se mueven dentro de un gas, las emisiones y absorciones se producen en distintos estados de movimiento. En última instancia, se mueven a causa del calor. Estos procesos de emisión y absorción se dan, por lo tanto, a distintas velocidades y, dado que el paso del tiempo, y con él la frecuencia como número de oscilaciones por intervalo de tiempo, según la teoría de la relatividad general dependen del estado de movimiento, no se emitirá o absorberá solo luz de una determinada frecuencia, sino de un intervalo de frecuencias de una amplitud determinada.
En los cuerpos sólidos sometidos al efecto Mössbauer, la emisión y la absorción no tiene lugar en átomos individuales, sino en todo el cristal. En conjunto, este se mueve mucho menos que los átomos dentro de un gas, por lo que las frecuencias de emisión y absorción están establecidas de una manera mucho más exacta. La teoría de la relatividad general no conduce a ninguna desviación de frecuencias; sin embargo, cuando un cristal emisor y otro receptor de luz se encuentran a distintas alturas, entra en juego la teoría de la relatividad general. El tiempo transcurre de manera diferente para el cristal emisor y para el cristal absorbente, por lo que la frecuencia de la luz que llega al cristal seleccionado como absorbente no coincide con la frecuencia necesaria para que se produzca una buena absorción. Esto también se puede medir, porque no se necesitan para ello grandes alturas; basta con un edificio de unos cuantos pisos.
J. C. Hafele y Richard Keating realizaron en 1971 unas mediciones del mismo efecto de la teoría de la relatividad general que no se basaban en el efecto Mössbauer, sino en la precisión de los relojes atómicos. Para esto utilizaron comparaciones exactas del tiempo en aviones. En este caso son importantes tanto la teoría de la relatividad especial, a causa de la velocidad del avión, como la teoría de la relatividad general, a causa de las distintas situaciones en altura. Sin embargo, incluso después de estos experimentos siguió sin reconocerse del todo la importancia de la teoría de la relatividad general. El 23 de junio de 1977 se puso en órbita el satélite NTS-2, el primero que iba provisto de un reloj atómico de cesio con fines experimentales. Este reloj atómico estaba configurado de tal manera que podía compensar las correcciones relativistas basadas en la velocidad del satélite. Sin embargo, los diseñadores del satélite no veían con pleno convencimiento la necesidad de las correcciones de la teoría de la relatividad general. Por este motivo se instaló, además del reloj, un aparato con el cual, en caso de que fuera necesario, se podía cambiar la frecuencia del reloj para darle los valores adecuados. Tras veinte días en el espacio las señales indicaban una desviación de la andadura del satélite con respecto a los relojes situados sobre la Tierra, exactamente como había predicho la teoría de la relatividad general. En este caso, afortunadamente, pudo corregirse el error conectando el modulador de frecuencias.
La confirmación de la teoría de la relatividad general que resulta quizá más impresionante es la que se obtuvo mediante observaciones de púlsares dobles. En este caso se trata de un sistema formado por dos estrellas que orbitan a corta distancia una de la otra, siendo una de ellas (el púlsar) la que emite radiación a intervalos regulares. Esto puede atribuirse, por ejemplo, a una estrella de neutrones que rota muy rápido y que, como un faro, emite al espacio unas señales que también llegan hasta nosotros. Según la posición del púlsar en este sistema binario de estrellas, las señales tendrán distintas demoras, puesto que recorrerán trayectorias diferentes para llegar hasta nosotros. A partir de esto se pueden determinar con mucha precisión la trayectoria de la órbita y sus posibles variaciones. La teoría de la relatividad general predice que mientras se describe la órbita son enviadas ondas gravitatorias, con lo cual el sistema pierde energía. Esta pérdida de energía hace que las dos estrellas se acerquen más la una a la otra, y esto es algo que se ha de notar al realizar una medición precisa de la trayectoria.
La pérdida de energía será máxima cuando ambas estrellas se encuentren ya a una distancia muy pequeña. Entonces cada una de ellas se encuentra plenamente introducida en el campo gravitatorio de su compañera, de tal modo que los efectos de la teoría de la relatividad general serán más intensos. En 1974, Joseph Taylor y Russell Hulse identificaron un púlsar binario formado por dos estrellas de neutrones muy próximas entre sí que describían la órbita en tan solo la tercera parte de un día. ¡La distancia entre ambas era solo de diez mil kilómetros! Este es un sistema de comprobación idóneo para detectar ligeras variaciones de la trayectoria, tal como las predice la teoría de la relatividad general. De hecho, las comprobaciones que se han realizado hasta ahora concuerdan exactamente con las predicciones. La concesión del premio Nobel de Física del año 1993 a Hulse y Taylor puso de manifiesto la importancia de estas pruebas. (En este sistema tiene lugar, además, como en el caso de Mercurio, otro desplazamiento de la trayectoria sin variación de la distancia. Dado que aquí la desviación es de cuatro grados al año, resulta claramente superior a la de Mercurio y puede utilizarse para valorar las masas de las estrellas de neutrones). Desde entonces se han descubierto cada vez más púlsares binarios con distintas características en sus trayectorias, y esto hace posible que se realicen una gran variedad de comprobaciones.
Uno de los experimentos más recientes es el del Gravity Probe-B, un satélite que fue puesto en órbita el 20 de abril de 2004 y estuvo recogiendo datos durante dieciséis meses. La idea que subyace en estos experimentos se remonta a 1959, pero el desarrollo de la tecnología necesaria para su puesta en práctica tuvo un largo y difícil recorrido bajo la dirección de Francis Everitt. Por ejemplo, los efectos que se investigan, concretamente un «arrastre» del espacio-tiempo en las proximidades de la Tierra en rotación, predicho por la teoría de la relatividad general, exigen para su medición unas brújulas giroscópicas de alta precisión. Para evitar que interfieran ciertas desigualdades que podrían invalidar las mediciones de estos efectos sensibles, las brújulas giroscópicas deben estar construidas con las esferas más perfectas que puedan conseguirse. Es poca la competencia, incluso en la totalidad del universo: solo algunas estrellas de neutrones extremadamente densas son esferas lisas. Los primeros resultados se dieron a conocer a principios de 2007 y confirman de nuevo la teoría de la relatividad general.

3.1. Espacio-tiempo curvo
Como resultado de la teoría de la relatividad general se determina la forma del espacio-tiempo mediante la materia contenida en él. Se apela aquí precisamente a la fuerza gravitatoria, que así queda estrechamente vinculada a la estructura del espacio-tiempo, cosa que no sucede con ninguna de las otras fuerzas físicas conocidas. Esto se describe matemáticamente como un espacio-tiempo curvo en el que el grado de conversión del espacio y el tiempo depende de la posición.
El ejemplo típico de un espacio curvo es la superficie bidimensional de una esfera. Por su curvatura es una superficie cerrada en sí misma, lo cual no es necesariamente el caso de todos los espacios curvos. Pero lo que caracteriza la superficie de una esfera es el hecho de que las líneas trazadas sobre ella, para estar realmente contenidas en dicha superficie, han de verse curvas cuando se observan desde un entorno tridimensional. Cualquier línea recta del espacio que se inicie sobre esta superficie la abandonará inmediatamente. Este comportamiento puede considerarse como una consecuencia directa de la curvatura, aunque en el caso de espacios curvos abstractos no tiene por qué existir siempre un entorno tridimensional. El propio espacio-tiempo, por ejemplo, es cuatridimensional y, por lo tanto, debería tener en su entorno un espacio de dimensión mucho más elevada. Es posible describir matemáticamente todas las consecuencias de la curvatura sin hacer referencia a esos espacios del entorno, un hecho que Einstein aprovechó de forma decisiva al formular la teoría de la relatividad general. La teoría matemática correspondiente, llamada geometría diferencial, se remonta al siglo XIX, principalmente a ciertos trabajos de Bernhard Riemann.
Volviendo al ejemplo de la superficie esférica rodeada de un espacio tridimensional, se pone de manifiesto otra importante consecuencia de la curvatura. Cuando nos movemos sobre una esfera y cambiamos de lugar, tal como hacemos a menudo sobre la superficie terrestre, desde la perspectiva del entorno espacial estamos obligados a girar en el espacio. Pero esto no lo percibimos, ya que, por una parte, la Tierra es muy grande y, por otra, rara vez podemos adoptar esa perspectiva desde el espacio que nos rodea; pero esto se puede explicar con facilidad sobre un globo terráqueo: la cabeza de una persona que se encuentra en Europa señala en el espacio una dirección totalmente diferente a la que indica la cabeza de una persona que está en América, aunque ambas estén de pie. Se puede ver que esto es una consecuencia de la curvatura porque este giro no se produciría en una superficie plana como, por ejemplo, una mesa.
El espacio-tiempo se curva a causa de la materia que contiene y debería poner de manifiesto unos fenómenos similares. Esto es difícil de explicar, porque se trata de un espacio cuatridimensional en el que, además, está implicado el tiempo. Sin embargo, nuestra anterior analogía muestra la consecuencia más importante, que tiene relación directa con la fuerza de la gravedad: la convertibilidad del espacio y el tiempo va ligada a las variaciones de velocidad, del mismo modo que la convertibilidad de las tres dimensiones espaciales está relacionada con las variaciones del ángulo. Del mismo modo que una superficie curva en el espacio obliga a realizar un giro cuando se efectúa un cambio de posición, así también una variación de posición en el espacio-tiempo curvo tendría que producir un cambio en la velocidad. Las variaciones de la velocidad, llamadas también aceleraciones, son ocasionadas en la física siempre por fuerzas. Por lo tanto, la curvatura del espacio-tiempo produce una fuerza, que, según la teoría de la relatividad general, es precisamente la fuerza de la gravedad.
Gracias a este asombroso truco, Einstein consiguió ampliar con éxito la teoría de Newton y al mismo tiempo reparar su defecto. En la gravitación de Einstein no aparece de manera directa interacción alguna de objetos muy alejados. Mediante la inclusión del espacio y el tiempo —no como el escenario rígido y prefijado de Newton, sino como un objeto cambiante y sometido a interacciones en su estructura— se elimina de la física esa acción a distancia. Las masas curvan el espacio-tiempo que las rodea, tras lo cual otras masas perciben una fuerza gravitatoria a causa de la curvatura. Si se hace que la primera masa se mueva, es posible ver que este movimiento no produce una acción a distancia. A causa de esto, durante el movimiento debe variar la fuerza de la gravedad que actúa sobre otras masas. Como indica la teoría de la relatividad general, esto no surge inmediatamente: la variación de la curvatura debe propagarse primero en el espacio-tiempo, antes de poder llegar hasta masas lejanas. Por consiguiente, las interacciones físicas tienen lugar siempre de manera local, y con ello se elimina el punto débil de la teoría de Newton.
Junto a esto, la teoría de la relatividad general predice también que el propio espacio-tiempo puede verse afectado por oscilaciones que se propagan como olas sobre el mar, o, en forma de luz, como ondas en un campo electromagnético. Estas ondas gravitatorias que acabo de mencionar desempeñan un papel importante en la investigación actual sobre la gravitación. Las consecuencias del espacio-tiempo curvo, que resultan tan impactantes, se ponen de manifiesto en la cosmología, donde la teoría de la relatividad general determina la evolución del universo en el tiempo.

3.2. Límites del espacio y el tiempo

Guardaos de pedir más tiempo: el infortunio nunca lo concede.
MIRABEAU

El incremento de importancia que ha experimentado el espacio-tiempo, desde ser un mero escenario hasta convertirse en un objeto físico dentro de la teoría de la relatividad (véase la figura 2), constituye una novedad revolucionaria. En principio, la complicada interacción —la materia hace que se curve el espacio, y a su vez se verá también afectada en su movimiento por la curvatura— conduce a una descripción matemática de una dificultad nunca vista, que hasta la fecha tiene ocupados no solo a los físicos, sino también a los matemáticos. Tiene asimismo consecuencias fundamentales para nuestra comprensión de los fenómenos físicos y, sobre todo, del universo. El papel que el espacio-tiempo desempeña en la física se ha comparado a menudo con una novela en la que el libro es por sí mismo un personaje. Las consecuencias de esto en la novela serían sorprendentes, aunque difíciles de imaginar. Con independencia de lo que pueda suceder en el ámbito de la imaginación, las consecuencias del papel desempeñado por el espacio-tiempo en la física pueden calcularse afortunadamente de una manera fiable con ayuda de las matemáticas. Como veremos más adelante, esto tiene en la teoría de la relatividad general unas consecuencias aún más desastrosas que las planteadas en el símil novelístico.

02.jpg
Figura 2: Los objetos se desplazan siguiendo sus trayectorias en el espacio y el tiempo, pero el espacio-tiempo es en sí mismo variable. (Órbita, 2007, yeso, lente roja, 43 × 45 × 45 cm. Diseño y fotografía de Gianni Caravaggio.

Pero antes de llegar a esto vamos a considerar una vez más la relación de la gravitación con la convertibilidad del espacio y el tiempo. Esta tiene como consecuencia que no solo la velocidad de un observador influye en la división en espacio y tiempo, sino también la gravitación ocasionada por la materia. Así, por ejemplo, el tiempo transcurre con mayor rapidez cuando el observador se encuentra en una posición más elevada, ya que allí la distancia a la masa terrestre es mayor. También aquí las variaciones son en la mayoría de los casos imperceptibles, pero, sin embargo, tienen una gran importancia técnica. Los relojes atómicos más precisos detectan una notable diferencia en la velocidad cuando se aumenta tan solo en diez metros la altura. Como ya se ha dicho, si se desea comprobar la teoría de la relatividad con ayuda de relojes atómicos situados a bordo de aviones, es necesario tener en cuenta estos efectos, además de los de las variaciones de velocidad. (El efecto de la gravitación es en este caso mayor incluso que el de la velocidad, y contrario a este: a una velocidad mayor los relojes deberían marchar más despacio, pero a causa de la altura van más rápido).
El sistema de posicionamiento global (Global Positioning System, GPS) es un ejemplo de tecnología aplicada en el que estos efectos son importantes. Es un sistema de veinticuatro satélites que llevan todos ellos relojes atómicos. Están distribuidos en torno a la Tierra de tal modo que por (casi) cada punto hay cuatro satélites situados sobre el horizonte. Cada satélite envía con regularidad unas señales que codifican su posición y el tiempo que dicho satélite mide. Mediante la comparación de las señales que llegan desde varios satélites a un punto situado en la Tierra, puede determinarse la posición con bastante exactitud, generalmente con una precisión de entre cinco y diez centímetros. (Este sistema se desarrolló en principio para fines militares y sigue siendo gestionado por el Departamento de Defensa estadounidense. Inicialmente, las señales fueron modificadas mediante un dispositivo especial para dedicarlas también a usos no militares, de tal modo que solo permitían una precisión de unos cien metros. Pero con el tiempo se desarrollaron cada vez más aplicaciones, y muy lucrativas, por lo que en mayo de 2000 se desactivó la limitación de las señales según una orden emitida durante el mandato del presidente Clinton).
Si al realizar la medición de los tiempos se ignorara la teoría de la relatividad, las determinaciones de posición resultantes serían erróneas, y por lo tanto inservibles. A los dos minutos se observarían ya algunas desviaciones en las posiciones medidas y, después de un día completo, los datos de posición diferirían en hasta diez kilómetros con respecto a los valores correctos. Por consiguiente, el papel que desempeña la teoría de la relatividad general en este sistema tiene una importancia enorme, pero es muy complicado y durante mucho tiempo no llegó a comprenderse del todo. Los primeros satélites del sistema fueron puestos en órbita en 1978, pero en los años 1979, 1985 y finalmente en 1995 —el año en que fue puesto en servicio oficialmente— se organizaron congresos únicamente para intentar comprender el papel de la teoría de la relatividad general en el funcionamiento del GPS. Sin embargo, parece ser que en 1996 se hizo un informe técnico erróneo. Ejemplos de estas dificultades son la sincronización y la comparación de los relojes de los satélites o la posible influencia del campo gravitatorio solar (!), que presenta unas diferencias muy pequeñas entre el lado de la Tierra que está más próximo al Sol y el que está más alejado. Esto último resultó insignificante dada la precisión que habían alcanzado los relojes. (Desde luego, son muy precisos: se trata de relojes atómicos de rubidio, cuyas lecturas después de diez días solo se diferencian en medio nanosegundo, es decir, media milmillonésima de segundo). Pero el cambiante campo gravitatorio de la Tierra y especialmente las divergencias con respecto a la forma esférica debidas al aplanamiento de la Tierra en rotación son extraordinariamente importantes cuando se trata de conseguir precisión. También aquí puede uno preguntarse si prevalecen los efectos de la teoría de la relatividad especial o de la general. Este es también el caso del proyecto GALILEO, planificado por ESA, cuyos satélites están previstos para una altura de 30 000 kilómetros.
Las aplicaciones del GPS son cada vez más variadas, por ejemplo en una función del teléfono móvil que es especialmente popular en los países islámicos y consiste en indicar la dirección exacta en que se encuentra La Meca. En la actualidad, las aplicaciones militares se han quedado claramente en minoría, y en la exploración terrestre predominan aplicaciones tales como la utilización de receptores de GPS ligeros en las tormentas tropicales para medir la temperatura y la presión en cualquier lugar. También pueden seguirse con precisión los desplazamientos de la corteza terrestre en el marco de la tectónica de placas, y quizá sea posible algún día aplicar esto a la predicción de seísmos. Incluso el comportamiento de edificios o puentes bajo distintas cargas puede registrarse gracias a la enorme precisión del GPS. En la agricultura se aplica en parte el GPS para la precisa dosificación localizada de abonos y pesticidas, y los arqueólogos lo utilizan para detectar y cartografiar antiguos yacimientos. El GPS tiene asimismo su función en la propia investigación de la teoría de la relatividad general, ya que sirve para la definición de un estándar universal de relojes que, por ejemplo, se usa en la determinación exacta de trayectorias del púlsar binario hallado por Hulse y Taylor.
Todo esto muestra la importancia tecnológica de la teoría de la relatividad, cuya repercusión, aun siendo pequeña en este caso, resulta, sin embargo, importante a causa de lo sensibles que son las aplicaciones. En cambio, son enormes las consecuencias de la teoría de la relatividad en la observación a escalas cosmológicas. El tiempo no es rígido, como en las teorías newtonianas, sino que sufre la influencia de la materia que hay en el universo. Según la teoría de la relatividad general, en situaciones extremas esto puede incluso desembocar en el hecho de que el propio tiempo se acabe. La influencia de la materia en el espacio-tiempo es aquí tan grande que el tiempo se detiene o el espacio acaba tropezando con un límite insalvable. La teoría de la relatividad nos dice que, por ejemplo, esto fue lo que sucedió en el big bang (si observamos el universo en una serie de situaciones dirigida temporalmente hacia atrás), o también es el caso de los agujeros negros. En estos fenómenos las fuerzas gravitatorias llegan a ser tan potentes que las distancias espaciales o temporales se hacen cada vez más pequeñas y al final desaparecen totalmente. Cuando ya no existe ningún tipo de distancia temporal entre los posibles sucesos, el tiempo se ha extinguido, y con él todos los sucesos. Esto es válido para todos los cuerpos y para el propio universo: nada puede ir más allá de este punto.
Entonces ¿qué es lo que sucede exactamente? Para comprender esto es preciso analizar las ecuaciones matemáticas de la teoría de la relatividad general, ya que estas ecuaciones describen la estructura del espacio y el tiempo. De acuerdo con la forma continua del espacio-tiempo, tal como se representa matemáticamente mediante la geometría diferencial, estas ecuaciones son ecuaciones diferenciales. Es decir, las ecuaciones de Einstein establecen cómo está configurada la forma del espacio-tiempo en las proximidades de un punto según la materia que hay allí, o más concretamente su densidad de energía y su presión. En consecuencia, las ecuaciones se corresponden con la idea del continuo que puede ser concebida con respecto al espacio-tiempo (continuo espaciotemporal), como en el caso de un tejido curvado, pero en cuatro dimensiones. A diferencia de una tela real, que está tejida con hilos y tiene entre estos espacios vacíos, en la teoría de la relatividad general el tejido del espacio-tiempo no presenta ningún tipo de estructura cuando se observa a distancias mínimas; de ahí la utilización de ecuaciones diferenciales, que reflejan los cambios que se producen en el espacio-tiempo cuando las desviaciones son mínimas. Estas desviaciones no son atómicas, sino menores que cualquier magnitud prevista: corresponden a un proceso matemático de límite que idealiza la noción del continuo.

03.jpg
Figura 3: Casi todos los sistemas físicos se expresan matemáticamente especificando los coeficientes de variación, y esto se formula mediante una ecuación diferencial. Los coeficientes de variación pueden representarse gráficamente por medio de vectores, de tal modo que cada solución del problema es una curva cuyo recorrido sigue la dirección indicada por los vectores. Aquí se muestra el campo de velocidades de un vórtice, cuyas soluciones son círculos concéntricos situados en torno al centro del remolino.

Una ecuación diferencial puede ilustrarse mediante su campo de velocidades, colocando en cada punto un vector que indica la dirección y la magnitud del coeficiente de variación. En la teoría de la relatividad general la superficie del campo es en el caso más sencillo un plano en el que cada punto indica el tiempo y la expansión del universo en ese instante. Una solución de la ecuación diferencial es una curva contenida en el plano, de tal modo que dicha curva sigue en cada punto la dirección del vector de velocidad que está colocado allí. A menudo se puede explicar gráficamente la forma de las soluciones, como se ve en la figura 3. Sin embargo, existen también procedimientos matemáticos que se representan directamente como una función, y métodos numéricos que determinan estas curvas con ayuda del ordenador.
La construcción gráfica muestra que el campo de velocidades no basta para la determinación unívoca de una solución, porque al fin y al cabo en cada punto solo aparece la dirección en la que hemos de continuar el movimiento. Lo primero es saber por dónde se empieza: debe elegirse un punto como condición inicial. Si se hace así, en la mayoría de los casos se obtiene una solución unívoca, pero la forma de la condición inicial, según el problema que se esté estudiando, puede adoptar formas más complejas que la de un solo punto.
En la cosmología el campo de velocidades viene dado por la materia que hay en el universo. Las pequeñas variaciones del espacio-tiempo que producen los desplazamientos mínimos de un punto quedan determinadas por la densidad de energía y la presión de la materia existentes en el entorno. Por lo tanto, como condición inicial correspondiente al estado actual del universo debería elegirse para la descripción matemática una configuración en la que el universo se expanda y la materia contenida en él pierda densidad. A partir de esto se presentan distintas posibilidades para el futuro: con una cantidad de materia escasa, por debajo de lo que se llama densidad crítica, el universo se expandirá eternamente y será cada vez menos denso. Pero si la cantidad de materia está por encima del valor crítico, la fuerza gravitatoria que actúa es mayor, y en un futuro lejano el universo podrá, primero, llegar a un estancamiento, para luego colapsarse. Hay entonces un momento en el que el universo, como una piedra lanzada hacia arriba, invierte su movimiento y empieza a contraerse. Para averiguar cuál es el futuro que espera a nuestro universo es preciso determinar con exactitud la cantidad de materia, una empresa que no es nada fácil. Se puede medir y calcular las masas de las estrellas y del gas que se encuentra dentro de las galaxias y entre ellas, pero, como veremos más tarde en la cosmología observacional, hay más materia y energía que es realmente difícil de cuantificar. No se conoce el origen exacto de estas materias y energías, pero ciertas observaciones apuntan a una densidad de energía muy próxima al valor crítico. Por lo tanto, sigue sin saberse si nuestro universo se expandirá eternamente o se colapsará en algún momento.

04.jpg
Figura 4: He aquí la ecuación diferencial de la cosmología representada mediante su campo de velocidades, tal como se deduce de la ecuación de Einstein. El volumen del universo varía en dirección horizontal, y la densidad de la materia contenida en él varía en dirección vertical. Cuanto más nos acercamos al margen izquierdo de la representación gráfica, en el que el volumen del universo desaparece, más largos se hacen los vectores. Cada curva de soluciones, siguiendo la dirección de los vectores, se ve atraída irremediablemente hacia este margen. Además, la densidad de la materia aumenta sin cesar y tenderá a ser infinita cuando el volumen vaya desapareciendo (en el margen izquierdo de la representación gráfica).

El futuro no deja de ser incierto, por lo que deberíamos más bien preguntarnos qué sucedió en el pasado. A causa de la expansión, el universo primitivo era de menor tamaño que el actual, y hace mucho tiempo estaba más caliente que cualquier materia que se encuentre en la Tierra, o incluso en las estrellas.
El comportamiento de la materia en tales condiciones apenas se conoce, pero sus consecuencias para el universo están prácticamente intactas: lo que se deduce de un análisis detallado de las ecuaciones de Einstein es el hecho de que en el momento del big bang (y también en los agujeros negros) algunas de las expansiones espaciales o temporales eran tan pequeñas como se quiera. Viendo el campo de velocidades correspondiente (véase la figura 4) se puede adivinar que la curva de soluciones infaliblemente pasa por un punto en el que el volumen desaparece.
Aquí la densidad de energía de la materia, es decir, la proporción de energía total con respecto al volumen que ocupa dicha materia, será, por lo tanto, infinita, ya que estamos dividiendo por cero, ya que la expansión desaparece, y con ella el volumen, que es producto de la misma. No se trata solo de un dilema físico cuando decimos que con una densidad de energía infinitamente grande no puede existir en absoluto la materia, sino que también estamos ante algo que es enormemente problemático desde el punto de vista de las matemáticas y hace que se desmoronen las ecuaciones de Einstein: si intentamos ignorar el problema de la densidad de energía infinita, las ecuaciones de Einstein indican que la forma del espacio-tiempo cambiará infinitamente al realizarse desplazamientos, tan pequeños como se quiera, en el espacio o en el tiempo. Dicho de una manera gráfica, el tejido se nos queda inservible: el espacio-tiempo se desgarra en una singularidad.
Esto plantea un grave problema que finalmente nos obligará a ampliar de nuevo la teoría de la relatividad general. La consecuencia, enormemente importante, de que en teoría el espacio y el tiempo se acaben no supone en el ámbito de la física un inicio o un final anunciado del universo. Aunque las ecuaciones matemáticas muestran que se llegará a un punto en el que las distancias desaparezcan, es preciso decir que es ahí donde las propias ecuaciones pierden su validez. La teoría deja entonces de ser fiable y simplemente no puede utilizarse más para hacer predicciones; en ese punto singular nos lleva al borde del precipicio, y nos deja allí solos preguntándonos qué significa dicha singularidad y qué habrá más allá de ella. A partir de ahí hemos de buscarnos otro guía para este viaje. Al igual que la teoría de Newton, la ley de la gravitación de Einstein tiene también un defecto, pero esta vez es mucho más serio. Mientras que Newton lamentaba las «tendencias animalísticas» de su teoría, la sombra que planea sobre la teoría de la relatividad general es especialmente funesta. Como dijo el físico John Wheeler, la teoría de la relatividad general contiene el germen de su propia destrucción. (Lo cual, según la idea de Nietzsche sobre lo grande, sería: «Todas las cosas grandes se destruyen por sí mismas en un acto de auto supresión».)[5] Utilizando el símil de la novela, esto significa que el propio libro no solo es un personaje, sino que incluso llega a destruirse según va avanzando el argumento.
Las teorías suicidas de este calibre son muy poco frecuentes en la física, por lo que no sorprende que sus consecuencias se hayan valorado a veces de forma errónea.[6] Incluso el propio Einstein pensó que los límites del espacio y el tiempo, llamados normalmente singularidades, solo aparecen en casos especiales, pero no en situaciones generales. En su época una valoración de este tipo no carecía necesariamente de realismo, ya que todavía se sabía poco sobre las distintas soluciones matemáticas de la teoría de la relatividad general. (No obstante, Einstein realizó también intentos erróneos de demostrar la irrelevancia de las singularidades). Hubo que esperar a las nuevas teorías de Stephen Hawking, Roger Penrose y otros para ver claramente que los límites del espacio-tiempo en la teoría de la relatividad general no son evitables. Unas soluciones matemáticas a las que solo hay que exigir que sean compatibles con la forma actual del universo poseen al menos una singularidad, un límite del espacio y el tiempo, en la que la teoría de la relatividad general pierde su validez.

3.3 Carencia de fuerzas antagonistas

La vemos en los fenómenos naturales más sencillos,  la gravitación, la cual, aunque todo el universo llegue a formar un conglomerado, nunca cesa de actuar y de empujar hacia un punto central sin expansión en el cual se producirá la propia destrucción de la gravitación, así como la de la materia.
ARTHUR SCHOPENHAUER, El mundo como voluntad y representación

El comportamiento singular tiene una causa física. Al igual que en la teoría de Newton, también en la ley de la gravitación de Einstein es la fuerza de la gravedad siempre atractiva. (Como veremos más adelante, en la teoría de la relatividad general puede haber fuerzas de repulsión cuando la presión negativa es suficientemente elevada. Sin embargo, estas fuerzas nunca pueden ser tan poderosas como para compensar completamente la atracción). Como siempre, para generar una situación estable se necesitan fuerzas antagonistas de otro tipo. Si se desea nadar o volar a una altura constante, se requieren fuerzas ascensionales. Para mantener una posición estable sobre la Tierra, a pesar de la atracción hacia el centro, la fuerza gravitatoria debe ser compensada por las fuerzas de la superficie terrestre o de alguna capa inferior. La propia Tierra no se hunde, ya que está formada por materiales sólidos o fluidos en su núcleo. Si la Tierra fuera más pesada, la presión interior y la temperatura aumentarían, y en parte provocarían fusión y evaporación, tal como sucede en gigantes de gas como Júpiter y Saturno. También en estos casos las fuerzas de repulsión entre los átomos de gas son todavía suficientemente potentes para compensar la atracción de la gravedad en una situación de presión elevada. Cuando la masa crece aún más, también lo hace la presión gravitatoria. El gas se comprimirá aún más, hasta que la presión sea suficiente para que, por ejemplo, dos átomos de hidrógeno lleguen a estar tan cerca que puedan fusionarse formando un átomo de helio. El planeta se convertirá en una estrella que, mediante estos procesos de fusión, producirá la energía necesaria no solo para brillar, sino también para, con el calor generado, mantenerse firme resistiendo a la presión gravitatoria.
Sin embargo, con una masa aún mayor esta presión térmica no es ya suficiente. En principio hay una fuerza de origen teórico-cuántico que acude en ayuda de la materia, y que es la que impera en las enanas blancas. Esta fuerza se basa en el hecho de que un gas de electrones no puede comprimirse a voluntad, aunque las repulsiones eléctricas sean neutralizadas en gran medida por los protones allí presentes. Sin embargo, al seguir aumentando la masa, esta fuerza también se agota, ya que cuando la presión es alta los electrones empiezan a reaccionar con los protones del núcleo. La presión gravitatoria se hará cada vez mayor, de tal modo que, a partir de un punto determinado, los átomos se contraen tanto que los protones del núcleo se fusionan con los electrones de la corteza para dar neutrones. Surge una estrella de neutrones cuyo núcleo está formado solo por neutrones. Este tipo de materia es extraordinariamente densa, porque las distancias entre los núcleos y las cortezas de los átomos de la materia convencional desaparecen, pero solo puede existir en condiciones extremas de fuerte presión gravitatoria. En otros casos, la mayoría de los neutrones no tardan en desintegrarse de nuevo en protones y electrones. En el capítulo dedicado a los agujeros negros se ofrecerán más detalles sobre estas exóticas estrellas.
Sin embargo, tampoco este estado se resiste a la presión gravitatoria cuando la masa vuelve a aumentar. A partir de ese momento no hay ninguna fuerza conocida que pueda competir con la desbordante gravitación en esta escalación de la guerra fría de las fuerzas. Ya no hay posibilidad alguna de equilibrio estable, pues todas las partes componentes de la materia se atraen mutuamente: la materia se colapsa dando lugar a un agujero negro. En el interior de este, el imparable colapso de la materia que se hunde produce una densidad que no deja de aumentar y, con la influencia de la materia sobre el espacio y el tiempo, lleva a un final del mismo, cuando toda la materia de lo que fue una estrella se ha colapsado ya.
La naturaleza atractiva de la gravitación, junto con la carencia de fuerzas antagonistas poderosas, constituye la causa física de la aparición de singularidades en la teoría de la relatividad general. El atrevido salto de la teoría de la relatividad sobre la física newtoniana, con ayuda de la estructura versátil del espacio y el tiempo, resulta extremadamente arriesgado. Con esto el espacio-tiempo se convierte en un objeto físico y queda sometido a ecuaciones matemáticas. Por desgracia, estas ecuaciones solo en casos excepcionales producen soluciones que están definidas para todos los valores del tiempo. La mayoría de estas soluciones, incluidas aquellas que son realistas, pierden su validez cuando ha pasado un tiempo finito, con lo cual también llega a su fin el espacio-tiempo que describen. El hecho de que aparezcan tales singularidades se debe a que la teoría de la relatividad general elimina el problema del efecto a grandes distancias que se plantea en la ley de Newton, pero mantiene el comportamiento general de esta ley en cuanto a la existencia de una fuerza atractiva. Permite que la gravedad campe a sus anchas en el espacio-tiempo, porque la estructura de este solo se deja influir por la materia, pero no ofrece posibilidad alguna de protección mediante fuerzas antagonistas que pudieran detener el colapso total. Para conseguir eliminar este problema, que no solo es estético sino de una gran trascendencia, se precisa una nueva ampliación de la teoría.
Existen casos comparables en los que las teorías pueden llevar a singularidades que se eliminan mediante unas ampliaciones adecuadas. Por ejemplo, ciertos fluidos, como el agua, en muchos casos pueden describirse con gran precisión utilizando una distribución continua e ignorando al mismo tiempo el agrupamiento de moléculas de agua. Esto se puede aplicar, por poner un caso, al flujo del agua por una cañería. Si el flujo es escaso y la cañería termina en un grifo, esta explicación falla. La distribución continua del agua se separa en gotas al abrir el grifo. Desde la perspectiva de la descripción continua, esta disgregación se ve como una singularidad, ya que algunas magnitudes, como la tensión superficial, crecen infinitamente cuando las moléculas empiezan a separarse. A causa de esto, las ecuaciones del continuo pierden su validez. Por supuesto, en este caso ya sabemos cuál es el problema. Al separarse una gota de agua no sucede nada realmente importante. Simplemente debemos tener en cuenta la estructura molecular de la materia y, cuando la tensión gravitatoria se hace mayor que la cohesión de las moléculas de agua, esta puede caer en gotas separadas. Por lo tanto, es preciso ampliar la teoría del continuo mediante otra teoría más básica que contemple la naturaleza molecular de la materia. Aunque esta teoría tiene una gran riqueza matemática, no produce singularidades en las soluciones y puede explicar también la separación en gotas aisladas. Además, resulta más realista, ya que contempla la estructura atómica de la materia.
Entre la gravitación y esta analogía del agua existen grandes diferencias, especialmente a causa del papel que desempeñan el espacio y el tiempo en la teoría de la relatividad general. Sin embargo, esta analogía muestra algo importante: no existe vía alguna que pase por una ampliación de la teoría de la relatividad general. Las singularidades muestran los límites de una teoría, y, para comprender el papel que desempeñan, es preciso encontrar una teoría más global que explique las singularidades de la teoría anterior.
Solo entonces se podrá comprobar si los límites que existen en el caso de los agujeros negros o en el del big bang son realmente límites físicos del espacio y el tiempo o solo son límites de la descripción teórica. Nos encontramos aquí en una situación parecida a la de Einstein antes de presentar su teoría de la relatividad general: tenemos una teoría de la gravitación muy acertada que no entra en contradicción con ninguna observación. No obstante, sabemos que esta teoría no puede ser completa y hemos de buscar una ampliación de la misma basándonos en principios generales. Al parecer no somos tan afortunados como Einstein, que, diez años después de reconocer que la ley de la gravitación de Newton no es compatible con la convertibilidad del espacio y el tiempo, pudo formular la teoría de la relatividad general como solución del problema. Poco después de aparecer las soluciones halladas en 1915, surgieron unas singularidades especiales, siendo este caso parecido en cierto modo al de la solución hallada en 1916 por Karl Schwarzschild para los agujeros negros que no rotan. La existencia general de estas singularidades en las soluciones de la teoría de la relatividad general se demostró con toda seguridad en la década de 1960. A pesar de los muchos intentos realizados por un número de teóricos mucho mayor que el de los que se ocuparon de esta cuestión entre 1905 y 1915, no se ha podido conseguir la formulación de una teoría completa que conserve las ventajas de la teoría de la relatividad general y al mismo tiempo resuelva el problema de las singularidades.
Existe, sin embargo, un dato en torno al cual se concentra la mayor parte de la investigación: junto a la teoría de la relatividad, la teoría cuántica constituye el segundo pilar sobre el que se ha construido la física desde el siglo XX. La teoría cuántica es imprescindible para realizar una descripción correcta de la materia y nos lleva a conocer unos fenómenos sorprendentes. Como ya se ha mencionado con anterioridad, a partir de la naturaleza cuántica de la materia de las estrellas se producen nuevas situaciones estables, como son las enanas blancas y las estrellas de neutrones, que se basan en las fuerzas antagonistas determinadas por la teoría cuántica. Pero en algunos casos, cuando se trata de grandes masas, estas fuerzas antagonistas no son suficientes para contrarrestar la gravitación. Lo que no se tiene en cuenta en todo esto es la naturaleza cuántica de la gravitación, y tampoco la del tiempo y el espacio, además de la de la materia. Si hubiéramos ignorado la teoría cuántica aplicada a la materia, incluso las enanas blancas y las estrellas de neutrones serían inestables, ya que para tales densidades no hay fuerzas comparables en la teoría clásica. Esto entraría en contradicción con las observaciones, ya que en el marco de la astrofísica se ha demostrado sin lugar a duda la existencia de tales objetos en el universo.
No obstante, en todas estas investigaciones se ignora la gravitación, porque aún no se dispone de una teoría adecuada. Además, los planteamientos conocidos son tan complicados en el aspecto matemático que todavía no pueden aplicarse a objetos tales como las estrellas de neutrones o los agujeros negros. En la cosmología se dan situaciones en las cuales se observan fuertes indicios de la existencia de nuevas fuerzas antagonistas dentro de la teoría cuántica de la gravitación que podrían conducir finalmente a una teoría donde no aparecieran singularidades. Con esto también se ve como algo accesible el conocimiento de lo sucedido en el universo en tiempos anteriores al big bang, así como de lo que tiene lugar en el interior de los agujeros negros. Pero, antes de que podamos centrarnos en estas teorías procedentes de las investigaciones más recientes, hemos de echar un vistazo a los conceptos básicos de la teoría cuántica.

Capítulo 3
Teoría cuántica

Contenido:

  1. Estabilidad atómica
    1.1. La función de onda
    1.2. El clásico caso límite y las fuerzas efectivas
    1.3. Fuerzas mecánico-cuánticas antagonistas
  2. Radiación térmica
  3. Escalas de Planck

La teoría cuántica es imprescindible para una correcta descripción de la física atómica. Su importancia se ha demostrado de manera experimental en numerosas ocasiones y, al igual que en la teoría de la relatividad general, no han aparecido hasta la fecha divergencias entre las observaciones y las predicciones. Sin embargo, estas teorías no ofrecen una visión completa de la física, ya que con su formulación actual son incompatibles. Esto es importante sobre todo en situaciones extremas, como el momento del big bang o en los agujeros negros, en las que realmente se debería utilizar una teoría cuántica de la gravitación.
Además, también hay que luchar con las peculiaridades de la teoría cuántica, como el brusco cambio de estado de un sistema mientras se realizan mediciones en él, o la imposibilidad de conocer plenamente un estado a causa de aspectos difusos de principio: la función de onda que describe un estado debe colapsarse brutalmente en una medición dada, y entonces su carácter difuso la condena a una confesión incompleta. Sin embargo, vale la pena aventurarse, ya que la teoría cuántica tiene también consecuencias positivas, especialmente en lo que concierne a las singularidades.

1. Estabilidad atómica
En sentido conceptual, aunque no histórico, al principio de la teoría cuántica aparece un problema de estabilidad similar al de las situaciones gravitatorias. Un átomo de hidrógeno está formado por un protón, de carga positiva, como núcleo y un electrón, de carga negativa, en la corteza. Un electrón viene a tener dos milésimas de la masa del protón, por lo que la manera clásica de imaginarse el átomo es un electrón que orbita alrededor de un pesado protón inmóvil. A causa de la atracción eléctrica el electrón se ve obligado a recorrer una trayectoria circular, del mismo modo que la Luna orbita alrededor de la Tierra a causa de la fuerza de la gravedad. El radio de la órbita del electrón podría considerarse como radio del átomo de hidrógeno, que tiene una longitud aproximada de cincuenta milmillonésimas de milímetro.
Pero en esta idea surge un grave problema: una carga cuya trayectoria se desvía de una línea recta debe emitir ondas, según la teoría del electromagnetismo de Maxwell. Esto es similar a la radiación de ondas gravitatorias en un púlsar doble, cuya distancia se reduce con el tiempo a causa de la pérdida de energía y así, como se ha explicado en el capítulo anterior, permite unas impresionantes comprobaciones de la teoría de la relatividad general. En el caso de la radiación electromagnética de cargas en movimiento, como el electrón, el fenómeno es mucho más cotidiano; a menudo se utiliza, por ejemplo, en la producción de rayos X o de señales de telefonía móvil.
La radiación de ondas también implica que el electrón pierde energía cinética y, por consiguiente, se acerca en su recorrido al protón. La energía perdida se irradiará a partir del átomo como luz cromática o en forma de otras ondas electromagnéticas no visibles. Las ecuaciones de Maxwell permiten calcular la cantidad de energía perdida y, según estos cálculos, la radiación es emitida mucho más rápidamente que en el caso de las ondas gravitatorias: el electrón irradiaría en una fracción de segundo toda su energía y chocaría con el protón. Al contrario del encogimiento que se produce en los púlsares dobles, este comportamiento contradice totalmente la observación según la cual el hidrógeno existe de forma estable durante un tiempo tan largo como se desee. Por lo tanto, la idea clásica falla, no solo en el caso del átomo de hidrógeno, sino en todos los átomos. Si la materia cumpliera estas leyes clásicas, no podría ser estable, ya que los átomos solo existirían durante fracciones de segundo. Este problema no es tan espectacular como el de las singularidades de la teoría de la relatividad general, en las que el espacio y el tiempo llegan a sus límites, y con ello ya no puede existir literalmente nada más. Pero, por otra parte, sí es un problema más concreto, ya que la inestabilidad de la materia nos afectaría de una forma muy personal.

1.1. La función de onda
Entonces ¿cómo nos ayuda aquí la teoría cuántica? Según esta teoría, los protones, los electrones y todo lo demás no son partículas del tipo clásico que puedan representarse como esferas puntuales o masivas. En lugar de esto, lo que llamamos partícula se corresponde con una función de onda, es decir, con un objeto expandido y difuso a causa de su carácter ondulatorio. No se le puede atribuir una frontera nítida, como la que tiene una esfera, sino que la función de onda se pierde de manera gradual con valores extremadamente pequeños fuera de su zona central, en la que toma valores elevados. Del mismo modo que en el agua una onda se propaga gradualmente sin que pueda decirse cuándo ha adelantado a un nadador, así también las funciones de onda de la teoría cuántica carecen de límites definidos. Sus estribaciones, aunque en la mayoría de los casos tienen muy poca altura, pueden llegar muy lejos del centro, que en principio podría considerarse como la posición de la partícula clásica. De aquí se derivan muchos fenómenos que a primera vista pueden resultar quizá extraños, pero que en realidad pueden observarse.
También resulta peculiar la interacción entre distintos objetos descritos por funciones de onda. Mientras las partículas clásicas pueden situarse como bolas de billar en distintos lugares, y se les puede hacer chocar a distintas velocidades, para hacer después el seguimiento de sus movimientos y colisiones, en cambio una sola función de onda puede ocupar todo el espacio. Aunque esté alejada del centro y solo presente unas alturas mínimas, es en cualquier caso distinta de cero. Si ahora colocamos una segunda función de onda en algún lugar del espacio, su subsuelo es distinto del que tendría si no existiera la primera función de onda. Además, esto sucede incluso cuando las respectivas crestas centrales de las ondas están muy alejadas la una de la otra, de tal modo que podrían ignorarse todas las posibles fuerzas de atracción o repulsión. La sola presencia de la primera función de onda en algún lugar del universo ejerce cierta influencia en cualquier otra función de onda. Desde luego, es curioso que estados totalmente diferentes de un solo objeto puedan superponerse y, por lo tanto, coexistir. Esto lo llevó al extremo Erwin Schrödinger, uno de los principales artífices de la mecánica cuántica, en su experimento mental llamado «el gato de Schrödinger». En dicho experimento un gato está encerrado en una jaula cuyas paredes no son transparentes, y en el que, además, hay un dispositivo terrible: se trata de un compuesto radiactivo cuya radiación pone en movimiento el pivote de un detector que luego rompe un contenedor lleno de gas tóxico. El compuesto radiactivo se selecciona de modo que solo emite una radiación extremadamente débil, por lo que rara vez activa el detector y desencadena el juego letal.
Como en todo el mundo atómico, es la mecánica cuántica la que determina si la radiación va a poner en marcha el detector y cuándo lo va a hacer. También los objetos macroscópicos, como el gato, han de obedecer, en última instancia, las leyes de la mecánica cuántica, pero sabemos por los hechos de la vida cotidiana que esto, a grandes escalas, rara vez ocurre. Esta es la razón de que la física clásica haya descrito con tanto acierto el universo, hasta que unas mediciones precisas han desvelado las auténticas sutilezas del mundo cuántico. A través de la clavija y el veneno, los efluvios de la sustancia radiactiva se transmiten directamente al mundo macroscópico del gato, que se ve indefenso frente a las leyes de la mecánica cuántica. No existe ley alguna para el momento de la desintegración de una sustancia radiactiva; solo la hay para la probabilidad de que se produzca una desintegración. Según la mecánica cuántica, esto significa que los átomos de la sustancia ni inician una desintegración, ni dejan de iniciarla, sino ¡ambas cosas a la vez! Los átomos se encuentran ante una superposición (o interferencia) de ambas posibilidades, por lo que el gato está también en un estado de zombi que combina la vida y la muerte. Solo cuando se realiza una medición y se ve cuál es el destino que ha corrido el gato, se puede determinar un estado definitivo. En el lenguaje de la mecánica cuántica, la función de onda se colapsa a causa de su superposición, pasando a un estado en el que hay un resultado de la medición claramente determinado.
Sin embargo, el resultado que se obtiene no está determinado previamente. Cuando la función de onda se colapsa, el hecho de realizar otra comprobación no conduce a otro estado; si se encuentra muerto al gato, este no va a resucitar porque se mire hacia otro lado. Por lo tanto, tras la medición el resultado es definitivo, pero antes de realizar la primera medición solo hay predicciones de la probabilidad del resultado. Si se realizara el experimento con cien gatos, estando cada uno de ellos expuesto a su propio instrumento mortífero, la mecánica cuántica diría con qué frecuencia, pasado un tiempo, se encontrarían gatos vivos, y con qué frecuencia aparecerían muertos, pero no cuáles viven o mueren. Cuanto más variadas sean las posibilidades que no están totalmente determinadas, en contraposición con una sola que está determinada según la física clásica, más importante será el papel que desempeña la teoría cuántica. En este caso se habla de fuertes fluctuaciones cuánticas, ya que de una medición a la siguiente puede cambiar radicalmente el resultado, es decir, fluctúa.
En el universo clásico no estamos acostumbrados a las superposiciones. Desde luego es así, aunque a veces hay dudas antes de que una sospecha se convierta en una cruda certeza. Pero aquí estamos convencidos de que una posibilidad concreta se hace realidad. Lo que sucede es que no sabemos con exactitud cuál será. En la mecánica cuántica esto es diferente: también existe la incertidumbre, pero podemos demostrar matemáticamente que, junto con las superposiciones, entra en juego una calidad completamente nueva. Esto se ha confirmado con mediciones, por lo que no hay ninguna duda de que los objetos microscópicos se presentan realmente en superposiciones de distintos estados. Algo así no se ha observado todavía para objetos macroscópicos, como un gato, aunque en principio sería posible. Cuanto mayor es el tamaño de un objeto, más difícil es situarlo en una superposición y mantenerlo en ella. Así se explica que no conozcamos este caso por nuestra experiencia cotidiana y que, por consiguiente, nuestra imaginación tenga que esforzarse mucho para asimilar el concepto de las superposiciones. El texto que ofrecemos a continuación es un completo ejemplo de una superposición acompañada de su colapso final:
Era una pequeña araña. Había construido con sus hilos una tela y tenía hambre. ¿Qué más podía hacer? Estaba inmóvil en su rincón y esperaba con las extremidades estiradas, los ojos dirigidos hacia arriba, mirando a través de la tela. No le dio muchas vueltas, porque sinceramente no sabía en qué podía pensar una araña. Se limitó a dejar que pasara el tiempo, a la espera de ese acontecimiento inconfundible que anunciaría el final de su hambre.
Al cabo de un rato pasó algo por su mente. No era un pensamiento, ya que seguía sin saber en qué puede pensar una araña. No sabía cómo, pero recordó de repente que las arañas a veces devoraban a sus propios congéneres: las hembras a los machos. Se estremeció. Al menos estaba en el bando de las ganadoras. Se dio cuenta de que estaba todavía más hambrienta.
No sabía cuánto tiempo había pasado esperando en aquella posición tan cómoda. Su sentido del tiempo no estaba realmente muy desarrollado. Aunque sabía instintivamente que las cosas cambiaban (su estómago estaba a menudo vacío, pero solía darse un festín con bastante regularidad), no tenía el concepto de tiempo. ¿Era más aburrido esperar allí tranquilamente, si el tiempo no existía en absoluto? ¡Qué idea más absurda! Y empezó a dormitar.
De repente algo reclamó toda su atención. Había oído un ruido estridente y tenía la sensación de que aquel sonido había hecho vibrar la tela. El ruido, conocido y al mismo tiempo extraño en su pequeño mundo, le había irritado por un momento, ya que había interrumpido su apacible descanso. Sin embargo, al comprender lo que significaba, se había levantado de un salto: ya no estaría hambrienta durante mucho tiempo. Aunque no sabía cómo, conocía el significado del ruido y distinguió claramente cuatro palabras: « ¡La comida está lista!». La pequeña araña murió (olvidada), y ella corrió a la mesa.
Del mismo modo que aquí la aparente contradicción de la última frase deshace la superposición de «ella» (una niña que juega a ser araña) y «la araña», así también una medición en un sistema mecánico-cuántico lleva esto a un estado definitivo mediante el colapso de la función de onda.
Las superposiciones desempeñan un papel importante en la teoría cuántica y sus aplicaciones. Por ejemplo, se está intentando utilizarlas para montar un ordenador cuántico en el que los clásicos bits portadores de la información son sustituidos por bits cuánticos (abreviadamente, cubits). Se trata de superposiciones teórico-cuánticas de estados, que permiten más posibilidades de combinación que los bits clásicos. Si se consigue una estructura estable que mantenga todas las superposiciones intactas durante un tiempo suficientemente largo, sería posible la realización de cálculos con una velocidad muy superior a la de un ordenador habitual. Las distintas aportaciones de las funciones de onda superpuestas podrían, en cierto modo, intervenir en un cálculo todas o varias al mismo tiempo, en vez de hacerlo una tras otra como en los ordenadores clásicos, y así ofrecerían un nuevo modo de realizar los cálculos.
Además de esta posibilidad de las superposiciones, la teoría cuántica presenta otras diferencias importantes con los principios de los que se ha partido siempre en la física clásica anterior a la teoría cuántica. Al contrario de lo que sucede con una partícula clásica, a un objeto descrito mediante una función de onda no se le puede atribuir una posición espacial fija o una velocidad determinada. Las mediciones de la posición y la velocidad van ligadas a un aspecto difuso interno que es imposible de eliminar por mucho que se mejoren los instrumentos de medición. Al realizar una única medición de la posición espacial puede resultar en principio cualquier valor dentro del dominio en el que la función de onda no toma el valor cero. Al llevar a cabo repetidas mediciones, en general se obtiene en cada una de ellas un valor diferente dentro del dominio. Y, cuando se realiza un gran número de mediciones, la frecuencia de una posición determinada se toma como resultado de la medición para la altura de la función de onda en ese lugar. Naturalmente, no se suele esperar que una onda se localice muy lejos de su centro; pero, si la altura en un punto es siempre distinta de cero, se puede considerar que, incluso en una posición alejada del centro, se trata de la auténtica onda. Al contrario de lo que sucede con una onda en el agua, que podemos divisar a la luz del día en toda su amplitud, las mediciones de una función de onda teórico-cuántica representan simplemente muestras tomadas al azar. En cierto modo se comprueba la onda menos veces, como si se estuviera percibiendo de noche, y antes de que se haya podido medir un número suficiente de veces para determinar su posición exacta, resulta que ya se ha desplazado o ha cambiado su forma (solo al tacto).
Por lo tanto, según la teoría cuántica, la altura de la función de onda en un punto indica cuántas veces se daría por bueno ese lugar como auténtica posición de la partícula. Matemáticamente, esta frecuencia es una probabilidad: el valor de la función de onda en esa posición determina en qué medida es probable el resultado «lugar X». Si la altura de la función de onda en un punto dado es mayor que en otro, en el tanteo se partiría preferentemente de esta posición de la partícula. Por lo tanto, es más probable que se identifique este lugar con la posición espacial de la partícula. De manera similar, es posible determinar las probabilidades para otras mediciones, como la de la velocidad o la de cualquier otra magnitud que pueda ser de interés. Se podría pensar que así determinamos la totalidad de la función de onda, midiendo la posición espacial suficientes veces y deduciendo como resultado de las mediciones la forma de la función de onda en el espacio a partir de las frecuencias de todos los puntos. Cuando se anota cada resultado de las mediciones en un diagrama, se observan zonas más oscuras en las que a menudo se descubre la partícula en un entorno claro en el que dicha partícula rara vez entra. Resultan así contornos difusos, pero perceptibles, que podrían considerarse como la forma del objeto medido.
Pero este concepto de onda sigue siendo muy clásico y no se adapta en absoluto a la teoría cuántica. Estas mediciones serían tan sensibles que la propia medición, como proceso físico, influye en el estado descrito por una función de onda. Después de una medición (por ejemplo de la posición espacial), la función de onda es diferente de lo que era antes. En la mayoría de las mediciones poco cuidadosas se llega tan lejos que la función de onda se colapsa a causa del proceso de medición. Algo parecido al prodigioso «lecho cuántico» de Gawain, el hit Merveille:

Él [Gawain] entró en una cámara cuyo brillante pavimento estaba pulido y liso como un espejo. Allí se encontraba el hit Merveille, el lecho prodigioso. […] Empezaba, pues, con buena fortuna. Sin embargo, tan pronto como se acercó al lecho, este se apartó y cambió de lugar. […] Gawain se dijo para sus adentros: « ¿Cómo voy a llegar hasta ti, si me esquivas? ¿Lo conseguiré quizá si salto sobre ti?». Y así, cuando el lecho se encontraba justo ante él, saltó rápidamente y se lanzó al centro del mismo. Nadie puede imaginarse la velocidad con la que el lecho se disparó entonces hacia un lado y otro. […] De repente el estruendo llegó a su fin, y el lujoso lecho se detuvo en medio del pavimento de tal modo que quedó a la misma distancia de todas las paredes.
WOLFRAM VON ESCHENBACH, Parsifal

La idea de esto es que se nos niega la posibilidad de determinar la función de onda completa, aunque hagamos muchas mediciones repetidas de un mismo objeto. Hay muchos procedimientos de medición que actúan con delicadeza y son más cuidadosos con la función de onda, pero ninguno acaba sin haber influido de algún modo en ella. Se trata aquí de un problema de principio que no puede resolverse perfeccionando la técnica, ya que cada medición debe producir una interacción con el objeto medido para conseguir algún tipo de información.
En la vida cotidiana pueden investigarse la forma y el estado de las superficies palpándolas, sin que esto afecte a los objetos fuertes y consistentes. Sin embargo, otros objetos más sensibles sufren modificaciones, o incluso quedan destruidos, al ser palpados o medidos, por lo que no pueden ser investigados de una manera fiable. Por supuesto, en vez de los dedos pueden utilizarse otros métodos de medición más delicados, como los procedimientos ópticos. Ahora bien, incluso la luz transporta energía e interacciona necesariamente con el objeto investigado, realizando un intercambio de energía para explorar las propiedades de dicho objeto. En el caso de las sensibles funciones de onda de la física atómica cualquier luz, aunque sea extremadamente débil, resulta demasiado rica en energía como para dejarlas intactas. Por lo tanto, toda medición modifica el objeto medido, lo cual implica una limitación fundamental de la información obtenida. Sin embargo, todo lo que se pueda obtener mediante un refinado perfeccionamiento de la técnica constituye una determinación lo más completa posible de las características de la función de onda dentro de los límites que fija la mecánica cuántica. Estas mediciones cautelosas reciben el nombre de «quantum non-demolition», ya que intentan no destruir la función de onda. Pero, incluso en este caso, es imposible determinar completamente la función de onda. Por lo tanto, no se trata en sentido estricto de un objeto físico que sea plenamente observable en todos sus detalles, sino una descripción matemática de las propiedades que resultan accesibles.
La influencia de las mediciones sobre el objeto medido tiene otra consecuencia conocida y extremadamente importante: el principio de incertidumbre (o relación de indeterminación) de Heisenberg. Las relaciones de indeterminación aparecen cuando se consideran mediciones de ciertas magnitudes diferentes que reciben el nombre de complementarias. El mejor ejemplo es el de la posición y la velocidad de una partícula descrita mediante una función de onda. En este caso parece que se puede representar la relación de indeterminación mediante un proceso de medición explícito, aunque también idealizado. La posición puede determinarse, por ejemplo, con ayuda de un microscopio, teniendo en cuenta que la dispersión de la luz al pasar junto a la partícula da información sobre la posición de la misma. Esta dispersión, cuyo comportamiento es importante para el éxito del proceso de medición, da lugar también a una interacción que influye en el objeto investigado. La luz transporta energía, y el proceso de dispersión modifica el estado cinético de la partícula. Si, por ejemplo, esa partícula estaba previamente en reposo, después de la dispersión tendrá un ligero movimiento. Este es imperceptiblemente pequeño en los objetos macroscópicos con los que nos encontramos en la vida cotidiana, pero desempeña un papel decisivo en el caso de objetos microscópicos como el electrón.
En cualquier medición muy exacta de la posición de la partícula se modifica de manera inevitable la velocidad de la misma, y estas son precisamente las magnitudes complementarias en este ejemplo concreto. El efecto sobre la velocidad es mayor cuanto más exacta sea la medición de la posición espacial que se desea hacer: una medición exacta de la posición requiere el uso de una luz dotada de una energía mayor, lo cual se ve claramente al cambiar de un microscopio óptico (o de luz) a un microscopio electrónico. Una luz más energética influye más en la velocidad, y una medición de la velocidad será más imprecisa cuando se aumente la exactitud de la medición de la posición. He aquí la relación de indeterminación de las magnitudes complementarias: si se quiere medir una de ellas con la mayor exactitud posible, hay que pagarlo con una renuncia a la exactitud de la magnitud complementaria. Estas relaciones desempeñan un papel no solo en la física atómica, sino también en la cosmología, como veremos más adelante.
La relación de indeterminación es una ley natural de la teoría cuántica, y no se puede soslayar si se desea que esta teoría sea válida.[7] A pesar de estas limitaciones quizá indeseadas que surgen al efectuar mediciones, las funciones de onda de la mecánica cuántica tienen una consecuencia totalmente positiva para la estabilidad de los átomos. La función de onda de un electrón, al contrario de la clásica idea de la partícula que orbita alrededor del núcleo, produce un estado estable, como explicaré más adelante. Con ello está asegurada la estabilidad de la materia, incluso en la descripción teórica. Además, hay unos cálculos concretos de los que se deduce que la función de onda de un electrón contenido en un átomo, al contrario que el electrón como partícula clásica, solo existe para valores discretos de energía del átomo. En la mecánica cuántica un electrón vinculado a un núcleo describe una función de onda esférica con longitud de onda fija en torno al núcleo atómico. Si se traza una onda como esta alrededor del núcleo, con una sucesión de crestas y valles alternados, cambia en general la forma después de una vuelta. El vértice de una cresta no coincide exactamente con la posición inicial. Esto se repite en cada vuelta, y finalmente una cresta de la onda coincide por completo con un valle. Entonces los valores negativos del valle compensan los positivos de la cresta, y en esta destructiva interferencia desaparece la onda. Solo excepcionalmente, en circunstancias muy especiales, transcurre la onda en tal armonía que, después de cada vuelta, las crestas coinciden siempre exactamente con crestas, y así no se produce destrucción alguna. Se trata de distancias al núcleo «permitidas» para los electrones, de tal modo que estos se encuentran aislados y no pueden encontrarse arbitrariamente cerca unos de otros. A través de este carácter discreto, como consecuencia inmediata de la naturaleza ondulatoria del electrón, se ponen de manifiesto muchas propiedades de la teoría cuántica.
Así resultan estados de excitación del átomo que existen por separado y configuran el ya mencionado espectro atómico. Entre todos estos, es el estado estable, llamado estado fundamental, el que posee menos energía, siendo todos los otros más energéticos, es decir, son estados de excitación. En cambio, desde una perspectiva clásica sería de esperar que, eligiendo el radio de la trayectoria del electrón, se pudiera alcanzar cualquier valor energético deseado. En el estado de excitación se emite energía, por lo que el electrón pasa entonces a un estado energético inferior. Dado el carácter discreto de los niveles energéticos posibles del átomo, las energías irradiadas solo pueden tomar ciertos valores, que vienen dados por las diferencias entre los valores de las energías de excitación. Esto puede observarse directamente a través de las características de la luz emitida, y compararse luego con los cálculos de la teoría cuántica. Con esto se pone a prueba una y otra vez la teoría cuántica, que hasta la fecha ha superado todas las comprobaciones satisfactoriamente.
Estos datos se conocían ya antes de que se desarrollara la teoría cuántica a principios del siglo XX, porque el carácter discreto de los espectros de emisión o absorción son relativamente fáciles de medir. Explicar esto constituía una fuerte motivación para los investigadores implicados en las primeras etapas de la teoría cuántica. A diferencia de lo sucedido con la teoría de la relatividad general, cuando se desarrolló la mecánica cuántica existían muy buenos datos experimentales que no podían explicarse con las teorías clásicas. Por lo tanto, los investigadores disponían de indicios importantes para saber cómo había que transformar la física clásica. En otro caso, la teoría cuántica, con sus extrañas conclusiones derivadas de la función de onda, no habría llegado a inventarse, y mucho menos se habría aceptado.

1.2. El clásico caso límite y las fuerzas efectivas
La ampliación de una teoría ya establecida debe explicar nuevos datos observacionales, pero no puede entrar en contradicción con los fenómenos que ya ha explicado la vieja teoría. Llevar esto a la práctica no es tarea fácil, ya que, con el poderoso avance de la física que se ha producido desde Galileo Galilei, las teorías existentes han llegado a ser enormemente acertadas y explican gran número de fenómenos que llenan los libros de texto, e incluso las bibliotecas. Por lo tanto, no es posible examinar de nuevo todas las explicaciones formuladas hasta ahora y demostrar de manera explícita que no aparece contradicción alguna. En vez de esto se puede utilizar directamente el hecho de que las ampliaciones de una teoría suelen introducir un parámetro nuevo: una nueva constante universal. Los fenómenos que explican la nueva teoría permiten determinar el valor de este parámetro mediante la comparación de las predicciones de la teoría con las mediciones realizadas. La antigua teoría se mantendrá como caso límite dentro de la ampliación, si el nuevo parámetro toma un valor límite fijo que no es coherente con las observaciones recién explicadas y que en la mayoría de los casos es cero (o infinito, lo cual está permitido en estos procesos límite).
En el caso de la teoría de la relatividad, el nuevo parámetro es la velocidad de la luz, que en la física newtoniana se consideró infinitamente grande. Por esta razón, en la ley de la gravitación de Newton se produjo la indeseada acción a distancia, ya que, al no existir límite superior para las velocidades de propagación, como la de la luz, la acción de una masa se ejerce al instante y sin demora sobre masas que están tan lejos como se quiera. En el caso de la teoría cuántica, el nuevo parámetro es la llamada constante de Planck, que expresa la magnitud de los saltos discretos de energía. (Fue introducida por Max Planck en relación con la radiación térmica, de la que hablaré más adelante). Este parámetro puede determinarse a partir de los espectros de emisión de los átomos, ya que estos reflejan el carácter discreto de los niveles de excitación. Cuando la constante de Planck se hace cero, todos los niveles de energía se aproximan entre sí, y se obtiene como caso límite la física clásica con sus valores energéticos arbitrarios. Así se puede demostrar matemáticamente y de una forma muy económica que no se pierde ninguno de los aciertos de la antigua teoría, que en este caso es la física clásica, porque sus predicciones se refieren a situaciones en las que el carácter discreto de las energías no desempeña papel alguno.
Para determinadas funciones de onda puede demostrarse de forma explícita su aproximación al comportamiento clásico. Esto es importante, porque, aunque la teoría cuántica tendría que aplicarse a todos los fenómenos, hay muchas situaciones relacionadas con objetos macroscópicos para las que siguen obteniéndose unas descripciones muy precisas utilizando cálculos clásicos. Un guardameta tiene que prestar atención a muchas cosas cuando le disparan un penalti, pero no tiene que preocuparse por el hecho de que el balón, a causa de la indeterminación de su función de onda, pueda aparecer en un lugar completamente diferente de aquel en que el portero lo ha visto poco antes. Por lo tanto, tiene que haber funciones de onda que describan objetos macroscópicos, pero no hagan que sean perceptibles los extraños fenómenos de la teoría cuántica. Estas funciones reciben el nombre de semi clásicas, ya que son magnitudes de la teoría cuántica, pero en su comportamiento se aproximan mucho a la física clásica.
El estado fundamental de un átomo no es tal, ya que en él es muy marcado el comportamiento cuantizado; si no fuera así, no se podría resolver el problema clásico de la inestabilidad. Asimismo no son semi clásicos los estados con valores energéticos parecidos, donde los saltos cuánticos son también perceptibles. Sin embargo, si se avanza hacia energías cada vez más elevadas, es decir, hacia excitaciones más intensas, los saltos de energía serán menores.

05.jpg
Figura 5: Para un electrón vinculado a un átomo de hidrógeno existe una cantidad infinita de valores energéticos que están permitidos, pero se mueven en un dominio limitado. Por esta razón se acumulan en un lugar en el que la distribución discreta aparece como un continuo. En este dominio las características especiales de la teoría cuántica apenas son perceptibles, al contrario de lo que sucede para energías más bajas, en cuyo caso hay grandes distancias entre los valores permitidos.

Esto se debe a que hay una cantidad infinita de estados energéticos, pero solo es necesaria una energía final para alejar al electrón del átomo. De hecho, es posible ionizar átomos suministrándoles una cantidad suficiente de energía, con lo que un electrón, o incluso más, se alejarán de la corteza, y quedará un ion con carga positiva. La cantidad infinita de niveles energéticos ocupa una zona energética finita, y por lo tanto estos niveles tienen que acumularse en un punto (véase la figura 5). Aquí la distancia entre niveles vecinos será cada vez menor, lo cual se corresponde en mayor medida con el conocido comportamiento clásico.
Las funciones de onda que se refieren al átomo para un estado correspondiente a este dominio energético pueden tener fácilmente un comportamiento semiclásico. Como se ve en la figura 6, podemos imaginarnos una de estas funciones de onda como una sola cresta cuyo vértice es extraordinariamente puntiagudo y, a lo largo del tiempo, sigue una trayectoria espacial que sería el resultado de las ecuaciones clásicas del movimiento para la posición de un electrón. Aquí nos encontramos con una función de onda que muestra cierta expansión, por lo que la posición del electrón sigue sin estar claramente definida. Si no se requiere demasiada exactitud, en una descripción aproximada de la situación puede dejarse a un lado la expansión de la función de onda e identificar su valor más alto con la posición de un electrón. De esta manera se accede a la teoría clásica como caso límite de la teoría cuántica válida en general.

06.jpg
Figura 6: Una onda que se desplaza a lo largo de la curva punteada y se propaga en el transcurso del tiempo (hacia arriba).

Pero si se observa con detalle, las clásicas ecuaciones del movimiento no se corresponden exactamente con las crestas semi clásicas. Si se sigue durante más tiempo el movimiento de una función de onda semi clásica, aparecerán cada vez más claras unas pequeñas divergencias con respecto a la trayectoria clásica. La función de onda está en su totalidad sometida a una evolución en el tiempo que viene descrita por la ecuación de Schrödinger (de nuevo, una ecuación diferencial que expresa la variación de la función de onda para variaciones mínimas del tiempo). Con ello no solo cambia la posición del vértice de la cresta de onda, sino también su anchura y su forma. Solo en casos excepcionales se produce el hecho de que el vértice de la cresta pueda seguir exactamente la trayectoria clásica; en otros casos será arrastrado hacia fuera de la curva clásica mediante un cambio en la forma de todo el conjunto de ondas: como en el caso de las ondas del agua, un fondo accidentado influye de diferente manera en la velocidad de cada una de las partes de la onda. A un lado del vértice la onda parece ir un poco a la zaga del máximo, y da la sensación de que la ladera de la cresta se desmorona. Así, al variar la forma de la cresta de la onda, el vértice se retrasa, añadiéndose esto a su movimiento global, tal como se ve ambas cosas reflejadas en la figura 7. En el caso de una función de onda semi clásica, estas desviaciones son muy pequeñas en cada instante, por lo que en un momento dado parece como si se recorriera de manera exacta la trayectoria clásica. Sin embargo, con el paso del tiempo se suman las desviaciones, de tal modo que es preciso llevar a cabo rectificaciones para conseguir una descripción matemática correcta. A partir de las desviaciones observadas en trayectorias que se suponían clásicas es posible en muchos casos confirmar los efectos de la teoría cuántica de manera experimental.

07.jpg
Figura 7: Según el tipo de subsuelo, una onda puede desplazarse de manera rígida (izquierda), sin variar su forma, o puede adoptar distintas alturas en posiciones diferentes. La onda de la derecha, por ejemplo, se desmorona por su lado izquierdo, con lo cual su máximo parece desplazarse hacia la derecha. Estos efectos de transformación que afectan a ciertas partes de la función de onda no aparecen en la física clásica y, sin embargo, influyen en la posición del máximo de la onda. Para describir con exactitud la posición, serán necesarias determinadas correcciones cuánticas de las ecuaciones clásicas en forma de fuerzas efectivas.

En la medida en que las correcciones correspondan a pequeñas desviaciones de la trayectoria (en comparación, por ejemplo, con el radio del átomo en un estado similar), pueden utilizarse métodos matemáticos de aproximación, en concreto las llamadas teorías perturbacionales: la desviación se considera como una pequeña perturbación de la trayectoria clásica, y puede calcularse con facilidad. En lugar de calcular estas perturbaciones directamente a partir de un paquete de ondas semiclásico como solución de la compleja ecuación de Schrödinger, es posible introducir modificaciones en las propias ecuaciones clásicas. Aplicando correctamente el procedimiento matemático, queda garantizado que la solución de las nuevas ecuaciones describe la trayectoria de la cresta de la onda mejor que las soluciones de las ecuaciones estrictamente clásicas. Las ecuaciones rectificadas pueden, por ejemplo, incluir una fuerza que la teoría clásica desconoce. Una fuerza así sería la descripción efectiva de las repercusiones que tiene la cresta de onda variable en la posición de su propio vértice.
Las modificaciones de las ecuaciones del movimiento se llaman correcciones cuánticas y, a diferencia de los términos clásicos, dependen de la constante de Planck. Si hacemos que esa constante sea cero, desaparecen también las correcciones cuánticas, lo cual es otro ejemplo de cómo la teoría clásica puede considerarse un caso límite de la teoría cuántica. Las ecuaciones modificadas con las correcciones cuánticas son a menudo muy eficaces y, no solo permiten un sencillo cálculo de ciertas magnitudes, sino también en muchos casos una comprensión intuitiva de los fenómenos cuánticos. Esto último se basa en el hecho de que ciertamente la función de onda se utiliza de manera indirecta en la determinación de las correcciones cuánticas, pero luego no es preciso tener en cuenta además características tales como, por ejemplo, las dificultades que surgen a causa de la relación de indeterminación cuando se pretende medir al mismo tiempo la posición y la velocidad. Todo esto está garantizado ya desde la deducción de los términos correctores. Estas ecuaciones, llamadas ecuaciones efectivas, han desempeñado un papel importante desde los inicios de la mecánica cuántica, y recientemente en especial en la cosmología cuántica.
En las aplicaciones semi clásicas de la teoría cuántica surgen a menudo ciertos efectos que, como ya se ha dicho, pueden explicarse mediante el ejemplo de las ondas del agua en un lago. El máximo de la onda se corresponde con la posición de una partícula clásica, pero una onda siempre debe propagarse. Esto significa que la posición de la partícula no está claramente definida. A causa de su propagación, la onda reacciona de forma muy sensible ante posibles irregularidades de distintas zonas del fondo, incluso en lugares en los que la partícula, según la física clásica, nunca estaría. Por ejemplo, puede haber estribaciones de la onda que lleguen hasta zonas superficiales del lago, aunque su máximo esté muy lejos de allí. Pero en las zonas superficiales la onda se propaga de una manera diferente a como lo hace en las zonas profundas, ya que la velocidad de las estribaciones de la onda en un lugar concreto depende de la profundidad del lago. La dirección del movimiento de toda la onda, así como la forma que componen las distintas estribaciones de la misma, cambian según cómo esté configurado el suelo bajo la onda. Unas conocidas consecuencias de todo esto son las olas oceánicas que rompen en las playas, porque la dirección de su movimiento se vuelve hacia la costa a causa de la disminución de la profundidad. Los cambios en la forma de una onda debidos al perfil del suelo pueden observarse de una manera impactante en las olas que se levantan y van a romper al final en la playa.
La ruptura de una onda no supone ya una mera perturbación en una sencilla ecuación del movimiento, sino que produce un efecto mucho más fuerte. Pero, antes de que suceda esto, la posición del máximo se desplaza ligeramente a causa del perfil del suelo, lo cual puede ser tomado en cuenta mediante una corrección. Además, la onda seguirá propagándose y extenderá su alcance hacia nuevos dominios: a causa de las distintas velocidades de propagación que adopta en diferentes profundidades, los aportes de una onda algo expandida experimentan ligeras variaciones a lo largo del tiempo, y estas hacen que la onda siga dispersándose aún más. (En casos excepcionales podrían concentrar la onda con mayor intensidad en un pequeño dominio, pero para esto sería necesario que se coordinaran todas las estribaciones de la onda. Además, estas estribaciones, después de haber producido en un momento dado una cresta más concentrada, se separarían de nuevo).
Además de la necesidad de aplicar correcciones a la trayectoria de una partícula cuando la cresta de la onda simboliza la posición difusa de dicha partícula, el ejemplo de la onda en el agua ilustra el largo alcance de los efectos cuánticos: unos dominios lejanos que no desempeñarían papel alguno en la teoría clásica influyen aquí en la posición de la onda. Para conseguir una descripción exacta se debe conocer la totalidad de la onda, no solo la posición de su máximo. Además, la propagación se intensifica con el paso del tiempo e influye a su vez en la posición de la cresta. Junto a la posición y la propagación existen también innumerables parámetros que son necesarios para una descripción precisa de la forma de la onda. En sentido estricto, no se puede describir una onda completa con un número finito de parámetros, porque para ello sería necesario conocer la elevación de la onda en todos los puntos, es decir, en una infinitud de posiciones. Dado que se influyen mutuamente, todos estos parámetros están sometidos a complejas variaciones en el tiempo. En general, una descripción matemática correcta solo puede conseguirse con ayuda de la ecuación de Schrödinger y de unas soluciones matemáticas completas. Pero, por suerte, muchas veces no nos interesa la onda completa, sino únicamente unos pocos parámetros como la posición de la cresta y la anchura. Si la propagación no es demasiado fuerte, como sucede en estados semiclásicos, puede reducirse esta compleja serie de números a solo unos pocos. El procedimiento matemático que está detrás de todo esto es precisamente el de las ecuaciones efectivas.
Estos métodos de aproximación están presentes en toda la física. Los encontramos, por ejemplo, en la física de partículas, donde pueden describirse las complejas interacciones de las partículas elementales mediante ecuaciones efectivas, cuando las energías no son muy elevadas. En la física de altas energías a menudo se habla de producción de un par de partícula y antipartícula en contraposición a la anchura de una función de onda. Este proceso se basa en otra consecuencia de la relación de indeterminación: también la energía es indeterminada y, por lo tanto, puede utilizarse durante un breve tiempo para la producción de una partícula y su correspondiente antipartícula, siempre que esta pareja se destruya pronto y devuelva así la energía que se le ha prestado. También aquí se ensancha la función de onda, cuando de repente aparecen dos nuevas partículas.
Del mismo modo que la propagación de ondas en un lago depende de la forma del fondo, también el proceso de producción de pares de partículas depende del fondo, que en este caso es la forma del espacio-tiempo. Más adelante nos encontraremos con las consecuencias de este proceso en la cosmología y en los agujeros negros. En parte pueden producirse ciertos fenómenos drásticos comparables con la elevación de olas en un maremoto, en el que un fondo que cambia de forma con gran rapidez genera grandes olas en la superficie. Cuando el espacio-tiempo se expande, especialmente de forma acelerada, pueden formarse unas ondas que adoptan la forma de nueva materia. El universo se expande, pero, al contrario que el fondo oceánico durante un maremoto, no lo hace periódicamente, por lo que los efectos no son tan drásticos. Pero es importante la aceleración del fondo. Como se verá más adelante en un capítulo dedicado a la cosmología observacional, con la llamada inflación cósmica se supone que en las primerísimas etapas del universo se produjo, de hecho, una expansión acelerada del mismo. Si estas hipótesis son correctas, la expansión acelerada que reinaba allí sería suficiente para producir, como una onda que se alza del vacío, toda la materia que actualmente existe.
Hasta ahora solo hemos considerado una única onda con todo su efecto de propagación. Pero en el universo, como en un lago, hay en la mayoría de los casos muchas ondas que se superponen unas a otras. Con esta superposición las ondas se influyen mutuamente en su movimiento, lo cual, al contrario de lo que sucede con las rígidas partículas clásicas, no exige ningún contacto directo. Incluso más tarde, cuando las ondas ya se han alejado unas de otras, pueden conservar durante largo tiempo en la memoria un recuerdo de esta interacción: un fenómeno que, según Erwin Schrödinger, hay que considerar como una limitación. En la mecánica cuántica, esto llega tan lejos que un suceso generado en una ola, ya sea porque esta rompe, o se procede a una medición mecánico-cuántica, puede influir considerablemente en otra ola que se encuentra muy lejana en el océano. Por lo que respecta a las ondas generadas en un lago, no sería de esperar un efecto tan fuerte, pero en la mecánica cuántica sí sería posible a causa de la no linealidad del proceso de medición: unas variaciones pequeñas pueden producir unos efectos desproporcionadamente fuertes en un sistema no lineal.
Ahora bien, ¿por qué entonces los objetos macroscópicos que nos encontramos en la vida cotidiana no se ensamblan de esta manera? En estos casos, para ejercer una influencia, es casi siempre necesario el contacto directo, o al menos la emisión de una señal. Resulta que el ensamblamiento de las funciones de ondas reacciona de manera muy sensible ante perturbaciones mínimas que normalmente ni siquiera percibimos. Incluso partículas individuales de aire, o la luz, o una radiación térmica en un vacío oscuro, influyen de tal manera en las funciones de onda que, en un proceso llamado de coherencia, junto con un aluvión de estímulos, olvidan su anterior entrecruzamiento.
También aquí podemos recurrir de nuevo al ejemplo del lago, pero será un lago bajo la lluvia. Las grandes ondas siguen siendo visibles y se puede contemplar durante largo tiempo su propagación, pero cada gota de lluvia aporta una pequeña onda nueva. En este lago lleno de perturbaciones irregulares se borran los detalles de la interrelación cruzada. Desde un punto de vista clásico, el universo tiene un aspecto similar a grandes escalas, porque las fluctuaciones y los entrecruzamientos se destruyen fácilmente. Sin embargo, a pequeña escala, en la física microscópica o en experimentos diseñados con gran precisión, las perturbaciones pueden mantenerse durante un tiempo lo suficientemente largo como para descubrir aquí el inusual universo de la física cuántica.
Y, así, finalmente se libera también al gato de Schrödinger: en un ser vivo tienen lugar tantos procesos que siempre aparecen perturbaciones debidas a la superposición mecánico-cuántica. Incluso cuando no se lleva a cabo medición alguna ni en el dispositivo, ni en el gato, se produce la superposición de desintegración y no desintegración de la sustancia radiactiva (vida y muerte para el gato), llegándose muy rápidamente a un estado estable. Durante algún tiempo, a causa de la débil radiactividad, la probabilidad de desintegración es muy pequeña, y el gato sigue vivo. En sentido estricto, los átomos de la sustancia están en una superposición o interferencia, y la proporción de materia desintegrada es muy pequeña. Entonces las perturbaciones del sistema hacen que esta superposición llegue rápidamente a un estado definitivo de no desintegración. Sin embargo, en algún momento la probabilidad de desintegración se vuelve lo suficientemente alta como para que la superposición se registre como desintegración definitiva, y el gato sucumba a su destino.

1.3. Fuerzas mecánico-cuánticas antagonistas
Volviendo a la cuestión de la estabilidad de los átomos, podemos conectar las importantes aportaciones de la teoría cuántica a este tema con la necesidad de fuerzas antagonistas para lograr una situación estable.

08.jpg
Figura 8: La función de onda expandida de un electrón significa que este, en un momento dado, no tiene necesariamente que encontrarse a un lado del protón en sentido estricto. La atracción eléctrica que se ejerce a distintos lados llevaría, por un efecto mecánico-cuántico, a la aparición de fuerzas antagonistas (flechas opuestas) que aseguran la estabilidad del átomo.

Al mismo tiempo esto nos lleva a otro ejemplo que ilustra la importancia de la función de onda. Para estabilizar el átomo de hidrógeno necesitamos una nueva fuerza que pueda actuar contra la pérdida de energía ocasionada por la radiación clásica. Esta fuerza aparece por la capacidad de expandirse que tiene la función de onda, cuando la distancia de su centro al protón del núcleo se hace mayor que la amplitud de la expansión de la onda. Entonces, aunque la parte principal de la función de onda sigue concentrándose a un lado del protón, una parte considerable se encuentra, sin embargo, en el lado opuesto.
Dado que la función de onda expresa la probabilidad de la posición del electrón, existe la posibilidad de que este cambie su ubicación y pase de estar a un lado del protón a situarse al otro lado. Desde luego allí seguirá experimentando la atracción eléctrica que le impulsa en dirección al protón, pero la fuerza, como muestra la figura 8, sigue la dirección opuesta al lado inicial. Con esto surge una fuerza antagonista que es contraria a la mera atracción eléctrica clásica de dos partículas puntuales y contribuye a estabilizar el átomo. La fuerza antagonista será máxima cuando la función de onda del electrón se centre como una esfera en torno al protón, lo que, de hecho, corresponde al estado fundamental calculado desde la mecánica cuántica (naturalmente, el protón no es por sí mismo una partícula puntual clásica, sino que está descrito también mediante una función de onda. Sin embargo, la expansión de la función es menor, porque la masa del protón es mucho mayor, y no tiene relevancia alguna en las observaciones: el pesado protón no gira tan vertiginosamente como el electrón y, por lo tanto, tiene una posición mucho mejor determinada). Esto constituye un claro ejemplo del modo en que la teoría cuántica puede llevarnos a descubrir nuevas fuerzas que implican estabilidad.

2. Radiación térmica
La radiación térmica en un hohlraum («cuerpo hueco») cerrado, el llamado cuerpo negro, fue, junto a los espectros de emisión y absorción de los átomos, un fenómeno importante durante los primeros años de la teoría cuántica. Lo que nosotros percibimos como calor son diminutas oscilaciones de los átomos o las moléculas de un cuerpo. Dado que estos componentes de la materia están constituidos por cargas eléctricas, el movimiento oscilatorio hace que, también en este caso, se irradie energía, concretamente la radiación térmica. La radiación puede controlarse muy bien en un cuerpo hueco cerrado, por lo que a lo largo del siglo XIX se obtuvieron ya datos exactos de este fenómeno.
En principio, estas observaciones fueron compatibles con la teoría clásica relativa a esta radiación. En especial se midió la distribución de la energía de esta radiación en distintas frecuencias. La energía tendría que aumentar cuando las frecuencias son más altas, ya que entonces los átomos o las moléculas que emiten la radiación oscilan con mayor rapidez. De hecho, se midió este aumento, y los resultados de la medición llevaron a un serio problema en la comprensión del fenómeno: según los cálculos clásicos, la energía debería crecer ilimitadamente al aumentar las frecuencias a discreción, de tal modo que, sumando las energías correspondientes a todas las frecuencias, la energía total de la radiación sería infinita. Aquí también nos encontramos con un problema que, en cierto modo, es comparable al aumento infinito de la energía en los casos de singularidades cósmicas o en el interior de los agujeros negros. La teoría cuántica de la radiación térmica se entiende mucho mejor y está comprobada experimentalmente de una manera más detallada que la gravitación, de modo que podemos ver cómo se resuelve en este marco el problema de la energía infinita.
Tal como descubrió Max Planck antes de que se desarrollara la mecánica cuántica, la resolución de este problema se basa en el carácter discreto de la radiación energética. También los átomos y las moléculas de la pared del cuerpo hueco tienen espectros de emisión discretos y, por lo tanto, no pueden emitir cualquier cantidad arbitraria de energía. Teniendo en cuenta esto, cosa que Planck hizo sin tener conocimiento del trasfondo físico, se evita el aumento infinito de la energía en el caso de altas frecuencias y se obtiene una energía total finita. Según la historia, lo que motivó a Planck fue sobre todo el hecho de disponer de datos precisos que mostraban ya las primeras diferencias con respecto al esperado comportamiento clásico. En cambio, la fórmula de Planck concordaba excelentemente con aquellos datos nuevos. Entonces fue Einstein quien en 1905 explicó la fórmula de la radiación de Planck alegando la existencia de una distribución discreta de la energía de la radiación térmica, con lo que fue el primero que introdujo las partículas de luz cuantizadas, llamadas fotones.
Así pues, la fórmula de Planck muestra que la distribución de la energía en la materia cuando hay altas frecuencias (correspondientes a longitudes de onda cortas en la radiación) se comporta de una manera diferente de lo que sería de esperar según los conocimientos clásicos. También esto puede tener consecuencias a la hora de realizar una descripción completa de la teoría cuántica de la gravitación, ya que en la teoría de la relatividad la energía es equivalente a la masa y, por consiguiente, tiene efectos gravitatorios. Ahora bien, si la energía se comporta de otra manera cuando hay longitudes de onda cortas o pequeñas distancias, y no con el comportamiento que se le supone en la teoría (clásica) de la relatividad, esto significa que hay otra forma del espacio-tiempo, tal como determina la materia. La curvatura del espacio-tiempo, y con ella también la fuerza de la gravedad que ella misma genera, sería diferente de la que predicen las soluciones clásicas. Estas escalas de longitud tuvieron que ser significativas en el big bang, cuando el propio universo era pequeño, o en el centro de los agujeros negros. Si en estos casos la fuerza de la gravedad, modificada por la teoría cuántica, no fuera ya meramente atractiva, se contrarrestaría quizá el crecimiento infinito de la energía, y unas fuerzas gravitatorias antagonistas podrían propiciar situaciones estables. Solo una teoría concreta de la gravitación cuántica puede aclarar si esto es realmente así. Sin embargo, nos hace ser optimistas el hecho de que dos consecuencias de la teoría cuántica, que son independientes entre sí, nos acercan a esa posibilidad: la estabilidad de los átomos y la finitud de la radiación térmica en un cuerpo hueco.

3. Escalas de Planck
Dos capítulos más adelante abordaré una teoría de la gravitación cuántica, pero antes examinaré con mayor precisión las proporciones que son de esperar. Como ya se ha dicho, por ahora la teoría de la relatividad general concuerda muy bien con las observaciones realizadas. Por lo tanto, no se espera que la gravitación cuántica vaya a ser necesaria para explicar las observaciones. A diferencia de la abundancia de indicios que existía antes del desarrollo de la mecánica cuántica, todas las motivaciones que justifican la necesidad de la gravitación cuántica son de naturaleza conceptual, como, por ejemplo, el deseo de evitar el problema de las singularidades. Problemas similares aparecieron también en la física clásica de la materia con anterioridad al desarrollo de la mecánica cuántica, pero fueron considerados como algo marginal a la vista de la gran cantidad de datos empíricos que no podían ser explicados mediante los conceptos clásicos.
El papel que tendría que desempeñar la gravitación cuántica con respecto a las observaciones se hace evidente si consideramos los órdenes de magnitud que son relevantes a tal efecto, especialmente la longitud de Planck (que no debe confundirse con la constante de Planck). Aunque Planck no se dedicó en absoluto a investigar la gravitación cuántica, introdujo ya esta importante magnitud, porque había observado que a partir de la velocidad de la luz, de la constante de la gravitación que aparecía en la ley de Newton y de lo que luego se llamó constante de Planck, mediante una adecuada multiplicación y extrayendo una raíz cuadrada, podía definir una longitud, precisamente la que luego se denominó longitud de Planck. Mediante otras combinaciones se puede definir también un tiempo, el tiempo de Planck, y una masa, la masa de Planck. Esto resultaba fascinante, ya que en las mediciones necesarias para determinar experimentalmente la velocidad de la luz, la constante de la gravitación y la constante de Planck no interviene ninguna medición directa de longitudes, y sin embargo se obtiene una longitud mediante una simple combinación matemática. Por lo tanto, se podría utilizar esta relación para definir procedimientos sensibles de medición o convenir una nueva unidad de longitud.
Estos razonamientos no han desempeñado hasta ahora ningún papel en cuestiones tecnológicas, lo cual se debe en parte al pequeño tamaño de la longitud de Planck. En comparación con un radio atómico de 0,000000001 metros (es decir, una milmillonésima de metro), o incluso con el tamaño de un núcleo atómico de 0,000000000000001 metros (una milbillonésima de metro), la longitud de Planck es diminuta. Aplicando los conocidos valores de la velocidad de la luz, la constante de la gravitación y la constante de Planck se obtiene un valor de aproximadamente 0,00000000000000000000000000000000001 metros (10–35 o una cienmilésima de una milbillonésima de una milbillonésima de metro). Como la cifra de los órdenes de magnitud en la proporción entre un metro y las longitudes medibles mínimas (los tamaños de las partículas elementales que se ponen de manifiesto en los experimentos con acelerador de partículas), así de grande es la cifra de los órdenes de magnitud en la proporción entre estas longitudes medibles mínimas y la longitud de Planck.
El carácter extremo de las escalas de Planck viene determinado también por el tamaño de la densidad de Planck, que es la densidad correspondiente a una masa de Planck contenida en un cubo cuya arista es una longitud de Planck. Esta densidad es el equivalente de un billón de soles comprimidos en el volumen de un solo protón. Dado que una longitud de Planck contiene principalmente la constante de Newton, que es muy importante para la gravitación, y la constante de Planck, que es muy importante para la teoría cuántica, es de esperar que su orden de magnitud desempeñe un papel importante en la combinación de ambas teorías. Si el universo está comprimido con una densidad de Planck en las proximidades de la singularidad del big bang, en la cosmología será imprescindible la gravitación cuántica. Estos razonamientos basados en dimensiones suelen ser al menos aproximadamente correctos y permiten concebir importantes expectativas con respecto a teorías que aún están por desarrollar. Por ejemplo, en la mecánica cuántica se puede calibrar de manera similar el radio de un átomo de hidrógeno hallando de manera unívoca un parámetro de longitud a partir de la carga y la masa del electrón, que son importantes para el sistema, en combinación con la constante de Planck, puesto que se trata de un sistema mecánico-cuántico. Salvo un factor igual a dos, esta longitud concuerda con la expansión mecánico-cuántica de la función de onda del electrón en el estado fundamental de un átomo de hidrógeno, que es lo que se llama radio de Bohr.
A partir de esto se puede ver fácilmente por qué hasta ahora no existen observaciones que requieran sin lugar a dudas una teoría de la gravitación cuántica. Al fin y al cabo, la longitud de Planck es mucho menor que todas las distancias medidas hasta la fecha. Si alguna vez fuera posible medir longitudes próximas a la longitud de Planck, llegarían a ser importantes la gravitación cuántica y la estructura del espacio y del tiempo que esta implica. No obstante, es preciso manejar con precaución estos argumentos, ya que no funcionan en contextos complejos en los que deban tenerse en cuenta varios parámetros diferentes. Además, pueden existir efectos, como veremos más adelante, que requieran la suma de términos muy pequeños. Aunque en la gravitación cuántica las diferencias con respecto a la teoría de la relatividad general tendrían que ser pequeñas en un determinado momento de la evolución cosmológica, tales correcciones podrían adquirir mayor relieve durante el largo período de expansión de nuestro universo y hacerse perceptibles, a pesar de lo que haga suponer el pequeño calibre de la longitud de Planck. En la física, tales efectos indirectos han desempeñado a menudo un importante papel en el descubrimiento de fenómenos nuevos. Un conocido ejemplo es el movimiento browniano, que se ha utilizado para descifrar la estructura atómica de la materia, y en el que unos diminutos choques de los átomos contenidos en un fluido provocan un movimiento de los granos de polen que están en suspensión, siendo dicho movimiento visible mediante el microscopio óptico. Volveré a esta cuestión al principio del capítulo dedicado a la cosmogonía.
El valor de la longitud de Planck, que, aun siendo muy pequeño, sin embargo no es nulo, indica ante todo que existen situaciones cosmológicas, como el big bang, para cuya comprensión es absolutamente necesaria una teoría de la gravitación cuántica: si en este momento desapareciera la expansión global del universo, la longitud de Planck sería en ese contexto enorme. Con una teoría así se podría, por ejemplo, investigar la cuestión de las singularidades y la posible existencia de fuerzas antagonistas estabilizadoras. Aunque no existe todavía una teoría formulada por completo, sí hay algunas expectativas concretas y numerosos indicios sumamente alentadores.

Capítulo 4
Algunas observaciones sobre el papel de las matemáticas

Así aprendí triste la renuncia: nada habrá donde falte la palabra.
STEFAN GEORGE, La palabra

Contenido:
  1. ¿Las matemáticas constituyen un fin en sí mismas?
  2. Abuso del infinito
  3. Sobre hipótesis y teorías

En sí mismas la teoría de la relatividad general y la mecánica cuántica producen numerosos fenómenos desconcertantes o incluso paradojas aparentes, no solo a los ojos de las personas inexpertas, sino también en la apreciación de investigadores que llevan muchos años trabajando con estas teorías. Esta visión permite su formulación matemática, sin la cual serían imposibles la valoración y la comprensión de dichas teorías. Esto va unido a un considerable despliegue en el aprendizaje o el posterior desarrollo de teorías, especialmente cuando se trata de la gravitación cuántica, en la que se han de incluir también los conceptos matemáticos fundamentales de la teoría de la relatividad general y la mecánica cuántica. Una vez que se han estudiado, las matemáticas son insobornables y ofrecen recetas estrictas para responder a ciertas preguntas con respecto a las cuales la intuición no llega a cosas concretas o se enreda en paradojas.
La matematización de la física desde los tiempos de Galileo Galilei es la responsable del éxito sin parangón que ha tenido esta disciplina. Nos conduce a mundos totalmente nuevos: en sentido figurado son mundos de fenómenos; en sentido literal se trata de nuevos mundos dentro de la cosmología o también de «mundos nuevos llenos de belleza» en el sentido de la crítica social. Según Galileo, las matemáticas son el lenguaje de la naturaleza y resultan necesarias para la comprensión de esta. Las fórmulas matemáticas son las frases de la naturaleza, y sus palabras son las variables y operaciones matemáticas. «Nada habrá donde falte la palabra»: sin las matemáticas el conocimiento científico de la naturaleza queda limitado a los objetos que puede captar directamente la percepción sensorial. Con las singularidades del espacio-tiempo, tal como surgen en la teoría de la relatividad general, perdemos literalmente no solo algunos objetos, sino universos enteros. Tras desplomarse las frases más importantes de la teoría, la ecuación de Einstein, nos quedamos sin posibilidad alguna de abordar el universo anterior al big bang, o de entrar a fondo en el centro de los agujeros negros. Antes de nada es preciso encontrar una vez más palabras nuevas.
Los fenómenos predichos matemáticamente proporcionan una calidad totalmente nueva a la física. Por una parte, las teorías físicas pueden explicar ciertas impresiones que perciben los sentidos, como la luz polar o el azul del cielo. Pero estas teorías también dan lugar a impresiones totalmente nuevas que solo pueden captarse de manera abstracta y, por lo tanto, amplían el campo de lo que pueden percibir nuestros sentidos. Precisamente hay varios ejemplos dentro de la cosmología, como son los fenómenos del big bang y de los agujeros negros. Tales impresiones solo existen en las matemáticas que sirven de base a las teorías; sin embargo, pueden comprobarse mediante observaciones realizadas en el universo real, aunque sean de naturaleza más bien indirecta, y no impresiones directas captadas por los sentidos. Esta combinación de matemáticas rigurosas e impecable verificación en la naturaleza hace que la física se eleve por encima de los mitos y de la mera especulación; aquí es donde esta ciencia empieza a ser creíble.

1. ¿Las matemáticas constituyen un fin en sí mismas?

Pfuhl era uno de esos teóricos que se aferran a su teoría de tal modo que olvidan su aplicación a la práctica; desde su preferencia por lo teórico aborrecen cualquier práctica y no quieren saber nada de esta. Podrían incluso alegrarse de un fracaso, ya que consideran que este solo sería atribuible al hecho de que su teoría, al llevarse a la práctica, no se ha respetado suficientemente, por lo que el fracaso sería también una prueba de que dicha teoría es correcta.
LIEV TOLSTÓI, Guerra y paz

En los últimos tiempos se está considerando que las matemáticas son en sí mismas un fin dentro de la física, sobre todo en la investigación de la gravitación cuántica, que actualmente no está todavía sometida a control alguno mediante observaciones. La coherencia matemática vale por sí sola como criterio selectivo para elegir teorías. Esta es una condición muy restrictiva en la gravitación cuántica, ya que el alto grado de dificultad no permite que surjan muchas teorías coherentes; hasta la fecha no se ha encontrado una forma que sea plenamente satisfactoria. Sin embargo, las condiciones de coherencia son generalmente difíciles de valorar, por lo que en ocasiones se añade el criterio o concepto de belleza de una teoría. La belleza se reconoce más fácilmente que la coherencia, ya que, según algunos físicos teóricos a los que se suele considerar objetivos y realistas, se trata de un asunto emocional. No obstante, esta belleza matemática no es reconocible para el ojo inexperto. Es más razonable decir que, incluso en las matemáticas, la belleza depende del punto de vista, y así en el campo de la investigación se configuran distintas tendencias que persiguen ideales diferentes y a menudo tienen dificultades para comunicarse entre sí. Pero lo más importante es que la realidad se pierde de vista con facilidad: «No cabe duda de que el hombre veraz, en aquel osado y último sentido que la fe en la ciencia presupone, afirma con ello otro mundo distinto del de la vida, la naturaleza y la historia; y en la medida en que afirma ese "otro mundo", ¿cómo?, ¿no tiene que negar precisamente por ello su opuesto, este mundo, nuestro mundo?».[8]
Cuando se ha llegado por fin a una relación tan íntima con las matemáticas, resulta fácil confundir los objetos matemáticos con la realidad. En este contexto, John Stachel habla de fetichismo matemático: «Califico de "fetichismo matemático" la tendencia a dotar de vida independiente y poder autónomo a las construcciones matemáticas realizadas por el cerebro humano».[9] Además, la elección de las palabras indica en ocasiones qué criterios (¿científicos?) se adoptan para el posterior desarrollo de una determinada teoría. En consecuencia, el lenguaje parece a menudo exagerado en algunas ramas de la investigación sobre gravitación cuántica, y a veces vemos calificativos tales como «mágico» o «misterioso».[10]
Entre todas estas consideraciones es importante tener presente que el objetivo de la ciencia es explicar la naturaleza, y esta tiene seguramente su propia idea de la belleza. Es ella la que ha de decidir cuáles de nuestras teorías concuerdan mejor con su comportamiento. La situación a la que nos puede conducir una insistencia tan obsesiva en el concepto humano de belleza dentro de la investigación de la naturaleza es lo que Fausto llegaría a conocer tras el pasaje que citamos a continuación:

ESPÍRITU: ¿Quién me llama?
FAUSTO: (Volviendo la cara)¡Visión aterradora!
ESPÍRITU: Con gran poder aquí me has atraído, absorbiéndome lejos de mi esfera, y ahora…
FAUSTO: ¡No te puedo soportar!
ESPÍRITU: Suplicas, sin aliento, poder verme, poder oír mi voz y ver mi cara; el fuerte afán de tu alma aquí me atrae ¡y aquí estoy! ¿Qué mezquino horror te invade, superhombre? ¿Y el alma y su clamor? ¿Dónde está el pecho que creó en sí un mundo, y lo abrigó y guardó, y temblando en gozo, se hinchó para elevarse a ser igual que nosotros, espíritus? ¿Y dónde estás ahora, Fausto, cuya voz con su fuerza sonó para atraerme? ¿Eres tú quien, rodeado de mi aliento, tiembla en lo más profundo de la vida, gusano amedrentado, acurrucado?
FAUSTO: ¿Huiré de ti, oh engendro de la llama? ¡Yo soy Fausto, yo soy tu semejante!
ESPÍRITU: En rebose de vida, en tempestad de acción, yo subo y bajo en oleadas, y me agito de un lado para otro. Mi cuna y mi sepulcro son un mar perdurable, un tejer alternado, una vida ardorosa; así, en el zumbador telar del tiempo hago el manto viviente del Creador.
FAUSTO: ¡Tú que das vueltas por el ancho mundo, atareado espíritu, te noto muy cercano a mí mismo!
ESPÍRITU: Te asemejas tan solo a aquel espíritu que comprendes ¡no a mí! (Desaparece)[11]

El hecho de volver la espalda a la naturaleza simbolizada por el gnomo tuvo como consecuencia un giro desfavorable no solo en la vida de Fausto, que luego se entregó a Mefistófeles y a la magia, sino también en la de algunos que en principio no estaban implicados en el asunto. Desde luego, Fausto adquirió más y más poder, pero perdió de vista lo esencial.

2. Abuso del infinito

Lo que se mueve no se mueve en el lugar en que está,  ni tampoco en aquel en el que aún no está.
ZENÓN DE ELEA, Fragmento

El concepto de infinito es un arma peligrosa en algunos razonamientos matemáticos, por lo que no es de extrañar que en ocasiones se haga un mal uso de ella. Se puede decir que el descubridor del poder del infinito fue Zenón, que cuando era discípulo de Parménides de Elea intentó dar sólidos fundamentos a la teoría ontológica de su maestro. (Además de esta teoría, Parménides explicó las fases de la Luna y también otros fenómenos astronómicos, por lo que está considerado como uno de los primeros cosmólogos importantes). Para Zenón resultó problemático el hecho de que la teoría de Parménides era muy audaz: según dicha teoría no debía existir movimiento alguno, y todas las percepciones de movimiento tenían que ser meras ilusiones. En defensa de estas ideas, Zenón aportó varios argumentos que, según la formulación actual, se basan todos ellos en el concepto de infinitud. Así ideó, por ejemplo, una carrera en la que competían Aquiles y una tortuga: como deportista honrado que es, Aquiles le da una ventaja a la débil tortuga. Tras la salida Aquiles llega rápidamente al punto de partida de la tortuga, pero esta entretanto ya ha avanzado un trecho. Aquiles necesita un tiempo determinado para llegar también hasta ese punto, pero para entonces la tortuga ha avanzado de nuevo. Esto se repite innumerables veces, y Aquiles nunca alcanza a la tortuga. Pero si, al contrario de lo que sería de esperar, el veloz Aquiles no puede alcanzar a la lenta tortuga, entonces el movimiento es pura ilusión.
Zenón intenta así tendernos una trampa. Aquiles alcanzará a la tortuga en un tiempo determinado; por supuesto, Zenón lo sabe, porque seguramente ha presenciado competiciones, o ha competido él mismo. (Quizá tenía tan poca deportividad que deseaba vengarse simbólicamente por alguna derrota que hubiera sufrido). Lo que hace es dividir el tiempo que transcurre entre la salida y el momento del alcance en un número infinito de pequeños intervalos y modifica de manera arbitraria, pero solo mentalmente, el flujo del tiempo. En vez de dejar que el tiempo transcurra como es habitual, salta de cada intervalo al siguiente. Como los intervalos son cada vez más cortos, en su razonamiento el tiempo transcurre de una manera inusual; en comparación con nuestro tiempo, el suyo transcurrirá cada vez más lento. De este modo transfiere un espacio de tiempo finito (el que tarda Aquiles en alcanzar a la tortuga) a otro infinito. Hablando en términos matemáticos, lo que hace es una transformación de coordenadas en las que el tiempo finito del alcance se convierte en un valor infinito del tiempo nuevo. Entonces su razonamiento tiene lugar en ese tiempo nuevo en el que el valor infinito nunca se alcanza realmente. Zenón pasa por alto, o quiere inducirnos a que ignoremos, que en nuestra percepción real de la carrera el tiempo inicial es el factor decisivo para que el alcance se produzca en un tiempo finito.
El concepto de infinito es peligroso, pero demasiado atractivo para que no estemos tentados de utilizarlo una y otra vez. Especialmente en momentos de desesperación zenónica (situaciones en las que aparentemente se intenta en vano, y en contra de las propias convicciones, aportar una prueba) se hace un mal uso reiterado del infinito, sobre todo en la física. Se han aportado razonamientos parecidos, por ejemplo, en relación con nuestro principal problema: el de las singularidades en la teoría de la relatividad general. Muchos de los argumentos presentados pueden reducirse a una transformación del tiempo en la que el intervalo de tiempo finito que transcurre entre la singularidad del big bang y el momento actual se reproduce como un intervalo infinito. Considerándolo en este intervalo, el big bang tuvo lugar hace una cantidad infinita de tiempo, y con ello en ningún instante que se pueda expresar mediante un valor finito del tiempo, es decir, nunca. Naturalmente, aquí se pasa por alto el hecho de que no es decisivo el nuevo tiempo, que solo tiene un papel matemático en todo esto, sino el tiempo físico que nosotros percibimos (llamado también tiempo propio). Un astronauta que se precipite al interior de un agujero negro no sentirá mayor consuelo al pensar que el escaso tiempo de vida finito que le queda se puede convertir en un intervalo infinito.

3. Sobre hipótesis y teorías

I have not been able to discover the cause of those properties of gravity from phenomena, and I frame no hypothesis… It is enough that gravity does really exist, and acts according to the laws which we have explained.
ISAAC NEWTON

A pesar de todos los intentos por evitarlo, las matemáticas son imprescindibles en la física. Según la categoría de los enunciados matemáticos, hay que distinguir aquí entre hipótesis y teorías. Las hipótesis son de carácter especulativo y se plantean sobre todo al inicio de la investigación de alguna cuestión nueva y cuando se va a construir una teoría. En cambio, las teorías, a diferencia del sentido que se le da a la palabra en el lenguaje coloquial, tienen un grado de madurez mucho mayor y se apoyan en numerosas pruebas independientes que demuestran su coherencia, así como en una gran cantidad de observaciones, en el mejor de los casos. Las teorías son el fundamento de la física, y con ellas se ordena sistemáticamente la gran variedad de observaciones realizadas, se explican los fenómenos mediante imágenes físicas, como, por ejemplo, el universo en expansión, o incluso se realizan nuevas predicciones. Los enunciados más importantes de las teorías ya establecidas reciben a menudo un título de nobleza al ser declaradas «leyes de la naturaleza». Esto no significa que dichas leyes, y las teorías que contienen, vayan a ser válidas para toda la eternidad, ya que siempre surgirán en algún momento nuevas observaciones que no puedan ser explicadas mediante las teorías ya existentes. Pero las teorías eficaces explican una gran parte de las observaciones ya realizadas y, por lo tanto, son imprescindibles para normalizar los fenómenos físicos conocidos. También aquí son las matemáticas las que dentro de la física elevan el concepto de teoría a un nivel mucho más alto que el que les asigna el lenguaje coloquial. Las teorías se basan en principios sencillos que los físicos experimentados reconocen inmediatamente y de los que es posible deducir, a menudo mediante largos cálculos, unos enunciados que resultan mucho menos triviales.[12] Estos enunciados, al contrario que los principios básicos, pueden ser sometidos posteriormente a pruebas experimentales. Si estas se superan con éxito, la teoría queda demostrada; si no es así, pronto cae en el olvido. En este sentido, la teoría de la relatividad especial y la teoría de la relatividad general son realmente auténticas teorías.
En cambio, con respecto a las hipótesis se tiene mucha menos certeza, y a menudo estas todavía han de ser elaboradas sistemáticamente hasta construir una teoría, salvo que en algún momento del proceso tengan que ser descartadas. Un ejemplo histórico de esto es el que su propio autor, Einstein, denominó hipótesis de las partículas de luz. En aquellos tiempos, hacia 1905, la estructura atómica de la materia no estaba explicada en absoluto, y el hecho de suponer la existencia de un fotón como partícula de la luz pudo parecer a muchos descabellado. Pero de dicha hipótesis pudo Einstein deducir la fórmula de Planck para la radiación térmica, lo cual fue un éxito notable; sin embargo, fue necesario asegurar la propia hipótesis mediante otros fundamentos. En un momento histórico posterior surgió a partir de esta hipótesis una teoría que desembocó en la electrodinámica cuántica moderna como teoría de los fotones y su interacción con la materia dotada de carga eléctrica. Lo que hoy día se discute bajo la denominación de gravitación cuántica no es aún una teoría en sentido estricto, a pesar de que en repetidas ocasiones se hayan podido llevar a cabo muchas pruebas matemáticas independientes. En todos los casos falta la definitiva comprobación de la coherencia total, y todavía no se dispone de una sola observación que corrobore esta teoría. (Tampoco existen observaciones que la contradigan claramente). Sin embargo, estas construcciones mentales son algo más que meras hipótesis, y por eso, y con el fin de simplificar el lenguaje, se opta a menudo por denominarlas teorías, y a veces, de una manera menos contundente, se habla de teoría marco: el contorno tiene trazos definidos, pero en el interior queda mucho por rellenar. Todo lo que se ha hecho hasta ahora en el campo de la gravitación cuántica, incluido lo que se menciona en este libro, se sitúa, en cuanto a formulación científica, en algún lugar entre la hipótesis y la teoría completa, por lo que ha de ser considerado como meramente especulativo. Solo futuras observaciones, quizá del tipo que describiré más adelante, podrán cambiar esta situación.

Capítulo 5
Gravitación cuántica

Contenido:
  1. Teoría de cuerdas
  2. Gravitación cuántica de bucles
    2.1. La cosmología cuántica de bucles
  3. La utilidad de las matemáticas: una ilustración
    3.1. Menos es más
    3.2. Una singularidad evitada
  4. ¿Qué había antes del big bang?
    4.1. Opacidad
    4.2. Falta de memoria cósmica
    4.3. Límites

Cuando en los años previos a 1928 Paul Dirac trabajaba en una combinación de la teoría de la relatividad especial con la mecánica cuántica, lo que le impulsaba a hacerlo no eran unos serios problemas conceptuales ni una descripción teórica deficiente de los datos experimentales. Dirac reconocía que estas dos teorías, la teoría de la relatividad especial de Einstein y la formulación de Schrödinger para la mecánica cuántica, eran, desde luego, muy acertadas, pero, por desgracia, incompatibles. La ecuación de Schrödinger, que describe la evolución de una función de onda a lo largo del tiempo, no tiene en cuenta la convertibilidad del espacio y el tiempo que Einstein había descubierto y que estaba ya comprobada de manera fiable mediante observaciones. Una visión total coherente de la física no puede permitir la coexistencia de teorías incompatibles entre sí, y por ello Dirac emprendió la tarea de reformular la ecuación de Schrödinger desde una perspectiva relativista.
En la física de la teoría de la relatividad especial, la energía cinética de un cuerpo es proporcional al cuadrado de su velocidad. Esto lo sabe cualquier conductor, ya que el recorrido de frenado que es necesario para convertir mediante los frenos toda la energía cinética en calor, y así detener el vehículo, aumenta con el cuadrado de la velocidad y no de manera lineal. También las consecuencias de un choque a una velocidad de 100 km/h son, por desgracia, mucho más devastadoras que el doble de los daños producidos por un choque a una velocidad de 50 km/h.
En cambio, en la teoría de la relatividad especial esta proporción solo se da a pequeñas velocidades. En otros casos hay que tener en cuenta que también la masa, y no solo el movimiento, contribuye a la energía, concretamente según la famosa fórmula de Einstein en la que la energía es igual a la masa multiplicada por el cuadrado de la velocidad de la luz. Además, la energía y la velocidad (o, más exactamente, el impulso, que es el producto de la masa por la velocidad) desempeñan papeles intercambiables, como ya hemos visto en el caso del espacio y el tiempo, por lo que la energía, al igual que la velocidad, no tiene un comportamiento lineal, sino en función de un cuadrado, como ya se ha comentado con respecto al proceso de frenado.
La ecuación de Schrödinger utiliza una relación no relativista y no toma en consideración el cuadrado de la energía. Por el contrario, en la ecuación de Dirac se tiene en cuenta la relación relativista. Sin embargo, el cuadrado de un número, al contrario que el número en sí mismo, es independiente del signo que preceda a las cifras: menos uno multiplicado por menos uno es igual a uno, lo mismo que uno multiplicado por uno. En consecuencia, por cada solución de la ecuación de Schrödinger existen dos soluciones de la ecuación de Dirac que difieren en el signo de la energía y posiblemente en la de su carga, aunque coinciden en otras características como, por ejemplo, la masa. Así, únicamente mediante su combinación matemática de la teoría de la relatividad especial y la mecánica cuántica, Dirac predijo la existencia de un nuevo mundo de fenómenos relacionados con la materia. Para cada partícula conocida, por ejemplo el electrón, debía existir una antipartícula de la misma masa, pero con carga opuesta. En la época en que se publicó la ecuación de Dirac no se conocían estas partículas, por lo que la predicción resultaba bastante atrevida. Pero pronto, en 1933, Carl Anderson comprobó directamente la existencia de la antimateria en forma de positrón (la antipartícula del electrón) y más tarde también la de otros tipos de partículas. Actualmente pueden medirse correcciones muy precisas que la ecuación de Dirac incluye, y la de Schrödinger no, por ejemplo para el espectro de excitación del átomo de hidrógeno. Utilizando únicamente el análisis matemático de una combinación de las dos teorías, Dirac consiguió llegar a estas conclusiones de amplio alcance que perfilaban un nuevo mundo dentro de la materia. Hoy día nos encontramos ante un problema parecido, pero mucho más complicado desde un punto de vista matemático, que es el de la combinación de la teoría de la relatividad general y la teoría cuántica. ¿Qué nuevos mundos nos desvelaría dicha combinación? La teoría de la relatividad especial determina el movimiento de partículas en el espacio-tiempo, mientras que la teoría de la relatividad general describe el comportamiento del propio espacio-tiempo. Por lo tanto, es razonable esperar que una combinación coherente de la teoría de la relatividad general y la teoría cuántica nos desvele, no nuevos aspectos de la materia, sino nuevos dominios del espacio-tiempo, y, por consiguiente, del universo.
Para comprender plenamente el espacio-tiempo y el universo hasta llegar a cuestiones que la teoría de la relatividad general solo puede presentar como singularidades, se necesita en especial una teoría cuántica de la gravitación. Solo así puede conseguirse una descripción fiable de estados tan altamente energéticos como el big bang o los agujeros negros. Sin embargo, no se dispone de una teoría completa; en lugar de esto existen varias vías de acceso muy diferentes, con sus diversos puntos fuertes y débiles, y se distinguen claramente unas de otras por los principios en que se basan. La causa de esta multiplicidad se basa en el hecho de que los fundamentos matemáticos de la teoría de la relatividad general y de la teoría cuántica, así como las definiciones de sus conceptos, pueden combinarse de muchas maneras diferentes. Todavía no se sabe cuál de las combinaciones utilizadas es la correcta, o si se deben tomar otros caminos totalmente distintos para llegar al objetivo.

1. Teoría de cuerdas
La que se sigue con mayor frecuencia es la teoría de cuerdas, cuyos inicios se remontan a antiguos desarrollos de la física de partículas, y cuyos puntos fuertes están sobre todo en la descripción teórico-cuántica de excitaciones tales como las ondas gravitatorias en un escenario dado del espacio-tiempo. En la teoría de cuerdas hay unos objetos similares a las partículas, los gravitones, que transportan el campo gravitatorio al igual que los fotones lo hacen con la luz. Pero el punto de partida de la teoría de cuerdas es precisamente una diferencia con respecto al concepto fundamental de partícula, según el cual las partículas presentan una dilatación muy pequeña por ser puntiformes o como bolas rígidas. La teoría de cuerdas va incluso más allá de la función de ondas mecánico-cuántica, que es difusa, pero sin embargo se localiza en torno a una cúspide de ondas.
En lugar de esto, las partículas tales como los gravitones, al igual que los constituyentes básicos de la materia —como los quarks que forman los electrones, los protones o los neutrones, o como otras partículas elementales producidas en aceleradores de partículas con aportación de altas energías—, están consideradas como estímulos o excitaciones de un único objeto elemental: la cuerda. Del mismo modo que al hacer vibrar con distintos estímulos la cuerda de un instrumento musical se consiguen notas diferentes, así también esta cuerda de la teoría de cuerdas puede vibrar de múltiples maneras. Al igual que las notas se diferencian unas de otras por tener frecuencias diferentes, asimismo las vibraciones de las cuerdas tienen distintas energías o masas. Por lo tanto, en principio, podrían explicar las masas observadas en las partículas elementales, si las cifras calculadas coincidieran con las masas conocidas con gran precisión a partir de los experimentos realizados mediante aceleradores de partículas.
Remitiendo todos los aspectos de la física de las partículas elementales a un solo objeto, la teoría de cuerdas promete, además, reunir las fuerzas conocidas (junto a la gravitación y el electromagnetismo, también la fuerza nuclear fuerte y la interacción débil) en una única fórmula dinámica. Entonces no habría conceptos diferentes como el espacio-tiempo, que es el soporte de la fuerza de la gravedad, o el campo electromagnético, que lo es de la fuerza eléctrica, sino un único objeto de cuyas vibraciones surgirían todas las fuerzas, así como las partículas elementales sobre las que dichas fuerzas actúan. Este objeto en forma elemental es precisamente lo que denominamos cuerda.
Las unificaciones de distintas teorías y fuerzas han desempeñado un importante papel en el desarrollo de la física. Un ejemplo de esto es la combinación de Maxwell de fenómenos magnéticos y eléctricos, en principio tan diferentes, dentro de la teoría llamada electromagnetismo. De estas teorías combinadas resultan casi inevitablemente predicciones de nuevos fenómenos, que quizá puedan utilizarse para fines tecnológicos o avanzar hacia comprobaciones de la teoría realizadas de manera independiente. Un ejemplo de aplicaciones de la unificación de las fuerzas eléctrica y magnética realizada por Maxwell son las ondas electromagnéticas, que solo se producen cuando hay una interacción de impulsos eléctricos y magnéticos, es decir, en una teoría unificada de ambas fuerzas: un campo eléctrico que varía en el tiempo produce un campo magnético, y un campo magnético que varía en el tiempo produce un campo eléctrico. Un impulso que varía en el tiempo, como, por ejemplo, la corriente en una antena, puede así propagarse por el espacio, con lo que la onda electromagnética que se genera pasa rápidamente de energía eléctrica a energía magnética, y luego de nuevo a eléctrica, y así sucesivamente. El campo electromagnético produce su propia escalera por la cual puede descender desde la antena al espacio. Esto sería imposible sin una combinación de impulsos eléctricos y magnéticos, y nos veríamos privados de aplicaciones tales como, por ejemplo, las técnicas de radio o de los rayos X.
Por consiguiente, la teoría de cuerdas intenta unificar todas las fuerzas y todas las partículas remitiéndolas a un solo objeto, que es una cuerda. Naturalmente existen muy diferentes maneras de construir un instrumento musical que se base en la vibración de una cuerda. Las diferencias de timbre son fáciles de distinguir, aunque no se sea un experto. Asimismo, en el campo de la física es posible construir distintas teorías de cuerdas que producen en cada caso formas de excitación diferentes. Las masas o las interacciones de partículas elementales predichas por teorías construidas de manera diferente serían también muy distintas y podrían comprobarse mediante detectores de la física de altas energías, como el Large Hadron Collider (LHC) que puso en marcha el CERN en 2008 en Ginebra. A menudo las diferencias pueden ser tan acusadas que no se necesita un nuevo experimento para descartar la teoría: la estabilidad de los átomos depende de las masas de los protones y los neutrones, lo cual elimina una gran cantidad de valores teóricamente posibles.
La música se nutre de los variados timbres producidos por distintos instrumentos musicales. Pero los físicos teóricos son más sobrios, y les interesa la simplicidad y la economía a la hora de describir la naturaleza. No sería deseable para la física que surgiera una gran abundancia de teorías, por lo que es preferible la unificación, como Maxwell demostró de manera ejemplar con su teoría electromagnética. La teoría de cuerdas sigue este mismo patrón de una manera impresionante, no solo por la fuerza potencial de sus predicciones, sino también por la extraordinaria elegancia de su deducción matemática. Aquí no hay una orquesta con cuerdas afinadas de diferente manera, sino solo la teoría de cuerdas como única solista. Como se ha puesto de manifiesto tras una larga investigación, todas las elaboraciones posibles de las cuerdas fundamentales están emparentadas entre sí. Los distintos timbres no producen, por lo tanto, variedades diferentes de la física, sino solo distintos enfoques matemáticos de una misma física.
Este enunciado es de una generalidad incomparable: todas las manifestaciones físicas de la gravitación y de la física de partículas podrían describirse mediante una teoría única en la que los teóricos no tendrían libertad alguna. Por lo tanto, en relación con la teoría de cuerdas se aplica a menudo el concepto de «teoría del todo» (en inglés TOE: theory of everything), o fórmula universal. Con un control suficiente de las matemáticas necesarias se podría calcular todo lo que interesara, para luego utilizarlo en la comprobación experimental de la teoría. En principio, también se podría emplear esta teoría en la predicción de nuevos fenómenos, como, por ejemplo, en el momento del big bang.
Sin embargo, a diferencia de lo que sucede con la teoría de Maxwell, en la teoría de cuerdas faltan todavía tanto las pruebas experimentales como las aplicaciones tecnológicas. Una de las causas de que esto sea así es la complejidad de las matemáticas en que se fundamenta esta teoría. Por una parte, los matemáticos y los físicos basan en esto la univocidad y el fuerte poder de atracción de la teoría, y por otra parte, la teoría de cuerdas se muestra como una gigantesca estructura que, hasta ahora, no ha sido de gran utilidad para posibles aplicaciones. En lugar de esto existen predicciones que son más bien preocupantes en relación con la utilidad de esta teoría. En primer lugar, la coherencia matemática exige que la teoría haga uso de tres dimensiones espaciales: en la mayoría de los casos exige nueve. Solo tres de ellas (anchura, largura y altura) son visibles de forma natural, lo cual podría indicar que las seis restantes tienen una extensión muy pequeña. Del mismo modo que una manguera de agua observada a gran distancia puede considerarse como una línea unidimensional, así un espacio de nueve dimensiones, si seis de ellas son muy pequeñas, podría parecer un espacio tridimensional. Las dimensiones adicionales solo pueden percibirse si se observa el espacio con detenimiento. Puesto que los efectos de la gravitación cuántica han de producirse a escalas de longitud cercanas a la diminuta longitud de Planck, las dimensiones adicionales sugeridas por una teoría de la gravitación cuántica podrían ser en realidad lo suficientemente pequeñas como para no verse. No obstante, se discuten diversas posibilidades teóricas que podrían agrandar estas dimensiones, con lo cual tendrían consecuencias para observaciones en casos de altas energías.[13] En cierto modo, la teoría de cuerdas nos lleva con su unificación de fuerzas a nuevos fenómenos de los que quizá podríamos valernos para comprobar dicha teoría.
Sin embargo, las dimensiones adicionales plantean un problema serio. Aunque las ecuaciones matemáticas de la teoría de cuerdas para cualquier espacio-tiempo de dimensión elevada presentan una gran complejidad, puede valorarse el calibre de la cantidad de soluciones. Además, puede hacerse el recuento de aquellas soluciones cuyas características concuerdan más o menos con lo que vemos en nuestro universo. Por desgracia, esto da un número de soluciones increíblemente grande: son más soluciones que protones hay en todo el universo. Un espacio de soluciones tan enorme hace que esta teoría, por muy bella y unívoca que pueda ser desde una perspectiva matemática, resulte inútil para obtener explicaciones físicas. Sencillamente, no hay base alguna para realizar predicciones concretas, ya que no hay manera de delimitar los fenómenos desconocidos. Una teoría así es literalmente una teoría del todo, ya que en ella puede suceder cualquier cosa.
Incluso si la teoría es unívoca y no puede dar lugar a timbres diferentes, como las cuerdas de los instrumentos musicales cuando vibran, cualquier ventaja que pueda ofrecer queda anulada por el tremendo flujo de soluciones que se obtienen de sus ecuaciones. Puede haber un único instrumento solista, pero su teclado es enorme. En él pueden tocarse innumerables melodías, y nadie sabe qué composición corresponde a nuestro mundo, ni siquiera cómo se podría decidir cuál es esta. Por lo que se sabe hasta la fecha, quizá haya tantas soluciones porque con los métodos actuales todavía no se han determinado todas las condiciones impuestas por las matemáticas de la teoría de cuerdas. La investigación se escinde aquí en dos direcciones: aquellos que creen incondicionalmente en la univocidad de la teoría de cuerdas incluso por lo que respecta a sus soluciones y buscan las condiciones de coherencia que faltan, y otros que, siguiendo el ejemplo del teórico Leonard Susskind, hacen de la necesidad virtud. Este último grupo intenta argumentar que, aunque con el universo que observamos no se puede identificar una solución unívoca, la solución «más probable» sí tendría que concordar con nuestro universo. Esto plantea por supuesto una nueva dificultad: cómo definir matemáticamente el grado de probabilidad y, en el caso de que esto se consiga de una manera fiable, demostrar cómo a partir de la observación de uno de los universos posibles puede conocerse la probabilidad del mismo. A la cuestión de la univocidad de las teorías y de sus soluciones le dedicaré más adelante un capítulo específico que tratará de la posibilidad de una fórmula universal.
En cualquier caso, la teoría de cuerdas plantea otros inconvenientes a la hora de investigar el problema de las singularidades. Estos inconvenientes no son de principio, sino más bien técnicos. A pesar de los cuales, pueden explicarse bien las perturbaciones en un ámbito dado del espacio-tiempo, pero el comportamiento del propio espacio-tiempo, que se vuelve singular en el big bang, resulta mucho más difícil de controlar. Hay ciertos puntos de partida para abordar este problema que es también muy actual en la teoría de cuerdas. Aún no existe una perspectiva global del modo en que se podría describir el big bang en el marco de la teoría de cuerdas. En consecuencia, me centraré ahora en una teoría alternativa que se refiere de manera directa a la naturaleza teórico-cuántica del espacio-tiempo.

2. Gravitación cuántica de bucles

Así trabajo yo en el raudo telar del tiempo.
GOETHE, Fausto

La gravitación cuántica de bucles aplica la teoría cuántica directamente al espacio y al tiempo, y a su complicada interacción mutua. Sin embargo, también esta teoría requiere unas matemáticas muy avanzadas para su formulación, aunque tiene la ventaja de que no solo puede investigar las perturbaciones en un espacio-tiempo dado, sino la propia evolución temporal del espacio-tiempo. Esta diferencia entre las teorías aparece ilustrada en la figura 9. Además, en ella el espacio posee exactamente las tres dimensiones (largo, ancho y alto) que conocemos a través de nuestra propia percepción. (Para ello se renuncia, por ahora, a la unificación de todas las fuerzas, ya que la gravitación se considera, y con razón, la más importante).
Por lo tanto, se combinan así de manera directa los conceptos fundamentales de la teoría de la relatividad general y de la teoría cuántica: el espacio-tiempo y la función de onda. Una descripción teórico-cuántica de la interacción entre el espacio y el tiempo requiere una especie de «función de onda de las distancias». No solo son difusas la posición espacial y la velocidad de partículas materiales, por ejemplo un electrón, como sucede en la mecánica cuántica, sino que fluctúan incluso las dimensiones geométricas del escenario en el que un electrón se mueve. En cosmología, este escenario es todo el universo, cuyo volumen está sometido a la misma falta de precisión o nitidez que es propia de la teoría cuántica y que, como se sabe, afecta a la materia. Sin embargo, el universo se expande de manera homogénea en el tiempo; si se pudiera observar con detenimiento, se constataría la existencia de pequeñas oscilaciones.
Además pueden aparecer saltos cuánticos, como en las energías de los átomos y las moléculas: el universo no cambia de tamaño de forma continua, sino con saltos mínimos, como si creciera piedra a piedra. El crecimiento se produce aparentemente de manera continua solo porque estos sillares son muy pequeños, con unas dimensiones del calibre de la longitud de Planck.
La teoría tuvo su punto de partida en una hábil reformulación de la teoría de la relatividad general que presentó Abhay Ashtekar en 1986. Este físico no cambió nada en las soluciones de la teoría y siguió describiendo siempre los mismos casos del espacio-tiempo tal como aparecen en la teoría de la relatividad general.
Sin embargo, consiguió simplificar la forma matemática de las ecuaciones de Einstein hasta tal punto que dichas ecuaciones pudieron tratarse de una manera más directa aplicando una descripción teórico-cuántica. Las ecuaciones de Einstein normalmente están formuladas para lo que se llama la métrica del espacio-tiempo, que especifica en principio longitudes geométricas de curvas en el espacio-tiempo, o sea, distancias.

09.jpg
Figura 9: Muchas teorías de la gravitación cuántica describen características del espacio-tiempo mediante objetos unidimensionales, como las cuerdas de la teoría de cuerdas o los bucles de la gravitación cuántica de bucles. Pero son muy diferentes en cuanto a sus conceptos y al significado de los objetos unidimensionales. En la teoría de cuerdas, estas producen estimulaciones de la materia o de ondas gravitatorias en un espacio-tiempo dado, tal como se simboliza mediante la piedra blanca de la derecha, en torno a la cual hay un hilo atado. En cambio, la gravitación cuántica de bucles intenta construir todo, incluido el propio espacio-tiempo, mediante sus bucles unidimensionales (izquierda), lo cual la convierte en una empresa mucho más compleja. (Escultura de Gianni Caravaggio:Catturatore di volumi [Captor de volúmenes], 2005, poliestireno, nailon y tubos de aluminio. Fotografía de Paolo Mussat Sartor).

Pero esta métrica determina también la curvatura del espacio-tiempo y, con ello, la fuerza de la gravedad.
En cambio, la formulación de Ashtekar se basa en objetos que son menos evidentes, pero resultan más fáciles de manejar matemáticamente. Por una parte, no utiliza distancias en el espacio-tiempo, sino áreas en el espacio. También de este modo se describe la geometría, pero solo la del espacio y no la del tiempo. En consecuencia, se ha de introducir otro objeto que sea independiente de las áreas. Ya hemos visto que en un espacio-tiempo curvo, al realizar un movimiento a lo largo de una curva dada, la dirección debe ir cambiando, cosa que sabemos por qué sucede lo mismo sobre la superficie de una esfera en el espacio tridimensional. El segundo objeto, llamado conexión de Ashtekar, está vinculado con esas variaciones angulares, tal como las produce la curvatura del espacio-tiempo. Como señaló Ashtekar, basándose en trabajos de Amitabha Sen, estos dos tipos de objetos describen completamente la geometría de un espacio-tiempo curvo.
Esta reformulación presenta la forma de una unificación, aunque no de la forma en que se realiza en la teoría de cuerdas. En cierto modo, es una unificación matemática y no física: no es que fuerzas distintas se remitan a un único principio, sino que se ajusta recíprocamente la descripción matemática de las fuerzas. Las demás fuerzas, la electromagnética y las nucleares débil y fuerte, se basan asimismo en objetos que describen variaciones angulares. Desde luego no se trata de ángulos en el espacio físico como aparecen en la formulación que hizo Ashtekar para la teoría de la relatividad general, sino de ángulos definidos en espacios matemáticos abstractos. Sin embargo, esto no tiene mayor relevancia desde un punto de vista matemático, y pueden aplicarse también a la gravitación gran número de métodos y teorías, como los obtenidos, por ejemplo, en la electrodinámica cuántica (la teoría cuántica del campo electromagnético). No obstante, quedan aún importantes particularidades de la teoría de la relatividad que requieren un amplio desarrollo de las matemáticas antes de que se pueda conseguir una versión completa de la teoría cuántica de la gravitación.
El primer paso para llevar la formulación realizada por Ashtekar en la teoría de la relatividad general a una teoría cuántica de la gravitación lo dieron Carlo Rovelli y Lee Smolin poco tiempo después, concretamente en 1990. De hecho, lo que hicieron fue utilizar la similitud de los objetos de Ashtekar con importantes magnitudes del electromagnetismo para formular una primera versión de la gravitación cuántica de bucles. (Una formulación parecida, no de la gravitación, sino del electromagnetismo, había sido realizada ya con anterioridad por Rodolfo Gambini y Antoni Trias, pero Rovelli y Smolin en un principio no la conocían). Esto explica también el nombre de la teoría: la conexión de Ashtekar señalaba ciertamente variaciones angulares a lo largo de las curvas, y Rovelli y Smolin basaron su teoría cuántica en la variación angular total que se obtiene a lo largo de una curva cerrada, es decir, de un bucle. Matemáticamente, esta variación angular recibe el nombre de holonomía y, junto con las áreas, presenta el mismo carácter difuso de tipo teórico-cuántico que se atribuye en la mecánica cuántica a la posición y la velocidad.
Estos bucles llevan directamente a una imagen discreta de la geometría del espacio, como ya se había sugerido, y aparecía a menudo, en las teorías de la gravitación cuántica: cuando se construye como espacio a partir de los bucles una especie de enrejado, surgen distancias espaciales, áreas planas y volúmenes. Si se añade uno de los bucles elementales a un espacio discreto ya existente, las áreas formadas en los planos por intersección con los bucles varían en una proporción mínima, como se ve en la figura 10. El volumen del espacio experimenta una variación de un salto cuántico cuando nuevos bucles añadidos forman intersecciones con los ya existentes. Los bucles son como átomos de espacio que dotan al mismo de elementos geométricos tales como longitudes, áreas planas y volúmenes. Esta idea es totalmente distinta de la que nos hacemos en la teoría de la relatividad general: el paño del espacio-tiempo no es de goma, sino que está tejido con hilos. (Antes de la llegada de la gravitación cuántica de bucles, esta imagen tan finamente estructurada, extrapolada al espacio-tiempo, fue bautizada por John Wheeler con el nombre de «espuma del espacio-tiempo»).

10.jpg
Figura 10: Un bucle produce un área plana cuando interseca con un plano. Cuando hay varios bucles superpuestos, el área plana aumenta proporcionalmente.

De todos modos, esto es una visualización de objetos matemáticos, y no una imagen que pueda percibirse directamente: allí donde no hay bucle alguno, no hay nada. Son los bucles los que forman el espacio en el que podría propagarse la luz para darnos noticia de la existencia de átomos de espacio. Ni con el microscopio más potente conseguiríamos ver un solo bucle, ya que ninguna señal podría viajar por el vacío que lo rodea. No obstante, cabe la posibilidad de indicios indirectos basados en fenómenos que se producen a mayores escalas, como veremos en el capítulo siguiente.
Se puede pensar en la totalidad del espacio como algo que se ha constituido al introducirle bucles de uno en uno. Por supuesto, aquí es preciso partir de un estado inicial, o se llegará a él irremediablemente al rebobinar el juego hacia atrás retirando los bucles de uno en uno. Al final únicamente puede quedar un objeto, cuando ya no hay ni un solo bucle. ¿Qué estado es este? No se puede hablar de espacio vacío tal como este se conoce en otros campos de la física, o como existe en el cosmos, por ejemplo, en una muy buena aproximación, ya que un espacio vacío no contiene materia, pero sigue teniendo espacio, es decir, extensión y volumen. Entre las galaxias del universo no hay mucha materia, pero sin embargo hay algo: un espacio inmenso. En la gravitación cuántica de bucles, todo volumen, grande o pequeño, se constituye mediante bucles; si se suprimen todos, no queda volumen. En un estado en el que faltan los bucles de la gravitación cuántica no existen ni el espacio, ni el volumen. El vacío de la gravitación cuántica de bucles es un vacío inimaginable: nada de ruido, ni de luz, ni de materia, ni de espacio; y solo el tiempo como último rayo de esperanza para huir de tal desierto.
Aquí se vislumbra por primera vez cómo la gravitación cuántica de bucles podría dar alguna información sobre el big bang, ya que en la teoría de la relatividad general esta singularidad del big bang es también un estado de ausencia de volumen (pero con una densidad de energía de la materia infinitamente elevada). Para comprender esto, no basta con retirar los bucles a mano uno por uno, sino que es preciso investigar cómo la dinámica del espacio-tiempo cuantizado produce esto por sí misma: del mismo modo que la teoría de la relatividad general describe la expansión del universo en el espacio-tiempo como solución de las ecuaciones de Einstein, como con las ecuaciones diferenciales reflejadas en la figura 4, así hay en la gravitación cuántica de bucles unas ecuaciones de naturaleza discreta que describen la aparición y desaparición dinámicas de los bucles. Partiendo de una configuración inicial y de la función de onda teórico-cuántica correspondiente a dicha configuración, se establece la posterior evolución a lo largo del tiempo mediante sucesivas aportaciones o retiradas de bucles. Estas ecuaciones ya fueron formuladas por Rovelli y Smolin, pero las primeras que se formularon de modo que fueran aplicables son las de Thomas Thiemann, aparecidas en 1996. Thiemann aprovechó la existencia de unas técnicas matemáticas más potentes que habían desarrollado Ashtekar, el propio Thiemann y otros, sobre todo Jurek Lewandowski, Don Marolf y José Mourão, tras los primeros éxitos de Rovelli y Smolin. Durante la década posterior a 1996 se ha continuado con el desarrollo de estos fundamentos matemáticos, una tarea a la que se ha dado una importancia considerable.
En diversos trabajos de Ashtekar, Chris Isham y Lewandowski se presentaron a principios de la década de 1990, en el marco de la gravitación cuántica de bucles, unas acertadas reglas de cuantización que dependen de los planos y ángulos de Ashtekar. En concreto, estas reglas mantienen el carácter difuso propio de la mecánica cuántica. En aquel momento no se sabía si podría haber otras formas de reglas de este tipo que hubieran podido conducir a otras teorías cuánticas totalmente diferentes. Dicho de otro modo, la cuestión de la univocidad matemática de la teoría no estaba todavía clara, en contraposición con la teoría de cuerdas. Otras reglas de cuantización darían otras predicciones. En principio sería posible seleccionar las correctas por comparación con las observaciones, pero estas todavía no existen en el caso de la gravitación cuántica. Ante la amenaza que plantea la posible existencia de cuantizaciones muy diferentes, podrían ponerse seriamente en duda la utilidad y la predecibilidad de la gravitación cuántica de bucles.
Sin embargo, años después, en torno a 2000, Hanno Sahlmann, que entonces era todavía discípulo de Thiemann en el Instituto Max Planck de Física Gravitatoria de Potsdam, afirmó que también para las reglas de cuantización de la gravitación cuántica de bucles se puede demostrar matemáticamente con rigor la univocidad, de una manera parecida a como se hace en la teoría de cuerdas. La realización precisa de la prueba tardó un poco más, pero fue publicada finalmente en 2005 por Sahlmann, junto con Lewandowski, Andrzej Okotow y Thiemann, y de manera independiente también por Christian Fleischhack. (Ashtekar llamó en broma a esta conclusión el resultado LOST: este nombre viene dado por las iniciales de los autores en orden alfabético, y su significado en inglés se refiere a la posible pérdida que suponen los años transcurridos hasta la publicación).
Aunque esta univocidad aún no se conocía en 1996, la introducción de las ecuaciones de Thiemann representó un paso importante en la investigación de la teoría. En principio tendría que ser posible la utilización de las ecuaciones para, a partir de un conjunto dado de bucles, calcular retrospectivamente sus condiciones iniciales. Si esto se consiguiera, se podría comprender el universo en un estado en el que no habría bucles, como en la singularidad del big bang. O quizá las ecuaciones de la gravitación cuántica de bucles presenten diferencias con respecto a las de la teoría de la relatividad general con las densidades de energía extremadamente elevadas del universo primigenio, lo cual podría evitar totalmente el estado de desaparición de cualquier volumen, y con ello la singularidad.
El planteamiento de ecuaciones adecuadas, configuradas para ser matemáticamente manejables, supuso un avance importante. Esto fue aún más sorprendente ya que no solo en la gravitación cuántica de bucles, sino también mucho antes, en la década de 1960, con formas más sencillas de la gravitación cuántica, se habían realizado numerosos intentos fallidos de plantear ecuaciones para la evolución de un universo cuántico a lo largo del tiempo. Inicialmente lo habían intentado John Wheeler y Bryce DeWitt, y posteriormente otros investigadores, como Stephen Hawking. Al principio el ambiente fue extremadamente optimista, casi eufórico, después de que Thiemann hubiera presentado por primera vez sus ecuaciones. Poco después se celebró un congreso organizado por Lewandowski en el Instituto Banach de Varsovia, y allí la opinión predominante fue que se podría dar respuesta a todas las preguntas fundamentales relativas al cosmos, ya que se conocían las ecuaciones que lo gobernaban. (Sin embargo, no puedo informar sobre esto desde mi experiencia directa, porque en aquel momento yo estaba todavía estudiando y no participé en el congreso). Desgraciadamente, la complejidad de las ecuaciones no tardó en apagar la euforia inicial, y por ahora no se conoce ninguna solución exacta o al menos numérica que pueda describir el universo.
Además, las ecuaciones no están establecidas de manera unívoca, y sigue sin aclararse cuál será su forma definitiva. Sin embargo, se conocen varias propiedades que se basan en las reglas unívocas de cuantización y, frente a este tipo de ecuaciones, apuntan hacia otras en el marco de la física de la gravedad, aunque algunos términos se encuentran afectados por parámetros que todavía están por determinar. A diferencia de lo que sucede en la teoría de cuerdas, con lo que se sabe hasta ahora aquí no se dispone en absoluto de una dinámica unívoca, a pesar de que sí son unívocas las reglas de cuantización en que se basa todo. Por ejemplo, aunque están ya prefijados los valores discretos que determinan los peldaños de la escala de volumen, el universo en expansión puede ascender de maneras diferentes y con distintas velocidades.

11.jpg
Figura 11: Vista de un ovillo que determina a modo de ejemplo el espacio-tiempo mediante sus conexiones y sus estímulos geométrico-cuánticos. Cuanto más denso sea el ovillo, más continuo parece el espacio. Las distintas gradaciones de tonos grises indican el estado de excitación de cada bucle.

No obstante, la gravitación cuántica de bucles ofrece una gran ventaja: en el marco de esta teoría se pueden determinar algunas de las características del universo en el big bang, aunque haya que hacerlo con aproximaciones y modelos, en vez de disponer de soluciones exactas. Aunque la construcción inicial de Thiemann ha cambiado varias veces desde entonces, y seguirá haciéndolo en un proceso que deja clara la dificultad con que se desarrolla la gravitación cuántica, dicha construcción desempeña un papel decisivo en la aplicación de la teoría a cuestiones cosmológicas y, en especial, al problema de la singularidad.

2.1. La cosmología cuántica de bucles
Un gran espacio como el universo actual contiene innumerables bucles, ya que cada uno de ellos aporta un valor diminuto al volumen total. Además, los bucles pueden formar intersecciones de unos con otros o superponerse. Incluso aquellos que no hacen nada de esto suelen estar enredados formando un ovillo, como puede verse en la figura 11. Cuando se observa de lejos, la textura de este ovillo puede parecer tan fina como la de un espacio continuo, que era lo que se había supuesto en la teoría de la relatividad general.
Pero, hablando en sentido estricto, la imagen de un universo versátil cuya estructura a pequeña escala se representa mejor mediante un tejido discreto que como un espacio-tiempo liso sustituye a la imagen de una membrana de goma, que es la que se propone en la teoría de la relatividad general. La variación mínima de volumen se da mediante la longitud de Planck, por lo que es pequeñísima. Un único salto cuántico es imperceptible en el comportamiento de un gran universo. Especial importancia tiene la estructura de tejido tanto en las distancias pequeñas como en el universo primigenio. En este caso, el universo es tan pequeño que una variación continua del volumen resulta muy diferente de un salto cuántico. La expansión del universo se producía entonces de una manera totalmente diferente a lo que se había esperado en la teoría de la relatividad general: las correcciones cuánticas en las ecuaciones de Einstein son necesarias.
El problema de la singularidad había surgido como consecuencia de la idea de continuidad, y ahora la gravitación cuántica pone de manifiesto en este aspecto unas grandes diferencias con respecto a la teoría clásica. ¿Significa esto que estamos ante una solución del problema de la singularidad? ¿Podrá quizá la gravitación cuántica de bucles evitarle una singularidad al universo, del mismo modo que la mecánica cuántica estabiliza el átomo de hidrógeno?
En principio parece problemática una aplicación directa de la gravitación cuántica de bucles al problema de la singularidad tal como se presenta, por ejemplo, con las soluciones cosmológicas de la teoría de la relatividad general. Al fin y al cabo la dinámica de los bucles es tan compleja que hasta la fecha no se ha hallado ninguna solución exacta y no se puede contar con ella seriamente para un futuro inmediato. Asimismo, un análisis matemático de las ecuaciones sin conocer una solución explícita encontraría múltiples dificultades. Pero este problema no surge solo en la gravitación cuántica, porque tampoco las ecuaciones de Einstein de la teoría de la relatividad general son fáciles de resolver; y, sin embargo, conocemos algunas de sus propiedades generales. El ejemplo más importante es precisamente el problema de las singularidades, según el cual todas las soluciones, y no solo las conocidas explícitamente, bajo ciertas condiciones (por ejemplo, las relativas a la forma de la materia) deben desembocar en una singularidad o partir de ella.
Únicamente en situaciones especiales, que suelen ser muy simétricas, se pueden obtener soluciones exactas para una teoría tan compleja como la de la relatividad general. A este respecto, en la cosmología se presupone en la mayoría de los casos la existencia de homogeneidad e isotropía. Cuando se prescinde de particularidades tales como planetas, estrellas o galaxias completas, a escalas muy grandes el universo no presenta características que dependan de la posición. Esto ha quedado claramente demostrado con la cartografía completa de las galaxias, como la SDSS, que describiré con detalle más adelante. Asimismo, el universo a gran escala presenta el mismo aspecto con independencia de la dirección en que se mire. Por consiguiente, se puede describir la expansión en su conjunto mediante una solución simplificada, en la que solo se considera la variación de volumen a lo largo del tiempo. El hecho de renunciar a muchos detalles nos lleva entonces a una enorme simplificación de las ecuaciones, ya que solo hay que encontrar una función temporal en vez de manejar muchas funciones, cuyos comportamientos tendrían una fuerte dependencia mutua. En tales casos, se conocen numerosas soluciones que se utilizan también ampliamente para la valoración de observaciones cosmológicas. El hecho de que la limitación a soluciones simétricas tampoco sea muy estricta para problemas conceptuales pone de manifiesto la cuestión que nos interesa fundamentalmente: incluso con esta simplificación, sigue surgiendo el problema de las singularidades. El volumen de una solución homogénea e isotrópica es nulo para un valor del tiempo en el que la teoría falla.
La gravitación cuántica de bucles es aún más compleja que la teoría de la relatividad general; teniendo en cuenta esto, no es de esperar que se pueda renunciar a unas simplificaciones similares. Si se pudieran detallar las soluciones altamente simétricas de la gravitación cuántica, sería posible también examinar el problema de las singularidades, ya que incluso estas sencillas soluciones clásicas llevan a la teoría de la relatividad general a fallar en un momento dado. Pero ¿cómo pueden llevarse a cabo estas simplificaciones? Un procedimiento de este tipo parece evidente cuando se exige la simetría para una membrana lisa de goma, como en el espacio-tiempo de la teoría de la relatividad general. Ahora bien, ¿qué queda entonces de los bucles de la gravitación cuántica de bucles? En principio el tejido debería tener un aspecto más claro, como en la figura 12 comparada con la 11. Pero tampoco un enrejado tan regular resulta homogéneo, ya que las líneas de la trama se diferencian de la nada que hay entre ellas. El ovillo espacial determinado por las líneas de la trama quedaría totalmente difuminado con unas exigencias de simetría tan rigurosas como las impuestas por la homogeneidad. Sería de temer que no se mantuviera ninguna de las características de la gravitación cuántica basadas en la estructura de enrejado.

12.jpg
Figura 12: Un enrejado regular del espacio-tiempo

Afortunadamente, se pone de manifiesto que, a pesar de todo, las características más importantes se mantienen incluso cuando se impone la homogeneidad y la isotropía del espacio. Desde luego, esta simetría no lleva a la existencia de bucles individuales en el espacio, pero la variación temporal del estado, y en especial del volumen, tiene lugar mediante saltos mínimos. Además existe un estado carente de bucles en el que el volumen desaparece como en la singularidad del big bang. Los métodos matemáticos desarrollados durante la década de 1990 me permitieron en el año 2000 no solo formular esas geometrías isotrópicas en la recién bautizada cosmología cuántica de bucles, sino también analizar la evolución temporal definida según el modelo de Thiemann.
Con ello se vio como posible por primera vez realizar una investigación completa del problema de las singularidades en el marco de la teoría cuántica. Sin embargo, la aplicación concreta no se ha producido de forma directa, ya que incluso las ecuaciones que poseen el grado de simetría más elevado que se puede conseguir siguen pareciendo demasiado complejas. La ocasión llegó de una forma más bien casual, y de esto puedo dar fe por experiencia propia. Esto es un ejemplo de cómo pueden actuar las influencias externas en los desarrollos científicos, que en esas circunstancias se producen de una manera que es de todo menos rigurosamente lógica, aunque a veces desde fuera pueda parecer lo contrario.
Después de que las ecuaciones se simplificaran considerablemente mediante ciertas hipótesis de simetría, dichas ecuaciones siguieron siendo demasiado inaccesibles para la realización de un análisis de la evolución cosmológico-cuántica. Se propuso otra posibilidad de simplificación, pero resultó ser matemáticamente inviable, y por buenas razones, según pensé entonces. Se trataba de una cuestión decisiva, pues sin aplicaciones era escaso el valor de estas ecuaciones. Se planteaba quizá una interesante pregunta matemática: cómo se podía conseguir la homogeneidad y la isotropía a pesar de la forma de los bucles, que era todo menos simétrica, pero esto no mostraba aún el camino hacia nuevos fenómenos físicos. Además se planteaba otra dificultad: desde la década de 1960 existía ya una teoría de la cosmología cuántica, que había sido fundada por John Wheeler y Bryce DeWitt, y luego desarrollada por otros físicos, como Charles Misner y algo más tarde Alexander Vilenkin, James Hartle y, sobre todo, Stephen Hawking. También Claus Kiefer ha contribuido mediante una serie de minuciosos trabajos a la comprensión del comportamiento semi clásico, lo cual es importante para explicar a fondo cómo surgieron las estructuras en el universo primigenio.
Todo esto tuvo lugar antes de que surgieran la formulación de Ashtekar y la gravitación cuántica de bucles, razón por la cual esta forma de la cosmología cuántica no se basa en un espacio discreto. No estaba en absoluto claro el aspecto exacto que presentaba el espacio a pequeña escala en esta teoría, ya que solo era posible exponerla de manera fiable para los espacios homogéneos de la cosmología, pero no en general. La creencia más extendida a finales del siglo XX, según los conocimientos de la vieja cosmología cuántica y de la gravitación cuántica de bucles, era que se trataba de dos páginas de toda una teoría: para las soluciones carentes de cualquier simetría se tendría la gravitación cuántica de bucles con su compleja construcción del espacio mediante sillares discretos; sin embargo, si se difuminara el espacio mediante la imposición de simetrías, observándolo a escalas mucho mayores que la extensión de los átomos de espacio, se obtendría la vieja cosmología cuántica. Un análisis posterior de las ecuaciones simetrizadas de la gravitación cuántica de bucles habría resultado superfluo, ya que no habría aportado nada nuevo. En este sentido, los grandes investigadores que entonces llevaban la voz cantante en la gravitación cuántica de bucles me desaconsejaron varias veces que me dedicara a continuar la simetrización.
Reproducir directamente la antigua cosmología cuántica como un caso simétrico especial de la gravitación cuántica de bucles sería en efecto catastrófico por lo que respecta al problema de las singularidades. Desde luego, este problema no está resuelto en la antigua cosmología cuántica: como posible teoría cuántica del universo, aunque introduce una función de onda y con ello algunas faltas de nitidez de la teoría cuántica, sus paquetes de ondas se precipitan simplemente en una singularidad que es comparable con la clásica. Además hay un valor del tiempo para el cual, sin contar con la inevitable falta de nitidez, el valor del volumen del universo es cero y la temperatura se dispara al infinito. Como en el caso de las ecuaciones de Einstein, tampoco las ecuaciones de la antigua cosmología cuántica pueden controlar esta situación: pierden en ese momento su validez matemática y nos ocultan de nuevo lo que sucedió en el big bang.
Retrospectivamente, la explicación de este fracaso es sencilla: aunque la antigua cosmología cuántica introduce algunos efectos cuánticos, se detiene antes de llegar al punto decisivo. Pasa por alto la naturaleza discreta del espacio y el tiempo, como demostrará más tarde la gravitación cuántica de bucles. Con esto, el comportamiento en las proximidades de una singularidad cambia ligeramente en comparación con la teoría de la relatividad general, pero no de una manera decisiva. La cosmología cuántica de bucles es la única teoría que ha podido poner de manifiesto esta circunstancia y proporcionar un mecanismo físico concreto para evitar las singularidades.
Pero para esto es preciso resolver primero las ecuaciones de la cosmología cuántica de bucles, lo cual, como ya hemos visto, parece difícil. Sin embargo, se ha visto que es posible, y aquí es donde entra en juego la casualidad que he citado antes. Tras presentar la formulación simétrica de la gravitación cuántica de bucles, en concreto de la cosmología cuántica de bucles, durante mi doctorado con Hans Kastrup en el RWTH de Aquisgrán, me distancié durante un tiempo de sus ecuaciones. Estaba ocupado con mi traslado a la Universidad del Estado de Pensilvania, donde Ashtekar me había ofrecido una plaza de posdoctorado (aunque él formaba parte del grupo de los que en aquel momento no estaban convencidos de las posibilidades de la cosmología cuántica de bucles).
Una vez realizado el traslado, lógicamente tuve que retomar el trabajo, pero ya no estaba familiarizado con todos los detalles. En concreto, había olvidado la causa de la supuesta improcedencia de una simplificación decisiva. Además, esto sucedió durante un bochornoso final de verano, de los que son típicos en el este de Estados Unidos, y por lo tanto en Pensilvania, no estando yo en aquel momento acostumbrado a tanto calor. Todavía me acuerdo bien del embotamiento que me producían aquellos días calurosos y sus correspondientes noches invadidas por el canto de los grillos, así como la consiguiente pérdida de mi capacidad de concentración, lo cual, al parecer, puede ser la causa de que se olviden fácilmente las densas reflexiones matemáticas. Pero abordé la tarea de la simplificación, resolví algunas de las ecuaciones y examiné el universo de bucles anterior al big bang.
Pero ¿era esto matemáticamente lícito? El potencial de los cálculos, incluida una posible solución del problema de las singularidades, era demasiado tentador como para renunciar a abordar una vez más dicho problema. Tras el primer momento de exaltación, empecé a pensar por qué no me había puesto mucho antes a resolver el asunto de la simplificación. Pero en realidad seguía existiendo el problema de su supuesta incompatibilidad matemática. Sin embargo, al considerar de nuevo el viejo problema tuve la suerte de llegar pronto a demostrar que la simplificación decisiva no solo era correcta matemáticamente, sino que era también necesaria para poder aplicar de lleno la simetría. De esta forma quedaban establecidos sobre una sólida base los primeros resultados de la cosmología cuántica de bucles, que en los años siguientes serían desarrollados ampliamente y conducirían a las consiguientes teorías del universo. Esta experiencia constituye un ejemplo del modo en que las ideas que han quedado estancadas pueden influir en el trabajo científico, en el sentido de frenarlo, y los avances que pueden realizarse cuando dichas ideas se observan a cierta distancia.

3. La utilidad de las matemáticas: una ilustración
La cosmología cuántica de bucles determina las circunstancias o estados de espacios tridimensionales de distintos tamaños, es decir, funciones de onda que describen la geometría habitual de planos y volúmenes de manera cuántica y fluctuante. En general, se pone de manifiesto que no todos los tamaños del espacio son posibles, sino solo una cantidad discreta, como sucede con las energías en los espectros atómicos. Si se amplía el tejido del espacio mediante un nuevo nudo, cambia todo el volumen en un paso fijo que no puede ser arbitrario.
En general, son difíciles de calcular los valores volumétricos permitidos que puede adoptar una espuma espacial que fluctúa a escalas tan pequeñas. Incluso las estructuras espaciales que en las grandes escalas del universo pueden parecer uniformes están, en última instancia, formadas por átomos, del mismo modo que un cuerpo material está constituido por los conocidos átomos. Construir un objeto macroscópico, ya sea un cuerpo sólido o solo una porción de espacio vacío, a partir de átomos individuales y según una descripción matemática, y garantizar un control exacto sobre algunas propiedades suyas, como la energía o el volumen, es una empresa extraordinariamente compleja.
Por suerte, no siempre es necesario un control total: si lo único que interesa es el comportamiento a gran escala para conseguir un ejemplo de la expansión cósmica, surgen unas simplificaciones decisivas. Una vez que estas se han llevado a cabo, el espectro de todos los volúmenes posibles llega a ser concreto y calculable con todo detalle. Además, para cada valor del volumen hay pocos estados, en realidad dos (con independencia del volumen que desaparece en la singularidad, al que se le atribuye un estado unívoco). Cuando investigué por primera vez estas estructuras, que son importantes para la cosmología cuántica, se planteó como algo misterioso, en principio, la razón por la que aparece esta duplicación. Sin embargo, hay una explicación clara y de amplio alcance: no solo el volumen define un estado, sino también la orientación; un espacio, y el fiel retrato del mismo vuelto al revés, son distintos el uno del otro. En un espacio bidimensional esto puede representarse como un globo que puede ser inflado de dos maneras hasta un tamaño determinado: con la inversión que lleva su interior al exterior, o sin ella. Esto concuerda con el hecho de que el volumen que se minimiza tendiendo a desaparecer puede describirse mediante un estado unívoco, porque a un espacio que carece totalmente de extensión tampoco puede dársele la vuelta. En las matemáticas el grado de inversión se denomina orientación del espacio.
Aún más complicado que el valor volumétrico permitido es su comportamiento en el tiempo, es decir, su dinámica: con los valores volumétricos conocemos los peldaños de la escala según la cual puede crecer el universo, pero ¿cómo escala realmente? ¿A qué velocidad debe expandirse, y acaso lo hace de forma acelerada? O, cuando invertimos el curso del tiempo para acercarnos a la singularidad, ¿cómo escala el universo descendiendo a valores pequeños y posiblemente hacia su destino fatal? Una vez que alcanzamos el estado unívoco del volumen mínimo que tiende a desaparecer, chocamos con el suelo de la singularidad, como cuando utilizamos una escala de cuerda demasiado corta y en cuanto se deja el peldaño inferior se cae uno en el abismo.
Cuando yo ya había analizado la duplicación del estado según la orientación, se me ocurrió cuál era su posible significado por lo que respecta a la dinámica. En vez de considerar todos los volúmenes como parejas de gemelos con dos ejes positivos unilaterales que parten de la singularidad, podemos considerarlos también como un solo eje en el que los números pueden ser tanto positivos como negativos, de tal modo que el cero de la singularidad viene a encontrarse en su centro y no en el borde. En la realidad la orientación se describe mediante un signo que determina si un estado ha de ser valorado como positivo o como negativo. Por lo tanto, no tenemos dos escalas diferentes, sino una sola que se estira y pasa por la singularidad.
Se ve inmediatamente que la evolución temporal del universo se produce en realidad recorriendo esa larga escala. Asumiendo las condiciones de simetría del universo a gran escala, conseguí por fin simplificar también la ecuación dinámica (la planteada por Thiemann para todos los estados en general) lo suficiente como para poder resolverla. Esta ecuación posee una forma compacta (una ecuación de recurrencia), que se ha utilizado, y se utiliza, en muchos trabajos científicos:

eq01.jpg

En esta fórmula Ψ simboliza el estado del universo (la función de onda) para distintos valores de n, que indica el número de peldaños, es decir, los valores volumétricos, y mediante el signo se expresa la orientación. Además aparecen los coeficientes C+, C0 y C–, cuya forma determina la correcta cuantización de la fórmula de Einstein, y Ψ expresa el contenido de materia del universo. La fórmula relaciona entre sí los estados que se dan para distintos tamaños, lo cual describe el crecimiento mecánico-cuántico del universo: la ecuación puede resolverse de manera sucesiva para Ψ, que es el valor correspondiente al peldaño número n + 1, y luego retroceder a los dos peldaños anteriores n y n–1. Siendo n cualquier número entero, se obtiene el estado para todo valor de n, simplemente con que se den previamente los valores iniciales para dos peldaños determinados. Como muestran las soluciones generales de la ecuación, el crecimiento no se detiene cuando n toma el valor cero correspondiente a la singularidad. Las que llegan a su fin en la singularidad son únicamente las ecuaciones clásicas de la gravitación; la cosmología cuántica sigue viva. El espacio, que permanece incólume, puede replegarse sobre sí mismo y seguir su camino ágil y versátil.

13.jpg
Figura 13: Dos lados del espacio que en muchos aspectos se comportan como imágenes especulares o inversiones del uno en el otro. (Universo positivo, 2002-2006, fotografía, 180×120 cm;Universo negativo, 2002-2004, poliestireno, lentes negras, 180×100×80 cm. Diseño y fotografía de Gianni Caravaggio).

3.1. Menos es más
El universo es como un corredor de fondo, en realidad el más resistente que haya existido jamás. Como sabe cualquier corredor, a veces se llega a una situación en la que el cuerpo está próximo al desfallecimiento. Los músculos se debilitan, los movimientos se vuelven incontrolables. Mientras la carrera, en plenitud de fuerzas, parece un único proceso continuado y suave, se debe controlar con precisión cada paso, para poder luego superar las fases de debilidad sin perder demasiado. Un paso demasiado largo gasta más las fuerzas, y uno más titubeante hace que toda la tensión de los músculos se debilite.
Actualmente el universo rebosa de fuerza; lleno de arrogancia, incluso parece haber iniciado un sprint hace algún tiempo, es decir, una aceleración de su expansión, de la que volveré a hablar en el capítulo siguiente. (Parece que el público le anima en su carrera, ya que la aceleración empezó poco tiempo antes de que la humanidad comenzara sus observaciones cosmológicas, y decimos «poco tiempo» en comparación con las escalas de tiempo cosmológicas).
Sin embargo, el big bang equivale a una fase de debilidad. Entonces el universo corría con mucho calor y se encontraba próximo al desfallecimiento. Esto se ve en las descripciones teóricas de esta fase que existen hasta el momento: la teoría de la relatividad general parte de una carrera continua, pero llega rápidamente al desfallecimiento en una singularidad. Las teorías cuánticas de la gravitación son más prudentes en esta cuestión y conceden más valor a la forma exacta de la zancada. ¿Es esto suficiente para conseguir atravesar el big bang en buenas condiciones?
La cosmología cuántica de bucles traía consigo precisamente esta consecuencia. En principio introduce un tiempo discreto, con lo que se sale del ámbito de la antigua cosmología cuántica. El tiempo no puede cambiar arbitrariamente, sino que ha de hacerlo en múltiplos de un intervalo de tiempo mínimo. En cierto modo la cosmología cuántica de bucles concede al universo menos tiempo, ya que se eliminan todos los valores del tiempo que se encuentran entre las retículas del intervalo mínimo. Esto tiene lugar a una escala microscópica, y nos resulta en gran medida imperceptible a causa de la pequeñez del intervalo, que de nuevo es una magnitud de Planck. Junto con esta reducción de la cantidad de valores del tiempo, se produce, de forma mucho más impactante, un aumento del tiempo en su expansión dentro de la dimensión macroscópica de la totalidad del universo: el tiempo no termina en el big bang.
En vez de esto existe una prehistoria del universo antes del big bang, con espacio y tiempo, algo que no puede darse en la teoría de la relatividad general. Al igual que la combinación de Dirac, en la que se asociaban la teoría de la relatividad especial y la teoría cuántica, llevaba a un nuevo mundo de antimateria, así también la combinación de la teoría de la relatividad general y la teoría cuántica produce un nuevo universo de espacio y tiempo, al menos en los casos investigados hasta ahora. Este universo anterior al big bang está, por así decirlo, oculto tras una cortina que no pueden atravesar las ecuaciones de la teoría de la relatividad general, sino solo las de la cosmología cuántica de bucles. Las fronteras de la teoría clásica se ven superadas por una teoría más completa que también cumple propiedades teórico-cuánticas. La singularidad del big bang constituye una frontera del antiguo lenguaje en el que fue formulada por primera vez. Sin embargo, no es una frontera del universo.
¿Cómo es posible esto? ¿Cómo evita la teoría cuántica el colapso del universo en un punto y el aumento ilimitado de la temperatura que dicho colapso lleva asociado? Como en el problema de la estabilidad de los átomos, que se resuelve en la mecánica cuántica, la singularidad del big bang se evita en la gravitación cuántica de bucles mediante unas nuevas fuerzas antagonistas, que actúan contra el colapso basándose simplemente en la atracción gravitatoria clásica. En un universo en fase de contracción, cuando este es lo suficientemente pequeño como para utilizar las mediciones de la teoría cuántica, vemos que al principio el colapso se frena, después de algún tiempo se detiene por completo, y luego se invierte el proceso, iniciándose una expansión. Más o menos podemos imaginarnos así una parte de la historia de nuestro universo: antes del big bang se contraía, es decir, seguía un proceso contrario a la expansión actual. Al irse colapsando, se hacía cada vez más pequeño y se calentaba cada vez más, entrando así en la fase del big bang. En esta fase predominaban los efectos cuánticos, y tuvieron lugar un frenado y una inversión del proceso, para pasar luego al universo en expansión que contemplamos hoy día.
Mucho más difícil es conseguir informaciones detalladas sobre esta historia, como, por ejemplo, las características precisas del universo antes del big bang. ¿Tenía el mismo aspecto que la zona en expansión que conocemos nosotros, dejando a un lado la inversión de la expansión? ¿Tuvo dicha inversión de la expansión otras consecuencias, como quizá una inversión de la percepción del tiempo, de tal modo que se recuerda el futuro y se predice el pasado? ¿Era el universo, incluso con un gran volumen, mucho antes del big bang, tan clásico en su estructura del espacio y el tiempo que podríamos compararlo con la forma actual del espacio-tiempo? ¿O predominaban quizá los efectos cuánticos para el espacio y el tiempo, de tal modo que su volumen, aunque se contraía en el tiempo, estaba sometido a fluctuaciones más fuertes? ¿Había condiciones que posibilitaban la vida? ¿Y de dónde venía aquel universo que se colapsaba, o hacia dónde evoluciona nuestra zona en expansión? ¿La expansión actual llegará en algún momento a invertirse hacia el colapso, de tal modo que nosotros, como nuestro universo anterior, nos estaríamos dirigiendo hacia otro big bang del que nacería el próximo universo? ¿Acaso el universo anterior al big bang procedía quizá del anterior colapso de un universo que había surgido de un big bang anterior a nuestro big bang? ¿Existe una sucesión infinita de big bangs y de fases intermedias de universo en expansión y universo que se colapsa?
Para dar respuesta a estas preguntas hay que profundizar mucho más en la teoría. A la mayoría de ellas no se puede responder aún de una manera fiable, y muchas de estas preguntas nunca serán tratadas convenientemente en el marco teórico de la física, situándose más bien en la frontera con la filosofía. Lo que hasta ahora se conoce se explicará más adelante en este libro.

3.2. Una singularidad evitada

Il n'est rien de plus précieux que le temps, puisque c'est le prix de l'éternité.
(Nada hay más valioso que el tiempo, porque es el precio de la eternidad).
LOUIS BOURDALOUE

Primero es necesario explicar de qué modo la gravitación cuántica genera fuerzas antagonistas que se oponen a la atracción clásica. Esta es una consecuencia directa del tiempo discreto: si tomamos juntos todos los valores del tiempo, no se obtiene una línea continua, sino una especie de retícula. Esta rejilla del tiempo posee solo una capacidad limitada para absorber energía: como una esponja porosa que únicamente puede absorber una cantidad limitada de agua y, cuando está empapada, expulsa el exceso de agua, así actúa la rejilla del tiempo, repeliendo la energía en el momento en que haya riesgo de almacenar demasiada. En cambio, un eje temporal continuo podría absorber tanta energía como se quisiera.
A causa de los pequeños que son los pasos temporales, una rejilla del tiempo puede absorber mucha energía, pero no tanta como se quiera. Esto es importante en el big bang, que es el fenómeno más energético del universo. Según la teoría de la relatividad general, la densidad de energía debe aumentar sin límites, lo cual no es compatible con una capacidad de absorción limitada por una rejilla. Una teoría coherente con una rejilla temporal, tal como sucede en la cosmología cuántica de bucles, debe producir una repulsión del exceso de energía. Pero fuera del universo no hay ningún lugar al que se pueda enviar la energía repelida. El exceso de energía solo puede evitarse deteniendo el propio colapso del universo, es decir, la causa del aumento de energía, e invirtiendo el proceso para dar paso a la expansión. De este modo, una pequeña parte de los puntos temporales locales de la rejilla produce una fuerza antagonista opuesta al colapso, y con ello más tiempo antes del big bang.
En el caso de un universo de gran tamaño con escasa energía el carácter discreto del proceso no tiene importancia, pero es decisivo cuando el tamaño es pequeño y la energía elevada. El papel que desempeña el volumen para que el carácter discreto sea perceptible puede ilustrarse con el ejemplo de un reloj de arena. En el borde superior de la arena, lejos del cuello por el que esta se desliza, se hunde el contenido de una manera aparentemente continua. El carácter discreto de la arena, que está compuesta por granos individuales, no desempeña aquí papel alguno. Pero, si se observa el cuello, se ve el carácter granuloso de la arena: este reloj no mide el tiempo de una manera continua, sino discreta, con un grano para cada paso del tiempo. La diferencia con respecto a la cosmología cuántica es que el reloj de arena mide el tiempo solo de un modo discreto, mientras que, según la cosmología cuántica, lo fundamental es que el tiempo transcurre de modo discreto. Si se eligieran unos granos de arena más finos, el reloj haría una medición más continua del tiempo. La finura del grano tiene un límite natural dado por la estructura atómica de la materia, pero con otros procedimientos, como los relojes atómicos, es posible medir el tiempo con una precisión mucho mayor que con la caída de un grano a través de una abertura. Por lo tanto, los pasos del tiempo siempre pueden subdividirse aún más. Sin embargo, en la teoría cuántica del espacio-tiempo se fija un límite definitivo para todos los intentos de dividir más la unidad temporal: literalmente, no hay nada entre dos instantes atómicos consecutivos en la rejilla discreta de la gravitación cuántica.
Con la estructura discreta del tiempo, la evitación de la singularidad del big bang va unida a otro fenómeno: el tiempo anterior al big bang implica una inversión de la orientación espacial. Desde la perspectiva de nuestro tiempo, es como si la historia previa al big bang sucediera en un espejo. Si una persona diestra hubiera sobrevivido a un viaje a través del big bang, se habría convertido después en una persona zurda. El espacio se replegaría sobre sí mismo como una superficie esférica que se vuelve del revés, con lo cual su interior se convierte en el exterior.
Esto propicia otra comparación: el universo que se colapsa es como la superficie de un globo que pierde aire. Pasado un tiempo, al no haber aire dentro, la corteza se hunde, y el proceso llega a su fin, igual que el colapso del universo termina en una singularidad según la teoría clásica. Pero si nos imaginamos que las partes componentes de la corteza pueden salir hacia fuera sin impedimentos, el globo volvería a inflarse después del colapso. Además, si la corteza sigue el movimiento de tracción, el lado interno se mostrará hacia fuera, de tal modo que la orientación cambia. Asimismo en el big bang los átomos del espacio-tiempo, en cierto modo, se abren paso y hacen que el espacio se dé la vuelta del revés.
Además del tiempo discreto, hay otro mecanismo que pone en marcha una fuerza antagonista; sería como un doble seguro activado por la teoría cuántica antes de que se produzca el colapso total dando lugar a una singularidad. No solo la rejilla del espacio-tiempo muestra para pequeñas expansiones unas claras diferencias con el ya conocido comportamiento macroscópico del universo, sino que también la energía de la materia se comporta en estos ámbitos de una manera distinta a la que sería de esperar según la teoría clásica. Esto es comparable a la divergencia de la densidad de energía de la radiación térmica en un cuerpo hueco que Planck explicó, y ya se ha descrito con anterioridad: según las expectativas de la teoría clásica, esta densidad de energía debería crecer ilimitadamente a cortas distancias, lo cual constituye un ejemplo de singularidad. Tal como Planck calculó, y como se ha confirmado mediante mediciones directas, este aumento no se produce. El carácter discreto de la energía en la descripción teórico-cuántica de la radiación térmica implica que la energía presente en la radiación disminuye cuando las longitudes de onda son pequeñas; con longitudes de onda mínimas no queda ya nada de energía. Por lo tanto, aquí la energía total de la radiación del cuerpo hueco es finita, y no aparece divergencia alguna.
Un efecto parecido se produce cuando se observa la materia en un universo que se desmorona dentro de sí mismo. Aquí se alcanzan escalas muy pequeñas, ya que un universo que se colapsa implica expansiones cada vez menores de la materia ondulatoria. Al igual que la teoría cuántica de la radiación térmica, la cosmología cuántica de bucles muestra que el aumento de la densidad de energía de la materia en el caso de una expansión suficientemente pequeña del universo se invierte convirtiéndose en reducción. Para las ondas mecánico-cuánticas en un pequeño espacio de estructura atómica no hay todo el sitio que se pueda desear; la repulsión energética que esto conlleva reduce el valor de la densidad máxima posible. Al igual que en la fórmula de Planck para la radiación térmica en un espacio hueco, el esperado ascenso hacia el infinito se verá interrumpido gracias a la teoría cuántica, y se invertirá dando lugar a un descenso hacia el valor nulo.
Con esto el problema resulta menos amenazante; pero, si el universo continuara su proceso hacia el colapso, las ecuaciones podrían venirse abajo aunque la materia-energía fuera finita. También aquí intervienen las fuerzas antagonistas que actúan contra el colapso. Como en la teoría de la relatividad general, la energía de la materia determina finalmente la forma del espacio-tiempo, y esta es a su vez de nuevo la responsable de generar la fuerza gravitatoria. Mientras la forma clásica de la energía induce siempre una fuerza gravitatoria atractiva, la inversión del ascenso convirtiéndolo en descenso, como sucede cuando el universo tiene un volumen pequeño, significa también un cese de actuación de la fuerza. Este es otro mecanismo independiente para una fuerza antagonista, tal como nos lo ofrece la cosmología cuántica de bucles.
Por lo tanto, este tipo de fuerzas antagonistas no parece ser un resultado casual, sino un fenómeno general de este tipo de gravitación cuántica. Dichas fuerzas no solo intervienen en algunos casos especiales, como, por ejemplo, las soluciones detalladas que Abhay Ashtekar, Tomasz Pawlowski y Parampreet Singh investigaron en 2006 en un trabajo asistido por ordenador, sino que pueden ser detectadas en general. Sin embargo, los fenómenos no se han investigado todavía de una manera completa y, aunque aparecen también en el colapso de los agujeros negros, del que hablaré más adelante, todavía no se ha demostrado que en este caso se trate de una característica general de la gravitación cuántica de bucles que pudiera hacer frente a todo tipo de singularidad.

4. ¿Qué había antes del big bang?
No existe ninguna posibilidad de observar directamente el universo anterior al big bang. La razón principal es que el estado extremadamente compacto del universo primigenio resulta demasiado opaco como para que la luz u otras formas de radiación electromagnética puedan llegar hasta nosotros. El primer instante que podemos ver de esta manera es posterior a 380.000 años de expansión. En aquellos tiempos el universo se había expandido lo suficiente para que la materia se enfriara y se aligerara tanto que el espacio resultara translúcido. El universo estaba todavía muy caliente, a unos 4.000° C, y la materia brillaba como un cuerpo que por calentamiento llega a estar incandescente, o como la superficie de una estrella. A partir de ese momento la materia del universo se volvió más compacta y caliente, y brilló de la misma manera. Sin embargo, la radiación fue absorbida de nuevo directamente por el plasma denso y caliente que constituía aquel universo primigenio.

4.1. Opacidad
Cuando la materia aún caliente se hubo aligerado y enfriado lo suficiente, una parte de la radiación pudo por fin escapar y viajar hacia nosotros a través de un universo que continuaba en expansión. Como cuando en una densa niebla se condensan gotas de lluvia y van dejando lentamente que la visión sea cada vez más clara, también en el universo primigenio, con una temperatura de unos 4.000 °C, se formaron átomos neutros que dispersaron la luz mucho más suavemente que los electrones y protones sueltos. Del mismo modo que al observar el Sol podemos ver su superficie, pero no su interior, tampoco podemos contemplar retrospectivamente el big bang con la profundidad que desearíamos. En cambio, sí podemos observar algunos vestigios de la radiación emitida después de un cierto enfriamiento, porque mediante unas antenas sensibles los recibimos en forma de radiación cósmica de fondo. Estos vestigios constituyen una de las más importantes fuentes que nos proporcionan información sobre el universo primigenio, como se verá con más detalle en el capítulo siguiente, especialmente en el apartado dedicado a la radiación de fondo de microondas.
Todo esto sucede mucho después del big bang y nos puede ofrecer, en el mejor de los casos, algunas claves indirectas sobre la forma del universo antes de aquel estallido inicial. Existen otras fuentes de naturaleza no electromagnética que también nos podrían transmitir vestigios del big bang. Si se eligieran unos portadores de información adecuados que interaccionaran con la materia menos activamente que la radiación electromagnética, se podría lanzar una mirada retrospectiva a tiempos anteriores. Por otra parte, estos portadores deberían ser de larga duración, para que no se destruyeran durante el viaje. Según todo esto hay dos posibilidades: los neutrinos o las ondas gravitatorias.
Los neutrinos son partículas elementales que, al contrario que los electrones, son eléctricamente neutros y casi no tienen masa. Surgen con mucha facilidad en las desintegraciones radiactivas y también tuvieron que desempeñar un papel en el universo primigenio. A diferencia de los fotones, que son los portadores de la radiación electromagnética, los neutrinos apenas son absorbidos por la materia. Una prueba impactante de esto es el hecho de que los neutrinos que se producen por fusión nuclear en el interior del Sol llegan hasta la Tierra, mientras que la luz solo llega procedente de la superficie, donde la temperatura es demasiado baja para que se produzca dicha fusión. La mayor parte de los neutrinos incluso atraviesan limpiamente la Tierra, por lo que estas partículas pueden observarse tanto desde el lado que mira al Sol, como desde el lado opuesto, al contrario que la luz, que no puede llegar a la zona nocturna del planeta. No obstante, a causa de la interacción extraordinariamente débil con la materia, solo se detecta una pequeñísima fracción de todos los neutrinos. A partir del conocimiento de algunos índices de producción de neutrinos, se estima que un espacio de un metro cúbico en cualquier lugar del universo, y también en la Tierra, contendría más o menos treinta millones de estas partículas, aunque nosotros no las notemos. A causa de su poca masa, todos los neutrinos que fueron producidos en el universo primigenio solo constituyen algo así como un 1 por ciento de la densidad total del cosmos, a pesar de su gran número.
Debido a su baja velocidad de reacción, los neutrinos pueden llegarnos desde tiempos mucho más remotos que la luz. Mientras que la luz tendría que esperar a que transcurrieran miles de años después del big bang para poder empezar a atravesar el universo sin impedimentos, para los neutrinos esto ya sería posible más o menos un segundo después. Por lo tanto, con un telescopio de neutrinos se podría mirar retrospectivamente a épocas muy tempranas del universo, pero la interacción débil de los neutrinos con la materia es un arma de doble filo: precisamente por esto los neutrinos son muy difíciles de detectar en la Tierra. A causa de esto, un telescopio de neutrinos, con el que se podría ver una parte significativa de todas estas partículas e investigar asimismo su origen, es todavía utópico con la tecnología existente.
La segunda alternativa a la luz es la de las ondas gravitatorias, es decir, pequeñas alteraciones del espacio-tiempo que se propagan a la velocidad de la luz. Se producen, por ejemplo, en colisiones entre masas pesadas, como las estrellas de neutrones o los agujeros negros, ya que las masas influyen en la forma del espacio-tiempo y su curvatura. Una parte de esta curvatura puede evadirse de la zona de la colisión y avanzar por el cosmos como la luz de una estrella. El paso de una onda gravitatoria se notaría por pequeñas variaciones periódicas en las distancias entre objetos, porque las ondas gravitatorias son alteraciones del espacio-tiempo que se propagan. Si podemos medir las distancias con mucha precisión, esto supone la posibilidad de demostrar la existencia de ondas gravitatorias, cuestión en la que se está trabajando en la actualidad de manera muy activa en muchos lugares: con los observatorios LIGO en Estados Unidos, con VIRGO en Italia, con GEO600 cerca de Hannover, y con TAMA en Japón.
La dificultad reside en el hecho de que se necesitan masas muy grandes para producir una cantidad suficiente de ondas gravitatorias. Se calcula que para una detección directa en la Tierra se necesita una precisión de una milésima del radio de un protón. Por muy increíble que esto suene, existen ya unas construcciones refinadas que son capaces de alcanzar esta meta, y, además, no dejan de perfeccionarse. Se cuenta con que en los próximos años se logrará la detección directa.[14] Aunque esto está todavía pendiente, hay pocas dudas con respecto a la existencia de ondas gravitatorias. Como se ha dicho en el capítulo dedicado a la teoría de la relatividad general, se puede explicar la pérdida de energía de púlsares en órbita con una exactitud extraordinaria, utilizando la pérdida de energía de las ondas gravitatorias tal como la predicen las ecuaciones de Einstein. Se trata de una de las más precisas coincidencias entre la teoría y la observación que se han dado en toda la física. Sin embargo, aún se está muy lejos de llegar a conseguir un telescopio de ondas gravitatorias. Existen planes para establecer en el cosmos el LISA, un sistema de satélites que podría cumplir este objetivo, y también para un telescopio subterráneo llamado ET (Einstein-Telescope). Sin embargo, las realizaciones se harán esperar todavía algunas décadas, y para mirar en las profundidades del big bang estos sistemas serán demasiado débiles. No obstante, la perspectiva de un nuevo tipo de astronomía, totalmente independiente de la que se basa en radiaciones electromagnéticas como la luz, resulta en sí misma impresionante.
En la cosmología del universo primigenio las altas energías del big bang ponen límites a la propagación de neutrinos y ondas gravitatorias. Con unas densidades de energía tan elevadas como las que imperaban en aquellos tiempos, el propio universo se vuelve demasiado opaco para estos portadores de información cuya interacción es tan débil. Por consiguiente, seguiremos teniendo vedada la visión directa del universo anterior al big bang, pero al menos no se excluye la posibilidad de realizar una investigación indirecta. Así pues, una fase anterior de colapso, unida a las fuerzas repulsivas de la gravitación cuántica que imperaban en la fase de cambio brusco, produciría unos leves efectos sobre la expansión posterior. En la fase avanzada del big bang se han conservado algunos pequeños vestigios que pueden ser calculados y posiblemente también detectados utilizando unos mensajeros que se exponen abiertamente a nuestra mirada.
Estos efectos sensibles e indirectos exigen una detallada comprensión de la teoría y unas soluciones exactas de sus ecuaciones. Ni siquiera los programas informáticos están hoy día suficientemente desarrollados para proporcionar valores exactos en relación con los efectos esperados. Sin embargo, si se produce un avance de la teoría, junto con mediciones que sean cada vez más precisas, estas observaciones indirectas entran en el ámbito de lo posible. Más adelante se tendrá que llegar cada vez más cerca del objetivo en el contexto de la cosmología observacional, como en una visión cosmogónica del mundo.

4.2. Falta de memoria cósmica

¿Qué ha hecho él con su gran poder para amparar y proteger al país? Un reino de soldados quiso fundar, inflamar y encender el mundo, confundir y embrollar todo.
FRIEDRICH SCHILLER, Wallenstein

 

¿Qué nos dicen las reflexiones teóricas? Siendo independientes de las observaciones, las teorías son a veces tan estrictas que pueden quedar excluidas de ellas algunas de las posibilidades que en principio serían imaginables. Aunque las ecuaciones de la gravitación cuántica no se conocen todavía del todo (en definitiva, estas teorías aún no están formuladas de una manera completa), es posible delimitar en parte las posibilidades mediante criterios de coherencia matemática. Por lo tanto, si se conociera con exactitud el estado actual del universo, sería posible, mediante todas las ecuaciones matemáticas correspondientes a una cosmología cuántica, realizar los cálculos retrospectivos hasta un momento anterior al big bang. Para ecuaciones diferentes se obtienen resultados también diferentes, pero, si los resultados de todas las ecuaciones posibles no se diferencian mucho unos de otros, se puede obtener una idea bastante exacta del estado del universo antes del big bang. En cierto modo, esto se parece a la metodología de la historia tal como la describió Friedrich Schiller en la clase magistral[15] que impartió con motivo de su toma de posesión en la Universidad de Jena:

Del conjunto total de estos acontecimientos, el profesional de la historia universal selecciona aquellos que han ejercido alguna influencia esencial, incontestable y fácil de detectar sobre la configuración actual del mundo y las circunstancias de la generación que vive en el presente. Por consiguiente, la relación de un dato histórico con el estado actual del universo es lo que hay que tener en cuenta a la hora de recoger materiales para la historia universal. Por lo tanto, la historia universal parte de un principio que se contrapone al inicio del universo. La sucesión real de acontecimientos desciende desde el origen de las cosas hasta su orden más reciente, mientras que el historiador retrocede desde el mundo actual hacia el origen de las cosas. Cuando se remonta con su pensamiento desde el año y el siglo actuales al siglo inmediatamente anterior, y se sumerge en los acontecimientos que este último le presenta, los cuales contienen la clave de los siguientes, cuando prosigue por este camino paso a paso hasta el principio, no el del universo, porque ningún indicador le guía hasta algo tan lejano, sino hasta los testimonios o monumentos más antiguos, entonces tiene la posibilidad de regresar por el camino recorrido y descender de nuevo siguiendo el hilo de los hechos señalados, ligero y sin obstáculos, desde los primeros testimonios hasta la época más reciente.

El paralelismo de la historia no debería extrañarnos, ya que en la cosmología se trata también de eso, de historia, la del universo. En este caso se avanza hasta tiempos mucho más remotos, utilizando un tipo de objetos testimoniales totalmente diferentes: la radiación cósmica de fondo, la distribución de las galaxias en el universo y las supernovas, en la forma en que las percibimos en tiempos posteriores. Este camino de acceso se conoce en cosmología como top-down approach o «enfoque descendente»: se empieza con los conocimientos disponibles en el extremo superior (top) del eje temporal y, a partir de allí, se intenta sacar conclusiones relativas a un punto anterior en el tiempo (down). Al contrario de lo que establece Schiller, el modo de ver las cosas se ordena aquí a la inversa, ya que tradicionalmente en los diagramas matemáticos el tiempo se representa hacia arriba (o a veces hacia la derecha) cuando es creciente. En la cosmología este camino de acceso se introduce por primera vez de forma implícita en el programa de investigación de Jim Hartle y Stephen Hawking, y ha sido formalizado recientemente por Hawking y Thomas Hertog.[16]
Debido a las dificultades con que tropiezan las observaciones del conjunto del universo, no conocemos con mucha precisión el estado actual del mismo y no podemos determinar su configuración todo lo bien que desearíamos a causa de la falta de precisión de la función de onda cosmológica en el marco de la teoría cuántica. Por consiguiente, la pregunta decisiva sería cuánto influye nuestro desconocimiento del estado actual del universo sobre los cálculos que hagamos para conocer el estado del mismo antes del big bang. Dicho de otro modo: ¿de cuántos objetos testimoniales disponemos en el universo primigenio junto a esta estatua antigua que es la radiación cósmica de fondo? El conocimiento podría ser prácticamente constante en el tiempo, a cuyo efecto podríamos lograr un muy buen conocimiento del comportamiento del universo antes del big bang, que, frente al conocimiento del estado actual, se acrecentaría a pesar de la inseguridad permanente con respecto a las ecuaciones de la cosmología cuántica. Sin embargo, también puede suceder que, incluso con unas ecuaciones acertadamente elegidas, se incrementara la falta de nitidez en el conocimiento de las circunstancias del pasado. Este comportamiento se conoce, por ejemplo, en los sistemas llamados con justicia caóticos: aunque se parta de unos valores iniciales muy parecidos, su evolución con el tiempo acaba produciendo más tarde unos resultados muy diferentes. Ejemplos de esto son los sistemas de turbulencias en hidrodinámica, que son la razón por la cual las predicciones meteorológicas a largo plazo no resultan fiables.
Asimismo, el caos desempeña en la cosmología un papel relacionado con las cuestiones que nos interesan aquí, pero podemos renunciar a él: la evolución temporal del volumen total en los modelos más sencillos de la teoría de la relatividad general se rige por unas ecuaciones que no muestran caos alguno. Por lo tanto, existe la esperanza de que los cálculos retrospectivos tengan éxito, pero aún tenemos que comprobar si las ecuaciones de la cosmología cuántica no pueden aportarnos otra inseguridad más frente a la clásica teoría de la relatividad general.
Debido a las dificultades con que tropiezan las observaciones del conjunto del universo, no conocemos con mucha precisión el estado actual del mismo y no podemos determinar su configuración todo lo bien que desearíamos a causa de la falta de precisión de la función de onda cosmológica en el marco de la teoría cuántica. Por consiguiente, la pregunta decisiva sería cuánto influye nuestro desconocimiento del estado actual del universo sobre los cálculos que hagamos para conocer el estado del mismo antes del big bang. Dicho de otro modo: ¿de cuántos objetos testimoniales disponemos en el universo primigenio junto a esta estatua antigua que es la radiación cósmica de fondo? El conocimiento podría ser prácticamente constante en el tiempo, a cuyo efecto podríamos lograr un muy buen conocimiento del comportamiento del universo antes del big bang, que, frente al conocimiento del estado actual, se acrecentaría a pesar de la inseguridad permanente con respecto a las ecuaciones de la cosmología cuántica. Sin embargo, también puede suceder que, incluso con unas ecuaciones acertadamente elegidas, se incrementara la falta de nitidez en el conocimiento de las circunstancias del pasado. Este comportamiento se conoce, por ejemplo, en los sistemas llamados con justicia caóticos: aunque se parta de unos valores iniciales muy parecidos, su evolución con el tiempo acaba produciendo más tarde unos resultados muy diferentes. Ejemplos de esto son los sistemas de turbulencias en hidrodinámica, que son la razón por la cual las predicciones meteorológicas a largo plazo no resultan fiables.
Asimismo, el caos desempeña en la cosmología un papel relacionado con las cuestiones que nos interesan aquí, pero podemos renunciar a él: la evolución temporal del volumen total en los modelos más sencillos de la teoría de la relatividad general se rige por unas ecuaciones que no muestran caos alguno. Por lo tanto, existe la esperanza de que los cálculos retrospectivos tengan éxito, pero aún tenemos que comprobar si las ecuaciones de la cosmología cuántica no pueden aportarnos otra inseguridad más frente a la clásica teoría de la relatividad general.
Es especialmente interesante la pregunta relativa a cuál es el tipo de imprecisión cuántica que pudo haber imperado antes del big bang. Las fuerzas repulsivas de la gravitación cuántica impiden la singularidad, preservan el espacio-tiempo frente a su destrucción y posibilitan la existencia de un universo anterior al big bang. Ahora bien, como teoría cuántica que es, la gravitación cuántica muestra ciertas características típicas, tales como fluctuaciones e imprecisiones. En parte, estas características pueden mantenerse alejadas del big bang.
Lo habitual es plantear en torno al big bang un espacio-tiempo sin singularidades, que es lo que se llama rebote o bounce, en el que el universo adopta un volumen mínimo.

14.jpg
Figura 14: Representación de la función de onda de un universo no singular. Las curvas de nivel (según los colores de la imagen de portada) representan los valores de la función de onda, que dependen del volumen expresado en el eje vertical y del tiempo, que se indica en el horizontal. El eje inferior, donde el volumen desaparece, no se alcanza nunca, y por lo tanto tampoco la singularidad. Las fluctuaciones cuánticas, representadas por la anchura de las elevaciones, pueden ser diferentes antes del punto del volumen mínimo y después de dicho punto. En esto se basa la falta de memoria cósmica, ya que la intensidad de las fluctuaciones cuánticas antes del big bang es extremadamente difícil de transmitir posteriormente al mismo.

Sin embargo, en realidad lo que nos aparece aquí es un espacio-tiempo cuántico, porque sin tener en cuenta la teoría cuántica existiría la singularidad. Con ello también se admiten unas fluctuaciones, que son algo insólito en el universo clásico. Aquí vienen muy bien las fuerzas cuánticas, aunque traen consigo estas fluctuaciones. ¿Acaso el universo cuántico, una vez que se ha evitado la singularidad, sigue manteniendo el espacio-tiempo en una agitación fluctuante, como un ejército de mercenarios que, mucho después de superar el peligro de un atacante, continúa merodeando por el devastado país?
Al realizar un análisis preciso del modelo de que disponemos por ahora, se pone de manifiesto que muchas de las características del universo pueden calcularse retrospectivamente con bastante exactitud hasta un punto del tiempo anterior al big bang. Muchas, pero no todas. Existen magnitudes físicas que son importantes para algunas de las cuestiones más interesantes, pero, sin embargo, su valor anterior al big bang tiene una influencia tan débil sobre la evolución posterior que no desempeñan papel alguno con respecto al estado actual del universo. En este caso tampoco se puede limitar este valor anterior al big bang imponiéndole condiciones que se deducen mediante cálculos retrospectivos a partir de las magnitudes actuales.
Hasta cierto punto, el universo olvida el valor exacto que tenía cualquiera de estas características con anterioridad al big bang. Aunque se trate en principio de un valor que sigue influyendo en el comportamiento del universo, esta influencia es tan pequeña e imperceptible que no desempeña papel alguno. El valor no se registra perceptiblemente en ningún otro fenómeno: ha quedado en el olvido. El principal ejemplo de una de estas características olvidadas es precisamente el grado de indefinición cuántica. El big bang, con las fuerzas de repulsión que le proporciona la gravitación cuántica, no es ya singular como lo era en la teoría de la relatividad general, pero sigue siendo un lugar muy especial. El valor que determinaba las fluctuaciones cuánticas para un largo intervalo de tiempo anterior al big bang desempeña de repente, después del mismo, un papel mucho más secundario y es sustituido por un nuevo parámetro que es independiente en general. Ahora bien, aunque de una manera casi insignificante, aquel antiguo valor sigue influyendo en el acontecer posterior, pero no puede deducirse de este mediante observaciones realistas.
Dicho con otras palabras, puede que sea por estas características indeterminadas por lo que el estado del universo antes del big bang se diferencia claramente de lo que vemos hoy día. El significado físico de estas características indica la naturaleza teórico-cuántica del universo: aunque se pueden determinar con precisión ciertas características clásicas como el volumen o la velocidad de expansión, no sucede así con la indefinición mecánico-cuántica de estas magnitudes. El universo anterior al big bang puede haber sido en teoría mucho más indefinido o haber tenido un volumen mucho más fluctuante en comparación con lo que muestra actualmente. Por lo tanto, no podemos estar seguros con respecto al estado exacto del que partió el universo que vemos ahora. No parece que con métodos científicos vayamos a poder delimitar esto mejor, salvo que nos dejemos seducir por otras hipótesis relativas a este estado que, sin embargo, están inevitablemente marcadas por los prejuicios. Aunque la cosmología cuántica puede responder en proporciones insospechadas a numerosas preguntas sobre el universo, de esta manera deja un modesto margen para el mito.

4.3 Límites

Los límites de mi lenguaje señalan los límites de mi universo.
LUDWIG WITTGENSTEIN, Tractatus logico-philosophicus

Los resultados obtenidos hasta ahora se basan en modelos simplificados que pueden manejarse con precisión aplicando métodos matemáticos; de otro modo, el comportamiento descrito no hubiera podido revelarse. Este procedimiento es habitual en la física teórica, donde a menudo se parte del modelo más sencillo que caracteriza una situación, y mediante ampliaciones sistemáticas se va haciendo que sea cada vez más realista. Es inevitable que en un caso así se plantee la pregunta relativa a si los resultados obtenidos en el modelo más sencillo son válidos en general, o deben ser luego descartados en las ampliaciones de dicho modelo. Esto es así, por ejemplo, en el caso de la falta de memoria cósmica que hasta ahora se ha establecido en algunos modelos, pero no en general.
Existe, pues, una considerable diferencia entre estos enunciados negativos sobre el conocimiento y los resultados positivos que se obtienen a menudo en sistemas de modelos. En principio, lo que más interesa son los datos concretos, como, por ejemplo, la magnitud de un parámetro determinado y la cuestión de si este valor es observable. En situaciones sencillas a menudo esto se puede calcular, pero queda siempre en duda la fiabilidad del valor en unas circunstancias realistas, que en el modelo son difíciles de reproducir. En cambio, en el caso de la falta de memoria cósmica nos encontramos con una característica negativa: presenta un resultado que va más allá de las limitaciones de la obtención de conocimientos. Tales resultados son desde luego menos concretos, pero resultan mucho más seguros con respecto a posibles ampliaciones del modelo. En definitiva, cualquier ampliación complica el modelo inicial; en otro caso se hubiera tomado el modelo ampliado como punto de partida para el análisis. Y, si la situación se complica, la obtención de conocimientos se hace más difícil que en el modelo más sencillo. Si en este ya estaba limitada, también lo estará, y mucho, en el modelo ampliado. Por lo tanto, la falta de memoria cósmica puede considerarse, con razón, como una característica general.
A los físicos les deprimen los límites del conocimiento. El éxito de la imagen determinista del universo ha consolidado la creencia generalizada en este modelo, por lo que los desafíos se contemplan con escepticismo. También la falta de memoria cósmica plantea un desafío de este tipo, y ha sido criticada con vehemencia. Los argumentos que se han formulado contra ella han de considerarse, sin embargo, como un acto de desesperación zenónica, ya que son infundados. Estos argumentos dicen lo siguiente: es posible que no se pueda determinar toda la indefinición del universo anterior al big bang, pero hay muchas más características que definen un universo cuántico, incluso un número infinito de ellas. Un parámetro de indefinición entre infinitas características es lo mismo que nada y, por consiguiente, no habrá falta de memoria.
La falta de sentido de estos argumentos se hace evidente cuando los aplicamos a la desmemoria de los seres humanos: cualquiera de nosotros posee una memoria perfecta, aunque puede ser que olvidemos algo de vez en cuando. Sin embargo, sigue habiendo una infinitud de informaciones posibles (cuyo recuerdo no nos preocupa, pero que tampoco olvidamos). Y una infinitud de entre una infinitud es lo mismo que nada, por lo que se puede decir que recordamos todo. También aquí se reconoce el mal uso del infinito, aunque de una forma mucho más torpe que en el caso de Zenón. Además, por otra razón, este argumento no es sólido: de hecho, existe una infinitud de características del estado del universo antes del big bang que, desde el punto de vista actual, no podemos limitar. La indefinición se determina mediante solo tres parámetros, uno de los cuales influye en el universo actualmente, otro en la fase del big bang y el tercero antes de dicha fase. Siendo realistas, no nos queda sino esperar a determinar el valor que es relevante en la actualidad, pero ninguno más, y con ello el universo olvida dos de los tres parámetros de fluctuación.
Aunque una teoría cuántica de la gravitación puede evitar la singularidad del big bang, lo cual ya es un gran éxito y un paso importante de nuestro conocimiento, esto no significa necesariamente que sea posible determinar todo lo que hay en el universo y su origen exacto. Como ya hemos visto, este no es ni mucho menos el caso, y el universo sigue planteando enigmas. En la cosmología teórica se utilizan a menudo modelos simplificados del universo en los que se puede rastrear la historia, en la medida de lo posible, y calcular con precisión parámetros, como, por ejemplo, la densidad de energía o la temperatura del universo en el momento de su mínima expansión. En estos modelos existen con frecuencia características especiales que posibilitan tal precisión; sin embargo, es inaceptable la idea de que estos resultados son válidos en general para todo.
Incluso en el caso de que toda una clase de modelos den enunciados similares, es imposible tener la seguridad de que sean válidos en general. En este contexto a menudo nos enfrentamos con los efectos selectivos que Arthur Eddington ha descrito utilizando el símil de los peces: dos pescadores de altura hablan sobre su oficio, mientras sus redes están echadas y se llenan de peces. Uno de los dos pescadores repara en algo sorprendente que ha observado y que le da que pensar desde hace tiempo: aunque los peces que capturan tienen tamaños diferentes, hasta el momento no ha aparecido ninguno que mida menos de un centímetro. El otro pescador no ve en esto ningún misterio, ya que al fin y al cabo los peces crecen primero dentro del huevo, antes de salir a nadar libres por el mar y poder quedar atrapados en la red. Por lo tanto, llega a la conclusión de que todos los peces salen del huevo con una longitud de al menos un centímetro.
Aquí tenemos un ejemplo de un razonamiento que, aparentemente, es válido en general, pero sin embargo es falso. Evidentemente, los pescadores no han tenido en cuenta la anchura fija de los agujeros de la red que utilizan, que solo puede retener y sacar a cubierta peces de un determinado tamaño mínimo. Los peces que no alcanzan este tamaño simplemente caen por los agujeros de la malla o salen de la red nadando. Nos encontramos aquí con un efecto selectivo, ya que el método determina una característica del resultado. De una manera parecida, también existen efectos selectivos en modelos cosmológicos cuya complejidad exige en general unas características determinadas para cada análisis concreto. Por consiguiente, es difícil precisar si quizá el propio hecho de favorecer una manejabilidad directa, por ejemplo mediante ecuaciones matemáticas, determina ya en parte el resultado. Es posible analizar distintos modelos, pero se necesita un gran número de casos característicos para llegar a un resultado concluyente. Esto pocas veces es posible, a causa de la complejidad que presentan incluso los modelos sencillos.
En vez de esto, existe una manera de enfocar las cosas mucho más consistente que, sin embargo, es poco popular. En vez de centrarnos en características positivas, como el valor exacto de una magnitud determinada, se adopta un punto de partida pesimista: se intenta mostrar los límites existentes a la hora de determinar parámetros. Un ejemplo de esto es precisamente la falta de memoria cósmica. En modelos sencillos es posible, mediante cálculos, determinar de forma explícita tales límites, igual que las magnitudes positivas, aunque a menudo los resultados son muy amplios y, por lo tanto, poco restrictivos. Sin embargo, en algunos casos concretos, como el de las fluctuaciones cuánticas del universo antes del big bang, hay unas limitaciones sorprendentes que se ponen de manifiesto por sí mismas en modelos sencillos. Así pues, si se intenta configurar de manera realista un modelo sencillo incluyendo en él características importantes, como materia adicional o menos supuestos de simetrías, es posible que lo único que se consiga sea hacer más estrictos los límites para la determinación de los parámetros. Los límites que conocemos a partir de modelos sencillos se vuelven también muy estrictos al realizar una ampliación del modelo y, por consiguiente, pueden considerarse como válidos en general.
En ningún caso debe entenderse este punto de vista pesimista como una claudicación. Los límites desempeñan un papel importante en la ciencia y deben reconocerse claramente. Solo así puede verse el modo de lograr avances dentro de estas limitaciones, o si es quizá posible evitarlas. Las magnitudes positivas pueden calcularse en modelos sencillos, unas veces con facilidad, y otras con un esfuerzo considerablemente mayor. Existen innumerables modelos en los que esto puede llevarse a cabo, y dichos modelos son utilizados de buena gana por los investigadores para producir sus publicaciones científicas. Sobre todo en los estadios iniciales de un nuevo campo que acaba de surgir, hay muchas posibilidades abiertas a este tipo de cálculos concretos.
No obstante, la cantidad de datos no siempre ayuda a comprender las cosas más a fondo. Por una parte, a menudo se reproducen resultados ya conocidos en un modelo ligeramente modificado y, por otra, a partir de los mismos no siempre se sabe si una de esas características es válida en general o es el resultado de un efecto selectivo. Por lo tanto, la adopción de un punto de vista pesimista, como el que vengo proclamando desde hace poco en la cosmología cuántica de bucles, no es más que una clara muestra de la madurez de cualquier rama de la ciencia. Se empieza tomando en serio los límites, para luego dedicarse uno a obtener resultados más generales en el marco de la teoría que investiga. Detectar los límites y admitir que existen constituye, además, una aportación importante a la honestidad de la ciencia.

Capítulo 6
Cosmología observacional

Contenido:
  1. La tríada de la cosmología observacional
    1.1. La radiación cósmica de fondo de microondas
    1.2. Cartografía galáctica
    1.3. Supernovas
  2. Presión negativa
    2.1. Energía oscura
    2.2. Inflación
    2.3. ¿Observación de la gravitación cuántica?
  3. Otras posibilidades para la comprobación
    3.1. Síntesis nuclear
    3.2. El espacio-tiempo como cristal
    3.3. Agujeros negros

Desde sus primeros tiempos la cosmología observacional ha conseguido unos avances impresionantes y ha realizado valiosas aportaciones a la comprensión del universo. En el marco de la física, la cosmología desempeña un papel especial, ya que el universo es un sistema único en su especie. Ningún investigador que vaya a realizar un experimento puede preparar previamente el universo, por lo que se cierra la vía a la manera habitual de proceder dentro de la física, que consiste en producir muchos sistemas parecidos, por ejemplo grupos de partículas elementales que intervienen en innumerables reacciones aceleradas, y medir una y otra vez sus propiedades. De esta forma se puede limitar considerablemente el efecto de los errores de medición que surgen de manera inevitable cuando se hace una medición única. En el caso del universo, este se comporta por supuesto de otra manera: los cosmólogos han de arreglárselas con lo que el universo les puede ofrecer.
Por consiguiente, en los experimentos cosmológicos hay una única vía, porque la observación queda eliminada con la preparación. A causa de esto en numerosas observaciones los errores de medición no pueden reducirse mucho a voluntad, y no siempre está claro si una medida es solo por casualidad tal como se ve, o si debe haber para ello un motivo que la haga ser así. Las magnitudes cosmológicas tienen a menudo unos valores tan desconcertantes que, después de una explicación en profundidad, claman al cielo. Por ejemplo, como explicaré más adelante, el universo ha acelerado su expansión hace relativamente poco tiempo. En ocasiones se suele especular con la idea de que por este motivo existe una relación entre la aceleración y la aparición de vida inteligente, que esa aceleración puede percibir y producir.
¿Cómo se podría descartar que en este caso no se trate sencillamente de una casualidad? Cuando se realizan experimentos repetidos, el papel que pueda desempeñar la casualidad se detecta fácilmente, porque esta no podría producir efectos sistemáticos. Pero en la cosmología no cabe la repetición. Lo que dificulta la decisión es que la causa de la aceleración (que recibe el misterioso nombre de «energía oscura») apenas se conoce. Sin embargo, tenemos que ser conscientes de que existen muchas coincidencias de este tipo, a las que en un momento determinado se les ha atribuido una enorme importancia. Por ejemplo, los radios de la Luna y del Sol armonizan tan bien con los radios de las órbitas terrestre y lunar que sería posible un eclipse total de Sol casi perfecto. En otras circunstancias la Luna sería demasiado pequeña para cubrir por completo el Sol y quedaría eclipsada sin remedio; o sería demasiado grande y relegaría al Sol totalmente a un segundo plano durante un eclipse.
No obstante, los tamaños aparentes de la Luna y el Sol en el cielo son casi iguales, por lo que se producen unos eclipses de Sol impresionantes con una corona solar visible. Es sabido que en ciertas culturas antiguas estos fenómenos a menudo han desempeñado un papel importante y, en cuanto al deseo de una predicción exacta de futuros eclipses, han realizado su propia aportación al desarrollo de la investigación astronómica. Sin embargo, hoy día no queda ya duda alguna de que la mencionada armonización es fruto de la casualidad. Además, la Luna se está alejando poco a poco de la Tierra, porque las mareas que se producen a causa de la presencia de nuestro satélite tienen su coste energético, y esto frena el movimiento de la Luna en torno a la Tierra, lo cual hace que la primera se aleje de la segunda. La coincidencia de los tamaños aparentes de la Luna y el Sol es, pues, una doble casualidad: por las insignificantes características de las órbitas terrestre y lunar en el sistema solar, y también por el lapso de tiempo en que situamos nuestras observaciones.
Algo parecido sucede con muchas cuestiones de la cosmología. Desde hace algunos años, los cosmólogos observacionales son cada vez más hábiles con los diferentes tipos de mediciones que han desembocado en una precisión insospechada. Sobre ello hablaré en este capítulo, recalcando las características relacionadas con la gravitación cuántica.
Otra diferencia entre las mediciones realizadas en el marco de la cosmología y en el resto de la física es el hecho de que el cosmólogo, como observador, forma parte él mismo del sistema que investiga, es decir, del universo. Por el contrario, en otros campos de la física el observador está siempre separado del sistema que prepara y mide (salvo en algunos raros experimentos consigo mismo). Precisamente en combinación con la física cuántica, o sea, en la cosmología cuántica, se llega a menudo a tener dificultades para comprender la teoría y a resultados que parecen paradójicos. Este punto nos lleva al capítulo relativo al carácter unívoco de las soluciones cosmológicas.

1. La tríada de la cosmología observacional
Las ideas cosmológicas relativas a la estructura espacial del universo y su expansión se basan actualmente en gran medida en tres tipos de observación diferentes: mediciones de la ya mencionada radiación cósmica de fondo, cartografiado a gran escala de la materia acumulada en las galaxias y determinaciones precisas de las distancias y velocidades de las explosiones estelares llamadas «supernova tipo Ia». A esto hay que añadir datos sobre la composición de la materia, especialmente sobre la frecuencia con que aparecen elementos más ligeros, como el oxígeno y el helio, que arrojan luz sobre una fase temprana del universo: la nucleosíntesis.

1.1. La radiación cósmica de fondo de microondas

Yo te habría pintado: no en la pared, sino en el propio cielo de un extremo a otro.
RAINER MARIA RILKE, El libro de horas

La radiación electromagnética de microondas, que desde tiempos remotos[17]—menos de medio millón de años después del big bang, lo cual en comparación con la totalidad del tiempo transcurrido hasta ahora se situaría hace algo menos de catorce mil millones de años— atraviesa el cosmos, puede ya medirse con muchos detalles, como la distribución direccional de su intensidad en el cielo. Como ya se ha mencionado, esta radiación procede del universo caliente próximo al big bang y comenzó su viaje hacia nosotros cuando la materia, a una temperatura de unos 4 000 °C, se volvió translúcida. En aquella época, a pesar de la atracción gravitatoria, la materia existente no había podido aún agruparse formando galaxias, porque la presión de radiación de aquel universo caliente habría reducido de nuevo a polvo cualquier condensación.
Así pues, tanto la distribución de la materia, como la de la radiación, eran ampliamente homogéneas, es decir, más o menos iguales en todos los puntos de aquel universo. Sin embargo, había pequeñas fluctuaciones que en épocas posteriores, tras una reducción en la presión de radiación, dieron lugar a la formación de condensaciones y culminaron después en la aparición de galaxias. En la actualidad son todavía reconocibles ciertos vestigios de esas pequeñas faltas de homogeneidad en la distribución direccional de la radiación cósmica de fondo: la intensidad de esta radiación no es la misma en todas las direcciones, sino que fluctúa ligeramente. Con la ayuda de modelos teóricos para el desarrollo del universo a partir del big bang es posible calcular estas fluctuaciones, y luego, por comparación con los datos de las mediciones actuales, sacar conclusiones retrospectivas sobre las teorías utilizadas.
La existencia de la radiación cósmica de fondo fue anunciada en 1948 por Ralph Alpher y Robert Herman, que valoraron la temperatura con una precisión asombrosa en 5 K, es decir, –268 °C. No obstante, esta predicción tuvo poca repercusión posteriormente, ya que la mayoría de los físicos consideraron que la radiación no era detectable. La radiación cósmica de fondo de microondas fue detectada por primera vez casualmente por Arno Penzias y Robert Wilson en 1965, gracias al desarrollo de los nuevos detectores refrigerados.[18] En 1978, Penzias y Wilson recibieron el premio Nobel de Física por sus descubrimientos (junto con Pyotr Kapitsa, que lo recibió por sus trabajos en el campo de la física de las bajas temperaturas).
En estas mediciones, y con las posibilidades de medición existentes en aquella época, el fondo aparecía aún muy homogéneamente distribuido en el cielo. En cuanto a la distribución de la intensidad, dispersa en cuotas de distintas frecuencias de microondas, se obtuvo, como era previsible, la fórmula de Planck para la radiación térmica en un hohlraum («cuerpo hueco»), tal como hemos visto al hablar de la mecánica cuántica. La verdad es que el universo se puede considerar como un cuerpo o espacio hueco totalmente cerrado, y el fondo de microondas es, de hecho, la radiación térmica que se ha medido con mayor precisión. Dado que la distribución de frecuencias depende de la temperatura de la radiación térmica, se puede medir la temperatura media del universo de aquellos tiempos. Para el fondo de microondas, esta es de 2,7 K, es decir, –270 °C, lo cual se acerca bastante a la predicción. Esto parece mucho frío, teniendo en cuenta que la radiación procede del cálido universo inicial, pero hay que tener presente que se ha enfriado a causa de la posterior expansión del universo y que en el momento de su emisión estaba mucho más caliente, a unos 4.000° C.
En 1992, el satélite COBE (Cosmic Background Explorer, inaugurado en 1989) proporcionó las primeras mediciones de la radiación cósmica de fondo, que mostraron irregularidades en la distribución direccional por el cielo, es decir, anisotropías. Las fluctuaciones resultan muy pequeñas, aproximadamente una millonésima de la intensidad total, pero son medibles. Por este trabajo, junto con la confirmación de la fórmula de Planck para la radiación de fondo, los principales inventores del aparato de medición, John Mather y George Smoot, obtuvieron en 2006 el premio Nobel de Física. Entretanto se han llevado a cabo innumerables experimentos, incluso observaciones en globo desde la Antártida y también mediante satélites, sobre todo con el WMAP (Wilkinson Microwave Anisotropy Probe), que ha enviado una serie de datos espectaculares y sigue recogiendo aún más. Para un futuro cercano se ha programado el lanzamiento de un nuevo satélite, el Planck, creado por ESA para iniciar su actividad en 2009. Este satélite seguirá recogiendo datos a unas alturas hasta ahora nunca alcanzadas, y seguramente será durante varios años el no va más de la investigación cosmológica observacional. Debido a la duración del proceso de recogida y valoración de datos, se supone que los primeros resultados no aparecerán hasta el año 2012, en el mejor de los casos.
Las anisotropías que se observan en la distribución celeste de la radiación de microondas contienen una enorme cantidad de información sobre la física del universo de los primeros tiempos. Muestran cómo, en el período comprendido entre las fases más calientes del big bang y el momento en que, tras un suficiente enfriamiento de la materia, se liberó la radiación, la atracción gravitatoria produjo una formación de grumos con pequeñas fluctuaciones de densidad. En comparación con la edad total que tiene actualmente el cosmos, aquel período no tuvo una duración muy larga, y esta es la razón de que las anisotropías sean muy pequeñas. Pero no son inexistentes, por lo que se puede recurrir a los valores medidos y, utilizando las ecuaciones de Einstein, determinar la distribución de la materia en tiempos aún más remotos. El resultado puede luego compararse con los modelos teóricos que predicen la distribución de la materia en la fase más caliente del big bang.
Todo esto constituye un procedimiento muy indirecto con el que es imposible construir un modelo teórico claro. Sin embargo, los datos son lo bastante precisos como para descartar algunas teorías y reafirmarse en otras. Hay una serie de modelos que son los que mejor concuerdan con los datos recogidos hasta ahora, y se engloban bajo el nombre de inflación. Según estos modelos, en una fase muy caliente el universo se expandió durante algún tiempo con una rapidez extraordinaria, suponiéndose incluso que la velocidad de expansión experimentó una aceleración. (Como ya se ha dicho, recientemente el universo ha entrado de nuevo en una fase de aceleración que es independiente de la aceleración inflacionaria). Esto parece ir en contra de la atracción gravitatoria, por lo que hasta la fecha ha sido siempre muy discutido el mecanismo físico que causa la inflación. Sobre esta cuestión volveré más adelante de forma pormenorizada.
Otros detalles de las anisotropías arrojan luz sobre algunos parámetros que son importantes para analizar el carácter del cosmos. El espectro de las anisotropías, es decir, la dispersión que se produce en la distribución de la intensidad en distintas direcciones, mostrando oscilaciones individuales uniformes, tiene, por ejemplo, un máximo. La longitud de onda de la oscilación correspondiente es una medida de la curvatura del espacio, tal como este se encuentra en un momento dado. El espacio-tiempo y también su componente espacial no tienen por qué ser necesariamente planos, sino que pueden ser curvos como la superficie de una esfera. En este caso se habla de curvatura espacial positiva. Por otro lado, si un espacio es plano, tiene curvatura nula, y existe la posibilidad de que la curvatura sea negativa, en cuyo caso el espacio correspondiente parece una silla de montar.
Así pues, en la teoría de la relatividad general la curvatura ocasiona lo que nosotros percibimos como fuerza gravitatoria, y también actúa sobre la luz o sobre la radiación de microondas en el fondo cósmico. Según cómo sea la curvatura, la radiación que viaja hacia nosotros habrá sufrido diferentes influencias desde el momento en que fue liberada, por lo que estará parcialmente enfocada o desenfocada. El máximo del espectro se encuentra entonces en otras longitudes de onda, dependiendo de la potencia de la focalización, es decir, de la curvatura. A partir de la posición medida se deduce que la curvatura espacial desaparece casi por completo; el espacio en que vivimos es, por lo tanto, a grandes escalas casi plano. Sin embargo, no por eso carece de curvatura el espacio-tiempo, pues, de otro modo, no podría haber expansión del universo. Además, el espacio actual tomado a escalas menores es también espacialmente curvo a causa de la presencia de grandes masas, a pesar de que a grandes escalas sea por término medio plano.
A partir de otros detalles del espectro y de la presencia de picos menores, o máximos relativos, junto al máximo absoluto, cuya existencia señaló ya en 1965 el físico y defensor de los derechos humanos Andréi Sajárov, se deducen otras características, como la cantidad total de materia que ha producido la formación de grumos por efecto de la gravitación. Este es un parámetro muy interesante, ya que, a pesar de que por sí solo no es muy significativo, resulta importante en relación con la cantidad de materia que, según la teoría de la relatividad general es necesaria para que exista un universo con un espacio casi plano. Curiosamente se espera un valor de la cantidad de materia mucho menor que el requerido para un espacio plano, aunque precisamente el máximo indica este tipo de espacio.

15.jpg
Figura 15: Espectro de la radiación cósmica de microondas con un máximo absoluto medido con toda precisión, junto a otras cimas menores. (http://map.gsfc.nasa.gov/media/080999/index.html).

Los datos obtenidos de los picos del espectro de la anisotropía parecen, pues, contradecirse mutuamente, salvo que exista otra forma de energía, desconocida hasta ahora, que no produzca una formación de grumos y, por lo tanto, sea importante para la curvatura espacial y, en consecuencia, para el máximo absoluto, pero no para los picos secundarios. Esto tiene todo el aspecto de ser un problema serio que solo se puede resolver postulando una nueva forma de energía. Afortunadamente, esto no solo lo exigen los datos del fondo cósmico de microondas, sino también algunas observaciones que mencionaré a continuación. La totalidad de las observaciones es, pues, coherente, pero dichas observaciones nos llevan al misterio de esta forma de energía, la llamada energía oscura, para la que no existe todavía ninguna explicación teórica satisfactoria, a pesar de los muchos esfuerzos realizados para encontrarla.
Para colmo, el valor de la masa no atribuible a la energía oscura es claramente mayor que la cantidad de materia que podemos ver en forma de estrellas. Esto lleva a proponer la existencia de otra forma de energía, otra más, que se denomina materia oscura, que no debe confundirse con la energía oscura. No entraré aquí en detalles sobre qué es la materia oscura, ya que este tema tiene poca relación con la gravitación cuántica. Además de los agujeros negros, se barajan algunas partículas elementales recientemente descubiertas como posibles candidatas a ser consideradas materia oscura. Se espera que en breve dichas partículas puedan observarse quizá de manera directa en experimentos realizados con aceleradores.
Otra característica de la radiación es su polarización. La radiación electromagnética tiene forma transversal, es decir, puede oscilar en el espacio en distintas direcciones, como una cuerda, vertical a su dirección de propagación. También en el caso de la radiación cósmica de fondo es posible medir estas direcciones de oscilación repartidas por todo el cielo. A este respecto, aunque ciertas mediciones recientes del satélite WMAP han aportado valores concretos, no son todavía muy precisos. Se supone que el satélite Planck los mejorará mucho, con lo que se obtendrá otra gran cantidad de información independiente sobre la radiación de fondo. Lo interesante de este tipo de datos es el hecho de que solo la deformación del espacio-tiempo producida por ondas gravitatorias ocasiona una polarización, y no otras clases de curvatura del espacio-tiempo, tal como surgen de la materia. A partir de los datos de polarización pueden extraerse conclusiones sobre la intensidad de las ondas gravitatorias en la proximidad del big bang, y comprobar, o incluso delimitar, conceptos teóricos tales como las huellas de la gravitación cuántica.

1.2. Cartografía galáctica

Al principio allí se empieza, en pequeño, gozando al devorar lo de menor tamaño; luego se va creciendo poco a poco, hasta que uno se forma con toda perfección.
GOETHE, Fausto

Posteriormente, tras la emisión de la radiación cósmica de fondo, se formaron galaxias a partir de las oscilaciones de densidad cuyos primeros gérmenes todavía pueden verse actualmente en las anisotropías de la radiación de fondo. A continuación, las irregularidades de la distribución de materia fueron escasas, aunque algunas zonas más densas ejercieron una fuerte atracción gravitatoria sobre la materia que las rodeaba, sumando más materia a la que ya tenían. Algunas concentraciones próximas se fusionaron entre sí, y las que eran ricas en materia se tragaron casi todo lo que había en su entorno más cercano. Con el tiempo, los centros de atracción se inflaron cada vez más, se hicieron cada vez más ricos en masa, y su temperatura y presión interna aumentaron, con lo que en su interior se encendieron estrellas. Finalmente, estas concentraciones de materia culminaron en la formación de impresionantes galaxias, mientras el espacio intergaláctico se empobrecía en cuanto al contenido de materia. Dado que con ayuda de las ecuaciones de Einstein puede calcularse la compactación de la materia partiendo de una distribución inicial como la que se deduce de la radiación de fondo, la realización de una cartografía exacta de las galaxias constituye otra comprobación de dicha teoría. Gracias al uso de telescopios cada vez más sensibles, ha llegado a ser factible esta cartografía de grandes espacios; y, aunque todavía no se dispone de un mapa completo, las imágenes obtenidas (sobre todo las del SDSS, Sloan Digital Sky Survey; véase la figura 16) son impresionantes. En ellas aparece más o menos medio millón de galaxias de nuestro entorno cósmico. Cuando se observan estos mapas a gran escala, se pone de manifiesto realmente la manera tan homogénea en que está distribuida la materia en el universo. Lo que se puede ver a simple vista mirando desde la Tierra al cielo estrellado es, por el contrario, un detalle insignificante: una casualidad histórica en el desarrollo del universo y en nuestra propia existencia.
Esta homogeneidad a grandes escalas es una enorme suerte para la cosmología, ya que un grado de simetría tan alto permite grandes simplificaciones a la hora de resolver las ecuaciones de Einstein. Si no fuera este el caso, entonces, a pesar de todas las observaciones, los árboles no dejarían ver el bosque, a causa de la complejidad del desarrollo cósmico. Al hacer el modelo del universo habría que tener en cuenta tantos detalles, que no se podría construir un modelo explicativo satisfactorio.
Además de esta confirmación de la homogeneidad, que en cualquier caso los cosmólogos (con cierto descaro) habían presupuesto ya hace tiempo, los mapas galácticos proporcionan también datos concretos que se refieren a la radiación cósmica de fondo.

16.jpg
Figura 16: Mapa de las galaxias realizado por el SDSS. Considerado a gran escala, el universo parece mucho más homogéneo de lo que permiten presuponer los entornos cercanos del sistema solar y la Vía Láctea, (http://www.sdss.org/news/releases/galaxies.jpg).

A pesar de la fuerte homogeneidad, la distribución de las galaxias está sometida a pequeñas oscilaciones que pueden investigarse prescindiendo de las escalas. Esto muestra, como el espectro de anisotropías del fondo de microondas, un máximo a cierta distancia, según pusieron de manifiesto simultáneamente en 2005 las colaboraciones del SDSS y el 2dFGRS. A partir de las ecuaciones de Einstein, de nuevo se puede establecer una relación con la curvatura espacial, y de nuevo se obtiene como resultado un espacio casi plano.
La coincidencia de estas mediciones tan diferentes pone de manifiesto no solo la coherencia de los datos, sino también el hecho de que la curvatura espacial permanece constante en grandes intervalos de tiempo. Al fin y al cabo, las diminutas oscilaciones de densidad que existían en el momento de la emisión de la radiación, y las distribuciones de densidad observadas en los mapas galácticos, están a millones de años de distancia. El hecho de que la curvatura espacial permanezca constante en el tiempo es de nuevo una predicción de la teoría de la relatividad general para universos cuya distribución de masa es casi homogénea. También aquí, una vez más, la teoría ha superado brillantemente la prueba.

1.3. Supernovas
Una vez que se hubieron constituido las primeras galaxias, continuó el desarrollo de las estrellas en formación. Pasado algún tiempo, las más antiguas estaban ya a punto de agotar su combustible nuclear, su presión interna había descendido al mismo tiempo que la temperatura, y no podía evitarse un colapso gravitatorio. El destino de algunas de estas estrellas era convertirse al final del colapso en un agujero negro.
En el capítulo siguiente explicaré con más detalle este proceso y la estructura de los agujeros negros; ahora solo me interesa precisar que en el colapso no participa toda la materia de la estrella, ya que una porción nada despreciable de ella es lanzada al cosmos. La energía así liberada se ve como una tremenda explosión: una supernova. La ventaja de una subclase de supernova llamada «Tipo Ia» es que posee unas características muy específicas. Si se observa detenidamente la distribución de colores de la luz que irradia, por ejemplo descomponiéndola con ayuda de un prisma, se puede determinar de manera fiable la cantidad total de energía emitida. A partir de esta se deduce a su vez la distancia existente entre nosotros y la supernova, ya que cuanto más alejada se encuentre, más oscura se ve; y cuanto mayor sea la cantidad de energía que emite, más luminosa ha de verse. Por lo tanto, la luminosidad con que aparece la supernova depende de su lejanía y de la energía total. Dado que podemos medir directamente su luminosidad, y también la energía total a partir de la distribución cromática, tenemos la posibilidad de determinar la distancia a la que se encuentra. Este no es el caso de las estrellas habituales, cuya lejanía a menudo solo puede determinarse de manera indirecta, por ejemplo mediante la comparación con otros fenómenos, como pueden ser las propias supernovas que se encuentran en sus proximidades. A causa de esto, las supernovas reciben también el nombre de velas estándar, ya que constituyen una especie de faros normalizados para la exploración del universo por parte de los astrónomos.
Además, las supernovas, por la violencia de los fenómenos que ocasionan, irradian luz con gran intensidad, por lo que pueden verse incluso cuando la distancia es muy grande. Puesto que la velocidad de la luz es finita, esto significa que, gracias a las supernovas, pueden encontrarse aún vestigios de cómo era el universo hace mucho tiempo. Así se puede hacer una retrospectiva de la historia del universo en expansión, ya que no solo se puede determinar la distancia a la que se encuentran las supernovas, sino —asimismo a partir de la distribución cromática de su luz— también su velocidad, ocasionada por la expansión del universo. (Además de este, hay otros factores que influyen en la velocidad de las supernovas y que están originados por la distribución de masas que las rodean. Dado que las supernovas, al igual que sus estrellas de origen, se encuentran dentro de las galaxias, y que estas en la mayoría de los casos giran en torno a un centro, la velocidad de esta rotación se suma a la de las supernovas. Se trata casi siempre de pequeñas aportaciones que, además, al contrario de la sistemática velocidad de expansión, tienen una distribución aleatoria y, por lo tanto, no desempeñan un papel importante cuando se observa un gran número de supernovas).
Así pues, la distancia nos da el instante en el tiempo anterior al actual, y la distribución cromática nos proporciona la velocidad de expansión del cosmos en aquel instante. Con ello se obtiene una función que presenta exactamente la forma en que se puede calcular a partir de las ecuaciones de Einstein para una determinada distribución de masa en el universo. Mediante la comparación de un gran conjunto de curvas de soluciones con el segmento observado se puede ver también qué distribución de masas encaja mejor con el pasado reciente de nuestro universo. Se trata de otro método diferente para determinar parámetros cósmicos, que es independiente de las mediciones que se han mencionado en los dos apartados anteriores. Aquí hay que considerar cada estrella de forma individual, a diferencia de lo que se hacía en el cartografiado de galaxias completas del apartado anterior, o en los métodos basados en la radiación de microondas en el fondo cósmico. Esta es la razón de que con las supernovas solo se pueda determinar la parte más reciente de la historia del universo. Las aportaciones principales dentro del conjunto de todos los datos obtenidos —radiación cósmica de microondas, mapas galácticos y supernovas— son, pues, independientes unas de otras; por lo tanto, se plantea un amplísimo test de coherencia para comprobar que sus consecuencias concuerdan.
De hecho, se ha constatado la coherencia, y esta ha deparado una sorpresa: como ya se ha dicho, los detalles de la distribución de intensidad de la radiación de microondas en el cielo solo pueden explicarse si existe una aportación especial a la energía que hay en el universo, siendo dicha aportación la que en un instante del pasado ha contribuido a una aceleración de la expansión del mismo, que en la actualidad sigue produciéndose. Este pasado reciente es precisamente el dominio de las observaciones de supernovas, y también la función de velocidad obtenida de dichas observaciones pone de manifiesto esta aceleración. Por lo tanto, hay que contar seriamente con la existencia de esa forma de energía, aunque no se disponga de una explicación teórica que la justifique.
El hecho de postular nuevas formas de la materia para explicar datos que, de otra manera, serían incongruentes no es algo nuevo dentro de la historia de la física. Por ejemplo, Wolfgang Pauli había atribuido una aparente pérdida de energía durante ciertas desintegraciones radiactivas a la existencia de unas partículas entonces desconocidas que reaccionaban de una manera extraordinariamente débil. A causa de su débil efecto de interacción, dichas partículas podrían escapar a los métodos de medición directos y hacerse notar únicamente por la energía que transportaban. Incluso cuando la pérdida de energía se constató sin lugar a dudas gracias a una mayor precisión en las medidas, el propio Pauli consideró esta explicación como último recurso: una solución para salir del paso con el fin de salvar el principio de conservación de la energía, que tan importante era para la física. Sin embargo, Pauli estaba en lo cierto: la existencia de la partícula en cuestión fue comprobada directamente más tarde, en 1956, por Frederick Reines y Clyde Cowan. Por ello, Reines recibió el premio Nobel de Física en 1995. A pesar de la débil interacción de la partícula, se pudo llegar a la comprobación utilizando una fuente de gran potencia gracias a un reactor nuclear.[19] Esta partícula es el ya mencionado neutrino, cuyo nombre había sido inventado por Enrico Fermi en 1934, y se ha convertido en imprescindible en la astrofísica y la cosmología modernas.

2. Presión negativa
¿Conseguirá la cosmología un éxito tal como hallar una prueba directa e indiscutible de una forma de energía cercana y hasta ahora desconocida? Antes de que esto pueda hacerse realidad, los teóricos tendrán que ponerse manos a la obra y buscar posibles modelos explicativos en el zoo de la física de partículas o en el teatro de los fenómenos gravitatorios, porque, si no se logra algún indicio en estos campos, cualquier búsqueda experimental será como intentar encontrar una aguja en un pajar.

2.1. Energía oscura

La naturaleza acostumbra a esconderse.
HERÁCLITO (el Oscuro), Fragmento

Incluso la teoría, que suele ser tan pródiga en hallazgos, lo tiene muy difícil con el asunto de la energía oscura, ya que las características de esta forma de energía son todo menos normales. Sea lo que sea, la energía oscura debe producir una expansión acelerada, es decir, debe hacer que el resto de la materia del universo, en cualquier espacio y tiempo, se repela a sí misma. Como ya se ha dicho en distintas ocasiones, este comportamiento de la gravitación es totalmente inesperado, ya que las distribuciones de masas y energía se atraen entre sí, lo cual nos conduce directamente a los difíciles problemas de las singularidades.
Sin embargo, la gravitación cuántica puede llevar a contemplar fuerzas de repulsión mutua, pero normalmente solo es decisiva en distancias de una escala diminuta, del orden de la longitud de Planck. En la expansión acelerada vemos la repulsión a unas escalas enormes dentro de la totalidad del universo actual. Aunque se pueda pensar en explicar esto con ayuda de la gravitación cuántica, la empresa es extraordinariamente difícil. Solo sería factible si esos efectos de la gravitación cuántica que se producen en espacios diminutos se sumaran en todo el espacio, acumulándose de tal manera que apareciera el comportamiento observado. Por ahora no disponemos de cálculos concretos para justificar esto, ni de posibilidad alguna de comprobar directamente la existencia de la nueva forma de energía.
Otra posibilidad para lograr una explicación consiste en dudar de algunas de las premisas cosmológicas. Al valorar los datos se acepta de manera tácita que es posible aplicar un modelo del universo espacialmente homogéneo. Tal como indican los mapas de las galaxias, esta hipótesis está totalmente justificada. Sin embargo, la expansión acelerada tuvo lugar por primera vez en un pasado más reciente, después de la fase del universo reflejada en la mayor parte de los mapas de las galaxias. ¿Podría ser que entre una fase y otra la atracción gravitatoria hubiera ocasionado una mayor formación de grumos de materia, de tal modo que la hipótesis de la homogeneidad no sea ya correcta?
Esta propuesta, desarrollada sobre todo por Thomas Buchert, ofrece la ventaja de que no es necesario dudar de la validez de la teoría de la relatividad general. La expansión acelerada solo se haría evidente si se intentara encajar un universo que ya carece en gran medida de homogeneidad en el corsé matemático de una solución homogénea. Por otro lado, se pone en duda una hipótesis, en concreto la homogeneidad, que ha facilitado grandes simplificaciones numéricas. Naturalmente, tales dudas siempre surgen, ya que las predicciones basadas simplemente en la disponibilidad de soluciones matemáticas sencillas nunca son sólidas. Por más que estas soluciones se analicen con todo detalle, el precio será la renuncia a unas características que, aunque sean difíciles de modelar, quizá sean importantes. Solo en un marco teórico más general se podrá juzgar si un modelo es fiable en todos los aspectos; pero las ecuaciones necesarias para esto serán tan complicadas que apenas se conoce el comportamiento de sus soluciones. Tampoco esta propuesta de resolución ha aportado por ahora ninguna explicación convincente sobre la energía oscura.
De todos modos, en la teoría de la relatividad general, a pesar de su carácter predominantemente atractivo, es posible conseguir una expansión acelerada durante un intervalo de tiempo determinado. En la teoría de Newton es exclusivamente la masa de la materia la que ocasiona fuerzas gravitatorias, que, por el carácter positivo de la masa, solo pueden ser de atracción. En cambio, en la teoría de la relatividad general no solo las masas generan fuerzas gravitatorias, sino también la energía que, según la teoría de la relatividad especial, es equivalente a ellas, y la presión asociada a dicha energía.
Como sucede con la mayoría de las diferencias entre la gravitación newtoniana y la einsteiniana, aquí también se trata de la convertibilidad del espacio y el tiempo. Lo que desempeña un papel fundamental en la gravitación es la densidad de energía, es decir, la energía por unidad de volumen. Dado que, según la teoría de la relatividad especial, la masa es equivalente a la energía, esta produce de manera cualitativa la atracción gravitatoria habitual, tal como se conoce en la teoría newtoniana. En sentido relativista, es posible convertir intervalos de longitud en intervalos de tiempo mediante una modificación del estado de movimiento. Del mismo modo que el espacio y el tiempo no pueden considerarse separados el uno del otro, sino que ambos constituyen un único objeto, el espacio-tiempo, tampoco es posible considerar la densidad de energía como un objeto independiente, ya que en su definición se utilizan intervalos de longitud. Por de pronto, la densidad de energía, que en principio aparece como algo estático, adopta la forma de un flujo de energía en cuanto se modifica el estado de movimiento: lo que para un observador es sencillamente energía almacenada en un ámbito concreto, para otro que se mueve con respecto al primero esa energía aparece fluyendo en una dirección determinada en un intervalo de tiempo dado.
Ahora bien, el objeto matemático que describe la energía está configurado de una manera algo diferente a como lo está el objeto que indica direcciones en el espacio-tiempo. Estas direcciones en el espacio-tiempo son lo que se llama vectores, que aúnan en sí mismos las componentes espaciales y la componente temporal de cada dirección. Son en total cuatro componentes, porque el espacio-tiempo es cuatridimensional. La densidad de energía y el flujo de energía, este último con tres componentes para la dirección espacial, son las cuatro magnitudes que completarían un vector. Sin embargo, el objeto matemático que describe la energía no es un vector, sino un tensor, el llamado tensor de energía-impulso. Un tensor de este tipo en un espacio-tiempo de cuatro dimensiones no tiene cuatro componentes, sino dieciséis. Nos lo podemos imaginar como el cuadrado de un vector o como una matriz.
¿Cuáles son las demás componentes del tensor de energía-impulso? Se refieren a la presión y las tensiones en la materia. La presión se define como el incremento negativo de la energía dividido por un incremento del volumen que contiene la cantidad de energía. Esta definición determina de manera precisa el comportamiento plástico de la materia sometida a presión: cuando se desea reducir el volumen es necesario utilizar cierta cantidad de trabajo y aumentar así la energía de la materia contenida en dicho volumen. Por lo tanto, el incremento de volumen es negativo, mientras que el incremento de energía es positivo, y también es positiva la presión definida como el negativo del cociente de estas magnitudes. Cuanto mayor sea la necesaria aportación de energía, mayor es la presión. Sin embargo, si con la misma aportación de energía se puede alcanzar un mayor incremento de volumen, entonces la presión es menor. De esto se deduce que la presión es directamente proporcional al aporte negativo de energía, e inversamente proporcional al incremento de volumen. También aquí desempeñan un papel tanto los valores de la energía como los cambios en las distancias, por lo que es comprensible que la presión vaya unida al flujo y a la densidad de energía en un objeto.
En la física newtoniana la densidad de masa produce la fuerza gravitatoria. En una descripción relativista no se pueden separar la densidad de energía y el flujo de energía, así como tampoco la presión y las tensiones internas y, en consecuencia, lo que produce la fuerza gravitatoria es la totalidad del tensor energía-impulso, tal como aparece realmente en las ecuaciones de Einstein. Por lo tanto, también la presión es relevante para la expansión del universo, y así resulta que la presión de la materia contenida en el mismo interviene en la historia de dicha expansión. Esto tiene una incidencia en la posibilidad de una expansión acelerada: al igual que la masa, la densidad de energía ha de ser positiva y, por lo tanto, excluye la producción directa de fuerzas antagonistas. No obstante, la presión puede tomar valores negativos —esto se conoce corrientemente como depresión o presión negativa—, y con ello llevar a una repulsión gravitatoria, siempre y cuando dicha presión sea lo suficientemente poderosa como para prevalecer sobre la densidad positiva de energía. En consecuencia, esto es exactamente lo que debe constituir una característica fundamental de la energía oscura: una fuerte presión negativa junto con una energía positiva.
Así tenemos al menos una caracterización teórica, pero esta queda todavía lejos de ser una explicación. Porque para producir suficiente presión negativa, y además durante largos intervalos de tiempo cósmicos, hay que hurgar mucho en lo más hondo del cajón de los trucos que nos pueda ofrecer la física teórica. Las propuestas presentadas hasta ahora son, también en este caso, de todo menos convincentes. Remitirse a nuevas formas concretas de la materia parece realmente la más desesperada solución de emergencia, como el recurso de Pauli a los neutrinos. No basta con presuponer simplemente la existencia de una partícula y postular quizá un valor determinado para su masa, sino que se han de establecer además todas sus características con detalle y precisión. Este procedimiento deja tantos aspectos adicionales a expensas del azar que difícilmente puede ser considerado como una explicación.
La presión negativa no es más que una depresión: algo que, como se sabe, puede aparecer sin más en circunstancias especiales. Puede surgir de forma natural, por ejemplo, en los contenedores que transportan árboles, donde se produce cuando se convierten en vapor las gotas de agua que se forman en las puntas de las hojas. Pero ¿cuál es el papel que desempeña la presión negativa en la gravitación? Como ya se ha dicho, la presión se caracteriza por el incremento de energía al variar el volumen, añadiendo como recurso convencional un signo menos con el fin de conseguir un valor positivo en circunstancias habituales y cotidianas. En este caso, la energía se reduce de manera drástica al aumentar el volumen y, por lo tanto, la materia se expande como lo haría, por ejemplo, un gas, que puede así reducir su energía. Para evitar esto, se ha de introducir el gas en un recipiente cuyas paredes sean suficientemente fuertes. Cuando hay una presión negativa (depresión), la materia puede reducir su energía contrayéndose; por consiguiente, se necesita una fuerza de tracción para evitar que esto suceda.
De esta manera se describe el papel que desempeña la presión sin tener en cuenta la gravitación. En el caso de la materia que se encuentra sometida a presión en el universo, se pone de manifiesto también la tracción que ejerce la gravitación clásica, que en los casos de colapso gravitatorio ha dado lugar a las singularidades. En estas circunstancias se produce una enorme variación de la densidad de la materia por el hecho de que la fuerza de la gravedad contrae las masas y hace que crezca aún más la atracción gravitatoria. En la teoría de la relatividad general no se ofrece ninguna salida para escapar de esta situación inestable: pasado cierto tiempo, esta gravitación autodestructiva da lugar a una singularidad, salvo en el caso de que las fuerzas antagonistas de la gravitación cuántica la obliguen a quedarse otra vez dentro de sus límites.
En el caso de la presión gravitatoria aparece un comportamiento inestable similar. Tenemos, por ejemplo en el caso homogéneo de la cosmología, una materia que no está «encerrada» en un recipiente, sino en todo el espacio del universo. Cuando está sometida a una presión positiva, la expansión de esa materia solo podría producirse si se expandiera la totalidad del universo. Pero la presión positiva, al igual que la energía positiva, conduce directamente a la atracción gravitatoria, y así la expansión del universo se ve frenada por dicha presión positiva. Por lo tanto, la tendencia expansiva de la presión positiva sufre un efecto contrario ocasionado por la gravitación. Si la materia sometida a presión se encontrara localizada en una zona del espacio-tiempo que se está hundiendo, como en el caso de una estrella apagada, el colapso se aceleraría aún más y, al final de esta situación inestable, quedaría una singularidad que se conoce como agujero negro.
Cuando hay una presión negativa, la situación es exactamente la contraria, siempre que esta depresión pueda compensar la densidad de energía positiva. En este caso, la materia del universo tendría que contraerse, lo que, con una distribución homogénea de la materia en todo el universo, solo sería posible si este se contrae. Pero la gravitación reacciona fortaleciendo la expansión cósmica, con lo que se llega a una expansión acelerada.
Tal como sugieren las observaciones, la expansión del universo en un pasado reciente se vio realmente acelerada. Si la suposición de homogeneidad está justificada, se ha de partir de una cantidad significativa de materia sometida a presión negativa. La presión negativa es desde luego posible, pero no solo tiene que ser lo suficientemente fuerte como para compensar la densidad de energía positiva de toda la materia afincada en el universo, sino que debe también mantenerse durante un intervalo de tiempo extraordinariamente largo que resulte cosmológicamente relevante. En la actualidad no se conoce ningún fenómeno que pueda llevar a cabo esto de una manera satisfactoria. Este es precisamente el azaroso problema de la energía oscura.

2.2. Inflación
Dado que en el marco de la teoría de la relatividad general la presión negativa puede contrarrestar la naturaleza meramente atractiva de la fuerza de la gravedad, esta presión también podría ser significativa a la hora de tratar las singularidades. Para esto se necesita, pues, una materia con presión negativa que no esté, como la energía oscura, distribuida de manera homogénea en un gran universo, sino una que haya estado presente en el universo primigenio cerca de la singularidad del big bang, o en el centro de estrellas que se están colapsando. La presión negativa existente en el universo primigenio recibe el nombre de inflación,[20] en alusión a la expansión inflacionaria —acelerada— del universo. En ocasiones se ha recurrido a la presión negativa para evitar singularidades en los agujeros negros, pero el éxito obtenido ha sido escaso. También para el universo primigenio se ha constatado que la presión negativa, a pesar de generar una cierta fuerza de repulsión, no puede evitar la singularidad, según demostraron (partiendo de determinadas hipótesis) Arvind Borde, Alan Guth y Alex Vilenkin hace algunos años. La teoría cosmológica de la inflación tiene su origen en el trabajo de uno de estos autores, Alan Guth, cuando en una publicación de 1981 presentó otras ventajas de esta teoría independientes del problema de las singularidades. (Paralelamente hubo trabajos similares de diferentes autores que, sin embargo, no tuvieron tanta repercusión).
La teoría de la inflación nos lleva de nuevo a las observaciones del universo primigenio y, especialmente, a la radiación cósmica de fondo. A partir de esta radiación es posible sacar conclusiones sobre la distribución de la materia en el universo primigenio, que era casi homogéneo, pero no del todo. Es posible, por lo tanto, realizar los cálculos de manera retrospectiva para hallar las estructuras detalladas de la distribución de intensidad en el cielo en tiempos ya pasados, dejando que corran hacia atrás las ecuaciones de Einstein. En ese desarrollo retrospectivo, la distribución es cada vez más homogénea, lo cual no sorprende porque está considerada como el primer indicio de una condensación gravitatoria que ha ido produciéndose a lo largo del tiempo. Cuanto más remotos sean los tiempos en que nos situemos dentro de la fase del big bang, más homogénea es la distribución.
Esta idea resulta atractiva porque indica que nuestro complejo universo podría proceder de unas circunstancias iniciales muy sencillas. La atracción gravitatoria dominante en aquel universo en expansión podría haber producido por sí sola todas las complicadas estructuras que vemos en la actualidad como enormes conjuntos de galaxias, incluidos nuestro sistema solar y nuestro planeta. Un inicio tan sencillo hace pensar que quizá un día, en una explicación definitiva, podremos deducir los fundamentos de nuestro propio universo: por qué es así, cómo es realmente y, en última instancia, por qué existe.
Sin embargo, un estado inicial muy homogéneo en el universo primitivo podría dar lugar a un serio problema respecto a la coherencia de la teoría. Si consideramos el universo con la singularidad del big bang como punto de partida, y dado que la transmisión de señales entre dos puntos solo puede tener una duración máxima finita, entonces, cuando una señal parte de la singularidad (o poco después, ya que en la singularidad misma falla toda la teoría), únicamente puede hacer un determinado recorrido temporal máximo hasta un instante posterior. Según la teoría de la relatividad general es posible calcular la distancia máxima exacta, y esta es tan pequeña que en las situaciones habituales ninguna señal luminosa del universo primigenio puede atravesar todo el espacio. Aquí es precisamente donde radica el problema —el problema del horizonte—, porque ¿cómo pudo llegarse a una distribución homogénea con la misma densidad en todo el espacio si ninguna señal podía asegurar esa homogeneidad?
Aquí entra en escena la inflación, ya que las «circunstancias habituales» mencionadas antes incluyen la presión positiva como condición. Por otra parte, cuando hay una presión negativa que predomina durante un tiempo suficientemente largo, como Guth había reconocido, resulta muy fácil intercambiar señales entre todos los lugares posibles del universo primigenio. Por lo tanto, no existe problema alguno de coherencia en un universo inflacionario, lo cual es una de las ventajas que aporta la teoría de la inflación.
Como se puede deducir de este razonamiento, la existencia de la singularidad del big bang desempeña aquí un papel importante, porque se considera que es en cierto modo el punto de partida del universo. Sin embargo, esto no es lícito, porque la teoría falla completamente en esta singularidad. Para evitar este problema, se elimina la singularidad en una teoría coherente gracias a las fuerzas antagonistas de la gravitación cuántica, con lo que se resuelve automáticamente el problema del horizonte de una manera diferente a la que propuso Guth: si el universo existía ya antes del big bang, las señales tenían todo el tiempo que quisieran para unir unos con otros todos los lugares del universo primitivo y conseguir una distribución que al menos en principio era homogénea.
Por consiguiente, se elimina el clásico problema del horizonte como motivación para la inflación. En cambio, la teoría de la inflación tiene otra ventaja mucho más significativa, que Guth todavía no había detectado. Hasta que se realizaron por fin unos minuciosos trabajos sobre cómo se propaga exactamente la falta de homogeneidad, gracias a la metodología que había desarrollado sobre todo Slava Mukhanov junto con G.V. Chibisov en 1981, antes de que apareciera el concepto de inflación, no se supo que esta conducía a una forma especial de distribución fuertemente homogénea, tal como después se ha puesto de manifiesto mediante observaciones. Aunque no se puede ver directamente la expansión acelerada del universo primigenio, al contrario de lo que sucede con la de épocas posteriores, sí que existen claros, aunque indirectos, indicios experimentales de esa inflación y, por lo tanto, presión negativa, en el universo primigenio.
El valor explicativo de los modelos de inflación va, sin embargo, mucho más allá. No solo pueden mostrar por qué la distribución de la materia es tan homogénea, sino que también proporcionan un mecanismo según el cual en la caliente fase del big bang se habría formado la materia, tal como ahora la conocemos: en un universo que se expande aceleradamente se producen partículas de materia continuamente ¡a partir del vacío total! Igual que en la descripción que hemos visto anteriormente de las funciones de onda como ondulaciones en un lago que se agitan a causa de un terremoto en el fondo, así también las funciones de onda de la materia se agitan por un «seísmo» en el fondo del espacio-tiempo acelerado. El vacío inicial de la materia se va enriqueciendo cada vez más con partículas reales de materia durante la inflación.
En la cosmología esto significa que incluso un vacío casi perfecto existente en el momento del big bang no permanece vacío si la inflación se mantiene durante un período continuado cada vez más largo, sino que se va poblando de materia progresivamente. Si la expansión es lo suficientemente regular, es decir, si se produce con una aceleración constante, entonces la distribución de la materia adquiere automáticamente al final de la inflación una forma casi homogénea y concuerda perfectamente con las mediciones de la radiación cósmica de fondo.
Tal proceso de producción de materia solo es posible si se incluye en él la gravitación, pues, de otro modo, estaría en flagrante contradicción con la conservación de la energía. La energía de estas partículas de nueva creación debe proceder de alguna fuente y no puede surgir sin más de la nada. Aquí vuelve a desempeñar un papel importante la presión negativa: como ya hemos visto, con una presión negativa la materia debe contraerse. En términos de la física esto significa que la materia puede reducir su energía al contraerse, y que lo hace siempre que le es posible. Solo si se encuentra rodeada por unas paredes suficientemente resistentes podrá evitar esta contracción. Sin embargo, en el universo la materia es homogénea, y no hay paredes que la encierren, es decir, realmente nada le impide contraerse. Pero la gravitación no respeta este proceso y, ante la presión negativa, reacciona con una expansión acelerada. La materia no puede, así, reducir su energía; por el contrario, la energía se verá favorecida por la gravitación y aumentará. Todo esto se pone de manifiesto porque se produce una excitación de la materia, es decir, partículas, incluso cuando al principio existía un vacío.
Dicho de forma explícita, esto se produce de la siguiente manera: en esta fase la materia se ha de describir mediante la teoría cuántica, porque solo así se puede entender correctamente su estado de vacío. Como cualquier otro estado, también el de vacío experimenta fluctuaciones en el universo en expansión, es decir, el número de partículas es cero en el centro, pero no estrictamente cero. Este comportamiento es así, del mismo modo que el lugar de la función de onda de un electrón solo en el centro está determinado de manera precisa, pero en realidad fluctúa con la difusión de la función de onda. Esta función es parecida en el caso de la materia, en la que el número de partículas se comporta de forma análoga al lugar en la mecánica cuántica, se propaga y no da un número preciso de partículas. Si el universo no se expandiera, esto no produciría ningún otro efecto; la función de onda sería imprecisa, pero se limitaría a permanecer siempre así. Sin embargo, la expansión del universo hace que, como en el caso de las ecuaciones reales, las fluctuaciones interaccionen con el número de partículas. Con el tiempo esto produce nuevas excitaciones, y el número de partículas será distinto de cero incluso en el centro.
Concretamente, la idea de pares de partículas resulta aquí muy práctica. Puesto que en el vacío, a causa de la fluctuación del número de partículas, la energía también es imprecisa, en poco tiempo puede llegarse a la formación de parejas de materia y antimateria, por ejemplo un electrón y un positrón. Normalmente, este par de partículas vuelve a desintegrarse enseguida por aniquilación mutua; pero esto puede evitarse si separamos ambas partículas con suficiente rapidez. Por supuesto, es imposible tomar las partículas y separarlas directamente, pero si poseen carga eléctrica, de tal modo que la antipartícula tenga siempre una carga de signo opuesto a la de la partícula, entonces se puede conseguir esto aplicando un campo eléctrico muy fuerte. Este tipo de experimento se podría realizar en el laboratorio, pero no explicaría la formación de partículas en el universo primigenio. Allí no existían campos eléctricos potentes que pudieran producir el fenómeno en grandes espacios, pues en el caso de haber existido, a causa de la dirección del campo eléctrico el universo sería mucho más anisótropo.
No obstante, sería posible separar unas partículas de otras distendiendo el suelo situado bajo dichas partículas. Esto es exactamente lo que sucede en un universo que se encuentra en expansión acelerada: el propio espacio-tiempo se distiende con tanta rapidez que los pares de partícula y antipartícula que surgen del vacío no pueden ya aniquilarse mutuamente, sino que permanecen como partículas de larga vida surgidas del vacío. De esta manera ha producido el universo, según la teoría de la inflación, la distribución inicial y casi homogénea de materia, y con ella la totalidad de estructuras visibles en el cosmos. Según esta representación, el contenido total del universo es un resultado aleatorio de las fluctuaciones cuánticas que han sido reforzadas por la gravitación y se han congelado en la materia real existente[21].
Todo lo que se necesita para esto es una fase de expansión acelerada o algún modelo de la materia sometida a presión negativa.
Pero, llegados a este punto, también resulta muy difícil aportar desde la teoría un modelo concreto para esa materia sometida a presión negativa. Una vez más, es preciso adoptar unas precauciones muy especiales para justificar una presión negativa que se mantenga durante un período suficientemente largo de tiempo. En los modelos de inflación más sencillos, y por lo tanto más elegantes, la presión negativa debe imperar durante un período de tiempo suficientemente largo para que el universo se expanda multiplicándose por un factor de veinte cifras; en cualquier otro caso, no dispondríamos de una distribución homogénea de la materia que estuviera en consonancia con las observaciones de la radiación cósmica de fondo.
Se puede confeccionar a medida un modelo de la materia de este tipo, pero esto exige unas interacciones muy especiales, así como conocer las condiciones iniciales de la materia expuesta a presión negativa. El proceso es similar a la forma de conseguir presión negativa en la Tierra, lo cual se puede hacer, por ejemplo, mediante un drástico enfriamiento de una cantidad de materia determinada. Del mismo modo que la materia se expande con el calentamiento en la mayoría de los casos, así también se contrae al enfriarse. Si está encerrada en un recipiente, la reducción de volumen produce una tracción, que es lo que se percibe como depresión o presión negativa. Por una parte, esto requiere la adopción de unas precauciones especiales y, por otra, rara vez se mantiene esa presión negativa durante mucho tiempo, porque el intercambio de calor con el entorno da como resultado que la materia enfriada vuelva a calentarse inmediatamente, con lo que la presión negativa desaparece. En consecuencia, el modo exacto en que el universo puede producir la presión negativa, o si realmente puede producirla, sigue siendo un misterio.

2.3. ¿Observación de la gravitación cuántica?
En cualquier caso, la presión negativa en el universo no es algo que se pueda observar de forma directa; lo que se observa es la expansión acelerada, que puede explicarse por el efecto de esta presión sobre el espacio-tiempo. Ahora bien, la presión negativa es el único concepto clásico con el que la teoría de la relatividad general, a pesar de su carácter extraordinariamente atractivo, en situaciones excepcionales puede producir fuerzas gravitatorias de repulsión. Pero en principio interesa más explicar la aceleración y la propia fuerza de repulsión, y en este caso, como en el del problema de las singularidades, puede ser de ayuda la gravitación cuántica. Si esto diera resultado, se evitarían posiblemente las complicaciones a las que nos enfrentamos al intentar justificar la presión negativa.
Al contrario de lo que sucede con la energía oscura, que ha de ser explicada para un amplio universo en el que no es de esperar que los efectos de la gravitación cuántica desempeñen un papel importante, estos efectos sí pueden tener una gran importancia en el caliente universo primigenio. Porque en este universo impera una fuerza gravitatoria cuántica de repulsión que puede detener el colapso de un universo predecesor y comenzar en el big bang la expansión de la parte del universo que es visible para nosotros. Una fuerza que detiene el colapso puede también impulsar a un universo que ya está en expansión a seguir un crecimiento acelerado. De hecho, las efectivas soluciones de la cosmología cuántica de bucles proporcionan con gran facilidad universos que, partiendo de tamaños reducidos, se expanden de manera acelerada. Para ello no se necesita en absoluto una materia especialmente seleccionada que esté sometida a una presión negativa. En lugar de esto, la aceleración se produce como consecuencia de una nueva teoría de la gravitación que, con elevadas energías y pequeñas expansiones del universo, se aparta de la teoría de la relatividad general. La fuerza de la gravedad no es entonces meramente una fuerza de atracción, sino que posee además un componente de repulsión. De esta manera, incluso la materia que habitualmente conocemos puede ser compatible con una expansión acelerada.
Sin embargo, hasta ahora no se ha aclarado si este grado de aceleración es suficiente. De todos modos, el problema del horizonte no aparece en ausencia de un punto de partida como la singularidad del big bang. Al igual que en los modelos de inflación basados en la presión negativa, aquí también se necesita una expansión para garantizar un factor suficientemente grande y una distribución homogénea de la materia. El modo en que todo esto es posible se conocerá como resultado de las investigaciones que en la actualidad se están desarrollando activamente por parte de algunos grupos en Gran Bretaña, como el de Ed Copeland, que realiza un trabajo fundamental junto con David Mulryne, Nelson Nunes y Maryam Shaeri, al igual que lo hacen, con independencia de los anteriores, Aurelien Barrau y Julien Grain en Francia, Shinji Tsujikawa en Japón y Gianluca Calcagni y otros en Estados Unidos. Independientemente de su punto de partida, está claro que, según la cosmología cuántica de bucles, en el big bang surge una expansión acelerada y, en consecuencia, se presentan asimismo ciertas desviaciones con respecto a la teoría de la relatividad general. Con unas mediciones suficientemente precisas se podrán constatar en breve estas desviaciones a partir de los datos cosmológicos.
Surge así la posibilidad de comprobar la teoría, una posibilidad que viene dada en este caso a través de la gravitación cuántica de bucles. Las correcciones de la gravitación cuántica son en sí mismas muy pequeñas incluso en la proximidad del big bang, y en algunos casos pueden desvanecerse con los largos intervalos de tiempo cósmico. Con esto tenemos casi al alcance de la mano una posibilidad de efectuar observaciones. Si llegan a poder realizarse, constituirán un hito en la investigación teórica moderna, ya que hasta ahora no hay ningún dato experimental para el modelo exacto de la gravitación cuántica. Del mismo modo que en el desarrollo de la mecánica cuántica fue en todo momento importante disponer de datos experimentales, como los espectros atómicos, que servían de hilo conductor, las observaciones también desempeñan un papel insustituible en la gravitación cuántica para perfeccionar el modelo utilizado en la actualidad y lograr una versión que realmente se adecúe a la realidad.
En la gravitación cuántica de bucles, las observaciones, aunque sean solo indirectas, tienen otra ventaja que resulta impresionante. Informan sobre la existencia de una fuerza antagonista que en el big bang produjo no solo una expansión acelerada, sino además el rebote de un universo previo en contracción, para pasar al nuestro en expansión. A partir de observaciones precisas de esa fuerza antagonista y del modo en que esta actuó en la fase del big bang, es posible incluso sacar conclusiones sobre aquel universo anterior. ¡Con ello se consigue por primera vez, aunque de forma indirecta, una visión del universo anterior al big bang!
Para esto no solo hay que mejorar los datos de la radiación cósmica de microondas, para lo cual el satélite Planck dará un gran paso, sino que también es preciso aprovechar otras fuentes de señales independientes. Desde luego, la radiación electromagnética, partiendo de la fase del big bang, no puede entrar con la profundidad suficiente en nuestros aparatos de medición, y habrá que recurrir a las fuentes de neutrinos o de ondas gravitatorias, que son más penetrantes.
Sin embargo, a causa de la dispersión, también estos soportes de datos tienen ciertos límites en el intervalo de tiempo en que podemos utilizarlos para mirar hacia atrás. Con los neutrinos se podría observar un intervalo de tan solo un segundo después del big bang, lo cual supondría remontarse mucho más atrás en el universo en comparación con el medio millón de años después del big bang que nos permite la radiación cósmica de fondo de microondas. Sin embargo, incluso ese parpadeo de un segundo no penetra con la profundidad suficiente, porque un segundo contiene un número increíblemente grande (con cuarenta y dos cifras) de pasos temporales discretos de la gravitación cuántica. Las ondas gravitatorias podrían llegar hasta nosotros desde tiempos aún anteriores, aunque en este caso la gravitación cuántica todavía debe mostrar exactamente hasta dónde puede remontarse. Ahora bien, tampoco con estas ondas será posible una mirada retrospectiva tan larga como queramos hacia el pasado. Con esto se pone una frontera natural a la posibilidad de una mirada directa hacia el universo primigenio, una frontera que viene a sumarse a la pérdida de memoria cósmica que en principio ya existe.
Entonces ¿cómo sería posible conseguir una información indirecta sobre alguna de las características del universo anterior al big bang? Aquí sirve de ayuda la comparación planteada anteriormente entre la singularidad y el desprendimiento de una gota de agua que cae de un grifo. Esta situación es parecida al caso de la singularidad del big bang y su superación en la cosmología cuántica de bucles, si establecemos una correspondencia entre la gota de agua con su superficie continua y la imagen geométrica de tejido elástico que presenta el espacio-tiempo en la teoría de la relatividad general. Desde este punto de vista, el goteo representa una singularidad, pero puede explicarse tranquilamente en el marco de una teoría atómica del agua, de manera similar al modo en que el tiempo discreto de la cosmología cuántica de bucles explica el universo anterior al big bang. (No obstante, en el caso de la gota de agua no aparece ninguna fuerza antagonista que pueda impedir su desprendimiento). Aquí, sin embargo, lo que se desgarra es solo el tejido elástico de la representación clásica, no el mundo atómico real.
Del mismo modo que para nosotros es difícil, si no imposible, mirar hacia atrás hasta el tiempo anterior al big bang, así también para una forma de vida afincada en la gota desprendida —tal vez una bacteria coli— se pierde irremediablemente cierta información sobre el agua que ha quedado en el grifo, lo cual puede compararse grosso modo con la pérdida de memoria cósmica. En el momento del goteo, o antes del mismo, existe un contacto entre el agua de la gota y la del grifo, por lo que es posible que cierta cantidad de información pase a la gota de agua. Por ejemplo, la composición química de este fluido, como el contenido en sales, no cambia durante el proceso de caída de la gota: basándonos en una teoría del goteo que incluya esta idea, y a partir de la composición química que resulte de un sencillo análisis de la gota, podemos deducir la composición del agua que queda dentro del grifo.
Además, existe la posibilidad de una observación indirecta, suponiendo que la bacteria tuviera la inteligencia necesaria para ello: al desprenderse, la gota sufre pequeñas oscilaciones, que pueden observarse en ella misma. Con los datos precisos y una teoría correcta se puede calcular en qué momento se desprende la gota y deducir de dónde viene. Asimismo, en la cosmología se aprovechan las oscilaciones: unas oscilaciones de la materia en el universo primigenio, que son visibles en la distribución de intensidad de las radiaciones de microondas o, quizá en un futuro cercano, también en la distribución de intensidad de las radiaciones de ondas gravitatorias en el cosmos. A partir de esto la cosmología intenta remontarse en las deducciones hasta tiempos muy anteriores.

3. Otras posibilidades para la comprobación
Además de la cosmología del universo en tiempos muy remotos, hay otras circunstancias en las que la teoría puede salir airosa de una confrontación con las observaciones. Por ahora, todavía es discutible si los efectos de la gravitación cuántica son lo suficientemente importantes como para desempeñar un papel significativo; e incluso en el caso de que lo sean, las repercusiones en nuestra imagen del mundo son quizá menos espectaculares. Sin embargo, como en el caso de los indicios que señalan la existencia de la energía oscura, cuando se trata de la sensibilidad de las observaciones que realiza la investigación más puntera, es importante conocer fenómenos mutuamente independientes —la distribución de la radiación de fondo, los mapas galácticos y las supernovas—, tales que todos ellos apunten hacia un nuevo mecanismo físico. Solo entonces es posible tener la seguridad de que un modelo explicativo coherente puede realmente aplicarse a todo el universo. Del mismo modo, las referencias a la gravitación cuántica solo pueden ser convincentes en una sólida combinación de fuentes independientes.

3.1. Síntesis nuclear
En la fase caliente del big bang, después de la expansión acelerada, el poderoso tirón expansivo no solo había producido un universo de gran tamaño, sino también un maremoto de funciones de onda de las partículas elementales surgidas del vacío. Por lo tanto, el universo no estaba vacío, sino que contenía materia y energía. Sin embargo, había demasiada energía disponible para que pudieran existir núcleos atómicos: incluso en el caso de que, por casualidad, algunos protones y neutrones de los que circulaban por allí se hubieran encontrado y unido para formar un núcleo, este habría quedado destrozado por el choque de otra partícula altamente energética. También las partículas eran todas y cada una de ellas unos objetos dotados de una vida extremadamente breve, ya que en la densa materia era fácil que encontraran su castigo en forma de una antipartícula, que en cada encuentro se desintegraba produciendo fotones. Pero las partículas no desaparecían del todo, porque los fotones, en su dispersión, podían producir de nuevo un par formado por una partícula y una antipartícula, y luego enviarlas a un incómodo viaje hacia su siguiente destrucción.
No obstante, esto no continuó indefinidamente, porque el universo se expandió, perdió densidad y se congeló. La energía de los fotones desapareció lentamente, llegando un punto en el que ya no era suficiente para producir pares de partícula y antipartícula. Por el momento no se produjeron más (anti)protones ni (anti)neutrones, mientras continuaba la producción de electrones y de sus antipartículas, los positrones, ya que estos solo tienen media milésima de la masa de los protones, por lo que pueden formarse con mucho menos gasto de energía. Los protones y los neutrones empezaron, así, a desaparecer del universo, dejando tras de sí únicamente su energía.
Uno de los grandes misterios de la cosmología es, como ya se ha mencionado en la nota al pie de la página 190, por qué quedan en la actualidad protones y neutrones, y no han sido totalmente aniquilados por las antipartículas. Podemos estar muy seguros de que toda la materia visible es realmente materia, y no antimateria, pues incluso entre las galaxias existen gases que, al ser aniquilados, habrían emitido una radiación claramente visible en una antigalaxia, fácilmente identificable por su energía. Por lo tanto, la materia y la antimateria no pueden simplemente separarse y al mismo tiempo ser protegidas del Armagedón por las tropas pacificadoras del universo infinito. Hay que pensar en un desequilibrio a favor de la materia que podría haber existido desde el principio o haberse formado a lo largo del tiempo.
Pero también esto plantea dificultades. Un desequilibrio existente desde el principio no se podría demostrar, como mucho sería una hipótesis. Por otra parte, con las teorías físicas conocidas hasta ahora no es fácil ver cómo podría surgir un desequilibrio. (Las posibilidades de que hubiera sucedido esto fueron discutidas por Andréi Sajárov en 1967). El caso es que entre las partículas y sus antipartículas existen simetrías que establecen una fuerte correlación entre las tasas de aparición y las de interacción. Estas simetrías no se han comprobado de manera exacta, pero a partir de experimentos realizados en el acelerador de partículas se ha comprobado que el grado de refracción es muy pequeño. Aún no se ha encontrado ningún mecanismo convincente que permita deducir con claridad la existencia de un gran desequilibrio a favor de la materia.
Tampoco la gravitación cuántica puede ofrecer aquí gran cosa, por lo que, de momento, hemos de aceptar los hechos sin más. En consecuencia, el universo estuvo compuesto por un mar de partículas elementales que en gran medida se dejaban en paz las unas a las otras y, salvo en el caso de los electrones, no fueron importunadas por la antimateria: había electrones y positrones, protones, neutrones y los omnipresentes neutrinos, así como fotones con alta carga energética. A causa de su expansión, el universo se enfrió tanto que, prácticamente desde el final de la fase del big bang, la mayoría de las partículas que se movían libremente perdieron energía y, por consiguiente, los núcleos atómicos ya formados pudieron existir de forma estable. Esta transición se conoce como nucleosíntesis del big bang.
En comparación con la diversidad de elementos químicos que encontramos ahora en la Tierra, la nucleosíntesis no aportó más que una modesta variedad —únicamente un isótopo pesado del hidrógeno, el deuterio, que no solo posee un protón, sino también un neutrón, el helio y unos pocos elementos ligeros como el litio—, pero la proporción exacta de estos elementos, tal como surgieron entonces, es importante para el curso posterior de la historia del universo. La proporción más alta era la del hidrógeno con un 75 por ciento, seguido por el helio, que ocupaba casi todo el 25 por ciento restante. El deuterio aportó a esta composición aproximadamente un núcleo entre cien mil, y el litio solo algunos núcleos entre diez mil millones. Los núcleos de todos los elementos pesados aparecen en una proporción de solo un 1 por ciento. La nucleosíntesis de elementos especialmente pesados continuó mucho más tarde en las estrellas y produjo la totalidad de la materia planetaria; retomaré esta cuestión en el capítulo siguiente. Pero para la auténtica proporción de elementos, tal como podemos medirla, fue decisiva la distribución inicial que se formó por síntesis en el big bang.
Los procesos dominantes en la nucleosíntesis del big bang son tan sensibles que la más mínima oscilación en el comportamiento de las partículas elementales y de la radiación electromagnética puede ocasionar fuertes desviaciones con respecto a lo observado. Aquí se nos presenta otra ocasión de verificar las teorías de la gravitación, ya que las cantidades de partículas vienen determinadas por la disminución de la densidad dentro del universo en expansión, y, a la inversa, la cantidad total de las distintas partículas influye a su vez en el comportamiento expansivo mediante la atracción gravitatoria que genera. A partir de las proporciones en que se encuentran los distintos elementos es posible sacar conclusiones relativas a la fuerza gravitatoria que imperaba en aquella época.
En este ámbito, las fuerzas antagonistas de la gravitación cuántica no son ya efectivas, pero incluso el contingente de fuerzas de atracción puede estar sometido a pequeñas variaciones en virtud de la teoría de la relatividad general. Estas variaciones podrían destruir el balance necesario para que se produzca una síntesis de núcleos; en principio es posible delimitar su magnitud y con ello también la teoría en que se basan. Esto se puede utilizar para realizar un análisis preciso de la estructura atómica del espacio-tiempo, que es responsable de las desviaciones con respecto a las fuerzas clásicas: se trata aquí también de una especie de microscopio indirecto. Sin embargo, los cálculos necesarios son bastante complicados y todavía están en proceso de desarrollo. Según las investigaciones que he llevado a cabo recientemente junto con Rupam Das y Bob Scherrer, se pone de manifiesto la necesidad de proceder a realizar unas observaciones mucho más precisas de la nucleosíntesis, con el fin de utilizarlas de una manera interesante.

3.2. El espacio-tiempo como cristal
También en el universo reciente se observan efectos que pueden desentrañar la estructura del espacio-tiempo como si lo viéramos con un microscopio. Si tiene realmente una estructura atómica discreta, el espacio-tiempo se comporta como un cristal para una luz que se propaga en el universo. En un medio carente de estructura, como es el vacío, las luces de todas las longitudes de onda se propagan de la misma manera, en concreto con la misma velocidad, que es la velocidad de la luz. En un medio con estructura atómica, como un cristal translúcido, los distintos colores están sometidos a reglas de propagación diferentes. En el caso de ondas luminosas de longitudes de onda más cortas, es decir, de frecuencias más elevadas y, por lo tanto, más cercanas al azul que al rojo en el espectro visible, es más difícil hacer que oscilen los perezosos átomos de un cristal. Son precisas estas oscilaciones para que las ondas, avanzando de un átomo a otro, puedan propagarse por todo el cristal. Pero, cuando la longitud de onda se aproxima a la distancia que separa los átomos dentro del cristal, para dicha onda será cada vez más difícil alcanzar los átomos del entorno. Es como si el medio fuera más rígido que para una onda larga, y la velocidad de propagación de la onda se reduce.
Esto se puede aprovechar para explicar la descomposición de la luz en distintos colores. La velocidad modificada influye también en el ángulo de refracción de la onda, por ejemplo, sobre una arista donde el cristal esté en contacto con el aire. Si hay dos de estas aristas que forman entre sí un ángulo, como en un prisma, puede entrar a través de una cara la luz blanca, o sea, una mezcla de todos los colores, y salir por la otra cara descompuesta en dichos colores.
Cuando el espacio-tiempo contiene átomos, es decir, si nos lo imaginamos como un cristal, hay luz de distintas longitudes de onda que recorre distancias con distintas velocidades, incluso en ausencia de materia. En la propagación de la luz por el espacio vacío, pongamos por caso entre una estrella distante y la Tierra, se producen estos efectos de dispersión: las radiaciones de frecuencias diferentes nos llegan con distintos retrasos, aunque hayan partido de la estrella en el mismo momento. También en este caso son muy pequeñas las correcciones que hay que hacer con respecto a la propagación en un espacio carente de estructuras, pero, cuando la estrella se encuentra suficientemente lejos, estos ínfimos efectos pueden ir acumulándose durante el largo viaje de la luz y existe la posibilidad de que acaben produciendo un retraso en el tiempo que sería claramente medible.
Para esto la estrella tiene que estar muy alejada, lo cual hace que sea también más difícil de ver. Además, no se puede utilizar una estrella que brille de manera homogénea, ya que entonces sería imposible establecer qué partes de la radiación han sido emitidas en el mismo momento, por lo que no habría información de ninguna clase sobre un retraso en la llegada de dichas partes de la radiación. Lo que se necesita es ver el surgimiento de la radiación: un estallido de breve duración que sea aún más intenso que los que hemos encontrado en las supernovas. Esta breve duración del momento en que se desencadena, combinada con un alejamiento suficientemente grande, significa que nos encontramos ante estallidos de una intensidad inimaginable. Por fortuna existen estallidos de este tipo,[22] concretamente de rayos gamma, que se producen en fracciones de segundo y, sin embargo, emiten más energía que mil soles durante toda su existencia.
En principio se supuso que estos estallidos eran fenómenos que tenían lugar en nuestra Vía Láctea, porque era difícil imaginar que su potente fuerza luminosa pudiera proceder de un objeto muy lejano. Sin embargo, a medida que se iban descubriendo más fenómenos de este tipo, se ponía de manifiesto su distribución ampliamente isótropa en el cielo, que en ningún modo se adaptaba a la estructura de la Vía Láctea. En consecuencia, solo se puede tratar de objetos que están fuera de nuestra galaxia y actúan muy lejos de ella.
Por otra parte, estos estallidos de rayos gamma son tan energéticos que la mayor parte de su radiación no surge como luz visible, sino en forma de partículas gamma, que son un tipo de radiación radiactiva. Se trata de ondas electromagnéticas de frecuencia extraordinariamente alta y pequeña longitud de onda, lo cual es una ventaja añadida a la hora de investigar la estructura del espacio-tiempo: la longitud de onda está más cerca de la escala esperada para el espacio-tiempo discreto que lo que estaría en el caso de la luz visible, a pesar de que la diferencia con la longitud de Planck sigue siendo enorme. Y así, las correcciones en su propagación a través de la estructura cristalina son más marcadas y más fáciles de medir. (No obstante, la frecuencia no debería ser muy alta a causa de un efecto del campo electromagnético en el marco de la teoría cuántica. La radiación está formada por fotones, es decir, paquetes de energía, que transportan toda la energía de la radiación. En el caso de que cada uno de estos paquetes contenga una alta cantidad de energía, y por consiguiente una frecuencia elevada, la totalidad de la radiación estará distribuida en menos paquetes. En consecuencia, son menos los cuantos que alcanzan un detector, y el resultado de la medición está sometido a mayores fluctuaciones estadísticas, con lo que la exactitud se ve perjudicada).
En junio de 2008 se lanzó el satélite GLAST (Gamma-ray Large Area Space Telescope, llamado oficialmente Fermi Gamma-ray Space Telescope, pero con el mismo acrónimo), que fue desarrollado expresamente para detectar con precisión los estallidos de rayos gamma. Queda por ver si sus resultados serán decisivos para la gravitación cuántica, aunque las posibilidades del satélite apuntan en esta dirección. Su objetivo principal es en principio contribuir a una mejor comprensión de la causa de los estallidos de rayos gamma, mediante los cuales adquirimos conocimientos que nos llegan desde las profundidades del cosmos. No está del todo claro cómo surgen, pero esto desde luego no excluye que podamos utilizar su radiación para otros fines. Una posible explicación, al menos para los estallidos de mayor duración en el tiempo, presenta la sospecha de que la causa está en una estrella que se colapsa para convertirse en un agujero negro. (Una explicación alternativa para estallidos más breves es la fusión de dos estrellas de neutrones, al final de la cual puede quedar un agujero negro). Con independencia de que esta hipótesis sea acertada, los agujeros negros ofrecen un escenario más amplio para la gravitación cuántica.

3.3. Agujeros negros
Los agujeros negros están aquejados del mismo problema de las singularidades que padece el cosmos en su conjunto. En ellos no se colapsa la totalidad del universo, sino solo una parte de la materia reunida en una zona limitada, pero al fin y al cabo también aquí se desmorona la teoría de la relatividad general al surgir una singularidad. Ciertas fuerzas antagonistas de la gravitación cuántica pueden de nuevo impedir el colapso total, y con ello la singularidad. De esto me ocuparé más detalladamente en el capítulo siguiente. Por ahora solo nos interesan las posibilidades de observación de los efectos que se producen en este contexto.
Los agujeros negros son unos objetos sumamente inusuales, por lo que durante mucho tiempo se dudó de que existieran en el universo (y en ocasiones se sigue dudando). Entretanto, no obstante, se ha demostrado su existencia de manera casi irrefutable mediante innumerables observaciones. En los sistemas estelares hay objetos que por su compacidad, es decir, una distribución muy comprimida de su masa en muy poco espacio, no pueden entenderse más que como agujeros negros. Además, ya hemos visto que los estallidos de rayos gamma posiblemente son atribuibles a agujeros negros, pero esta explicación no está del todo confirmada.
La evidencia más contundente proviene del centro de nuestra propia galaxia, en el cual desde hace algún tiempo, a pesar de la intensa luminosidad de las estrellas que lo rodean, pueden realizarse observaciones hasta una distancia suficiente mediante rayos infrarrojos. Así pues, es posible identificar estrellas de manera individualizada y seguir su trayectoria. A partir de estas observaciones se ha llegado a la conclusión de que dichas estrellas giran alrededor del centro de la galaxia de un modo parecido a como lo hacen los planetas alrededor del Sol.[23] En consecuencia, a través de su velocidad y del tamaño de su trayectoria, se conoce la fuerza gravitatoria que actúa sobre ellas, y así también la cantidad de masa que se encuentra en el centro de la galaxia.
Esta masa es enorme, del orden de mil millones de veces la masa del Sol. Por otra parte, no existe algún objeto central que pueda ser identificado como una estrella, porque la masa está concentrada en un dominio demasiado pequeño. En este caso no existe otra explicación posible que no sea la existencia de un poderoso agujero negro que formaría el centro de la galaxia y obligaría a todas las estrellas a ejecutar una elegante danza a su alrededor.
Los agujeros negros suelen ser muy pesados, ya que para producir su poderosa fuerza gravitatoria han de disponer de una cantidad suficiente de materia que se colapsa. Si solo se colapsa una cantidad relativamente pequeña de materia, más o menos del tamaño de nuestro Sol, entonces la mayor parte será expulsada antes de que pueda formarse un agujero negro. Del mismo modo que los efectos de la gravitación cuántica en un universo de grandes dimensiones —como en relación con la energía oscura— tendrán que ser pequeños, así también aparecen debilitados en el entorno de los grandes agujeros negros. Pueden ser decisivos en el centro, cerca de la singularidad, pero esta zona está incomunicada con respecto al espacio exterior y, por lo tanto, es inaccesible para las observaciones. Un agujero negro no tiene superficie, en el sentido en que la tiene un planeta o una estrella, pero está rodeado por una extraña corteza, que se conoce como horizonte. También sobre esto hablaré con mayor exactitud en el capítulo siguiente, pero de momento se ha de señalar que, en el caso de un agujero negro pesado, esta corteza se encuentra muy alejada de su singularidad, por lo que impide el acceso a fuertes efectos de la gravitación cuántica. En cuanto a posibles observaciones, debemos, pues, limitarnos a unos débiles efectos en el entorno de la corteza, o tomar en consideración unos efectos más exóticos, que describiré más adelante.
En el entorno de esta corteza no aparecen en absoluto efectos cuánticos de la gravitación, pero sí los de la materia. Junto a la corteza, la estructura del espacio-tiempo cambia de manera drástica, ya que dicha corteza separa la zona exterior, donde aún se puede evitar caer en el agujero negro si se emplean fuerzas suficientemente poderosas, de la zona interior, donde esto ya no es posible. Una vez que se atraviesa el envoltorio, ya no hay posibilidad de detenerse, y en el mundo clásico es inevitable estrellarse contra la singularidad. En el interior la fuerza gravitatoria del agujero negro aumenta demasiado y no puede ser compensada por ninguna otra fuerza.
A causa de este comportamiento, el espacio-tiempo queda a su vez diferenciado del entorno que nosotros conocemos, y se puede comparar con un terreno sacudido por seísmos, como durante la inflación cósmica. Como en la cosmología de un universo acelerado, la materia surge aquí del vacío: las fluctuaciones cuánticas conducen a un número de partículas distinto de cero, o, dicho de un modo más plástico, las diferencias entre las fuerzas que actúan en el interior y en el exterior de la corteza pueden deshacer las parejas de partícula y antipartícula. Una de las partículas cae entonces en el agujero negro, mientras que la otra consigue escapar y tiene la posibilidad de chocar posteriormente con un detector. Este fenómeno, descubierto en 1973 por Stephen Hawking, se conoce como radiación de Hawking de los agujeros negros.
La velocidad a la que la radiación desaparece del entorno de un agujero negro es realmente muy pequeña cuando se trata de agujeros negros pesados, mucho menor que el débil fondo de la radiación cósmica de microondas. Esto no servirá para descubrir grandes agujeros negros, ya que la radiación de Hawking simplemente se pierde frente al fondo de microondas. Incluso en el caso de agujeros negros ya identificados, la radiación es demasiado escasa para que los efectos cuánticos sean observables. Sin embargo, los agujeros negros de menor tamaño poseen una radiación más intensa: en ellos la corteza se encuentra más cerca de la singularidad central, y las diferencias de fuerzas en el entorno de la corteza son mayores. Cuando la masa es suficientemente pequeña, la radiación es al menos más intensa que la radiación cósmica de fondo, lo cual significa que en ese agujero negro es más la energía que se pierde a través de la radiación de Hawking que la que se gana por absorción de la radiación de fondo.
Cuando la radiación de Hawking alcanza por fin una intensidad superior a la de la radiación de fondo, se produce una pérdida de energía en el agujero negro, y este pierde masa lenta pero inevitablemente. Entonces la corteza retrocede, acercándose aún más al núcleo, y la radiación se refuerza. Este proceso se potencia a sí mismo y, tras un tiempo limitado, el agujero negro, o bien se evapora totalmente, o su corteza se acerca tanto a la zona central que la gravitación cuántica llega a ser importante incluso en el espacio exterior. Esto podrá ofrecer nuevas posibilidades de observación en el caso de que estos objetos hayan existido en el pasado remoto del cosmos y realmente se hayan evaporado. Hasta la fecha nunca se ha aclarado lo que sucede exactamente con estos agujeros negros; las posibilidades oscilan desde una evaporación total hasta la desaparición de la corteza, con lo que el interior desnudo sería visible desde fuera. En este último caso, el fenómeno sería perceptible como una explosión en la que una parte de la materia que antes se había colapsado volvería a aparecer. (Solo puede ser una parte, porque parte de la energía se evaporaría con la radiación de Hawking).
¿Podemos realmente utilizar este proceso en pruebas observacionales de la gravitación cuántica? Por muy fascinante que esto resulte, probablemente no es posible. La radiación cósmica de fondo sigue siendo en la actualidad demasiado intensa, aunque ya se ha enfriado hasta –270 grados centígrados. Por débil que sea esta radiación, la radiación de Hawking de la mayoría de los agujeros negros es todavía mucho más débil. En consecuencia, son necesarios unos agujeros negros muy pequeños para que se produzca la evaporación; esta tiene lugar entonces con tanta rapidez que los agujeros negros estarían ya evaporados hace mucho tiempo. Como se puede ver, no vivimos precisamente en un buen momento del universo, al menos si nos basamos en una observación de la evaporación de Hawking. Avanzando hacia tiempos posteriores de la historia del universo, el fondo de microondas se habría debilitado tanto a causa de la expansión, que incluso los agujeros negros pesados podrían evaporarse, lo cual abre las puertas a unos fenómenos completamente nuevos.

[24] El universo observable ocupaba en aquel momento solo una mil millonésima de su volumen actual, aproximadamente.

Capítulo 7
Agujeros negros

Apenas sus rostros ven la cara del sol cuando de pronto, ¡nada de nada![25]
Poema de Gilgamesh

Contenido:
  1. Caminando hacia un agujero negro
    1.1. Las primeras estrellas<
    1.2. Enanas blancas
    1.3. Estrellas de neutrones
  2. La singularidad central
    2.1. El horizonte
    2.2. Singularidades desnudas y censura cósmica
    2.3. Gravitación análoga
  3. La teoría cuántica de los agujeros negros
    3.1. ¿Evolución cósmica?
    3.2. Radiación de Hawking y pérdida de información
    3.3. Gravitación cuántica de los agujeros negros
La sonda bautizada con el nombre «Kruskal» está a punto de estallar.[26]No deja de avanzar entre la papilla caliente y espesa que a duras penas permite reconocer en ella a una estrella que se está colapsando. No es una sonda tripulada, ya que ninguna persona, ni siquiera una sola célula, sobreviviría a la acción de estas fuerzas. Además, deliberadamente y utilizando tecnología femto, la sonda se ha construido con un tamaño tan diminuto que las fuerzas que tiran violentamente de sus componentes se han minimizado lo más posible. Todos sus nucleones oscilan frenéticamente en todas las direcciones, azotados por la poderosa furia de un espumante espacio-tiempo. Estos instrumentos en miniatura necesitan algo de suerte para resistir en estas condiciones. Ahora no hay posibilidad de retorno, ni de llevar a cabo reparaciones, porque hace mucho que la sonda cruzó el horizonte del agujero negro. Así pues, será arrastrada, acercándose cada vez más al centro, porque ya no puede escapar ni siquiera con el impulso más poderoso.
Cuanto más avanza la cápsula, más poderosas son las fuerzas de marea que actúan sobre ella: el espacio-tiempo está aquí tan curvado que, incluso en las diminutas longitudes de esta pequeña cápsula, hace que sean muy diferentes la fuerza gravitatoria que actúa sobre un lado y la que actúa sobre otro. Irremediablemente, la cápsula se deformará a causa de la violencia natural del agujero negro, lo mismo que sucede en menor medida en los océanos e incluso en las masas terrestres de los continentes que están sometidos al tironeo gravitatorio de la Tierra y la Luna. La resistencia de los materiales solo puede contener esto durante un tiempo limitado, y la cápsula no tardará en desgarrarse. Sus componentes también se fragmentarán una y otra vez, hasta deshacerse finalmente en las partículas más pequeñas.
Sin embargo, antes de que suceda esto, el núcleo principal de la sonda, el conversor de Chiao, realizará todavía un valioso trabajo. Se basa remotamente en una propuesta del físico Raymond Chiao, que postuló la posibilidad de transformación de ondas electromagnéticas en ondas gravitatorias. Según este principio, la sonda transforma una parte de las radiaciones que recibe, con las que comparte su irremediable destino tras precipitarse a través del horizonte, convirtiéndolas en ondas gravitatorias. La frecuencia de las ondas gravitatorias emitidas depende de la deformación del conversor de Chiao, que codifica las fuerzas de marea percibidas convirtiéndolas en una señal de ondas gravitatorias. Además, la sonda fue puesta en órbita mediante el satélite Hawking 3, con lo cual, además de la deformación, aparece una oscilación que cambia rápidamente. La señal surge así con una modulación característica, lo que hace que sea fácil de identificar, por si tuviera que ser captada en un futuro lejano. De este modo, la maltratada sonda envía un mensaje que se adelanta a lo que nos pueda deparar este incierto viaje.

Esta es la manera en que podría desarrollarse en el futuro una misión de exploración dentro de un agujero negro. Sin embargo, ya se imaginará el lector que esto es de lo más improbable, porque ¿quién organizaría y financiaría una misión así? Desde luego, la cápsula acabaría estrellándose, con lo cual su destino no sería muy diferente del de muchas otras misiones con satélite que se llevan a cabo en el sistema solar. Dado que se trata de una misión dirigida hacia el interior de un agujero negro, es imposible transmitir la más mínima señal con información sobre sus mediciones, destinada a nosotros en tanto que observadores situados en el espacio exterior. La única posibilidad de conseguir financiación para una misión de este tipo ¡nos adentra en el marco de la gravitación cuántica! La razón es que esta, con sus fuerzas antagonistas, podría detener el colapso total de un agujero negro y, posiblemente, llegaría a establecer unas condiciones que permitirían a la cápsula, o al menos a sus señales, salir de allí. En la actualidad, ningún físico serio presentaría un proyecto de investigación como este, pero un viaje teórico por el interior de los agujeros negros es posible sin más y ofrece unas posibilidades muy interesantes de llegar a algunos descubrimientos. ¿Por qué es de momento totalmente imposible escapar del agujero, incluso para la luz? ¿Y cómo percibiría la cápsula la zona central del agujero negro? ¿Es el núcleo del agujero negro un punto en el espacio, como un sol diminuto pero con una cantidad extraordinaria de masa, que se muestra como algo amenazadoramente luminoso y a cuya atracción es imposible resistirse?
Como veremos más adelante, en la teoría de la relatividad general la singularidad de un agujero negro es de otro tipo, con unas características sorprendentes e inesperadas. No es posible ver esa singularidad en el interior, solo se puede intuir por el hecho de que las fuerzas de marea aumentan cada vez más en intensidad. Por lo tanto, no es visible, y la razón para ello es sencillamente que todavía no existe. No se forma hasta el momento en que nos precipitamos en su interior. Para explicar de algún modo este fenómeno hemos de remontarnos a la génesis de los agujeros negros y empezar por considerar la imposibilidad de escapar de ellos.

1. Caminando hacia un agujero negro
El colapso gravitatorio produce una compactación cada vez mayor de la materia debida a la atracción gravitatoria de sus componentes, que solo puede contenerse hasta cierto punto mediante la actuación de fuerzas antagonistas. Partiendo de una estrella de tamaño medio que está agotando su combustible inicial —el hidrógeno que se compacta dentro de ella y que procede de la nucleosíntesis del big bang, tal como he explicado en el capítulo anterior—, existen, según su masa, varias etapas de estabilización.

1.1. Las primeras estrellas
La mayoría de las estrellas visibles obtienen mediante la fusión nuclear la energía que emiten en forma de luz u otras radiaciones. Como en la nucleosíntesis del big bang, son en principio los dos elementos más ligeros, el hidrógeno y el helio, los que desempeñan aquí también un papel principal. El hidrógeno contiene en su núcleo un único protón, que en la mayoría de los átomos de hidrógeno forma por sí solo el núcleo, pero en el llamado hidrógeno pesado o deuterio está acompañado por un neutrón. Además, existe también el tritio, que posee dos neutrones, pero, sin embargo, es inestable y tiene un período de semi desintegración de 4.500 días. El neutrón no posee carga eléctrica, por lo que el núcleo posee la misma carga en los tres casos y, para formar un átomo eléctricamente neutro, en cualquiera de los tres elementos quedará completado mediante un único electrón en la corteza. En cambio, el helio tiene dos protones en su núcleo y, cuando es estable, uno o dos neutrones. En este caso, la corteza del átomo eléctricamente neutro posee dos electrones.
Dos átomos de hidrógeno pueden aproximarse el uno al otro, ya que en principio, dada su neutralidad eléctrica, no se repelen. Al contrario, desde el punto de vista energético esta situación de emparejamiento de átomos es ventajosa, porque pueden compartir sus dos electrones de una manera que resulta económica. Así pues, constituyen una molécula de hidrógeno que cuenta con dos núcleos y una corteza común dotada de dos electrones. Sin embargo, debido a sus cargas positivas, los núcleos se mantienen a una cierta distancia de seguridad, que se denomina radio molecular. Este es el hidrógeno que la química menciona con mayor frecuencia. En la Tierra, en presencia de oxígeno procedente de la atmósfera, resulta difícil mantener estable esta molécula en su forma pura, ya que el hidrógeno se combina con el oxígeno para dar agua, con aumento de energía, en la llamada reacción del gas detonante. Sin embargo, en el universo primigenio no se había podido formar todavía el oxígeno a partir de los primeros protones y neutrones del big bang, por lo que está claro que el hidrógeno es en el universo el combustible nuclear de las estrellas.
¿Cómo obtienen entonces las estrellas su energía, si no disponen de oxígeno para la reacción del gas detonante? En principio, tras la nucleosíntesis del big bang y después de un enfriamiento posterior en el universo en expansión, se forman unas nubes de hidrógeno que se dilatan. Al igual que la radiación cósmica de fondo, que nos proporciona información sobre aquellos tiempos, y la materia formada en la nucleosíntesis, en un primer momento estas nubes son también casi homogéneas. Pero, dado que no son del todo homogéneas, se forman unos núcleos de concentración en los que la densidad de masa presenta un ligero exceso en comparación con el entorno. Este exceso de masa hace que, a causa de la atracción gravitatoria, se atraiga más hidrógeno del que se encuentra en el entorno, con lo que aún crece más el exceso de densidad. Como puede verse, la gravitación no solo muestra las tendencias sádicas que culminan en las singularidades, sino también una propensión al capitalismo: las zonas ricas en masa son las que más se enriquecen.
El hidrógeno se vuelve cada vez más denso, de tal modo que, si dependiera de la gravitación, los núcleos contenidos en una molécula de hidrógeno no dejarían de acercarse unos a otros. Sin embargo, por otra parte también se resisten a esta aproximación, porque poseen la misma carga eléctrica y esto hace que se repelan. Así se llega a un equilibrio de fuerzas en el que la repulsión electrostática contrarresta la fuerza gravitatoria. A esta estabilidad se debe la existencia de planetas como la Tierra, que en este caso no se ha logrado por el hidrógeno, sino por los átomos contenidos en el núcleo terrestre. La Tierra y otros planetas son, pues, ampliamente estables porque no son lo suficientemente densos como para que la gravitación pudiera superar la repulsión eléctrica de los núcleos. Además, en su entorno no hay materia, sino únicamente espacio vacío, de tal modo que su masa no puede aumentar por la afluencia de más materia (salvo por alguna pequeña aportación, como podrían ser los meteoritos). En un universo mucho menos expandido las cosas eran totalmente diferentes: en torno a los centros de densidad había hidrógeno suficiente para reforzar cada vez más dichos centros. Su densidad aumentaba sin cesar, hasta tal punto que la gravitación ponía en apuros la repulsión eléctrica, y los núcleos de hidrógeno se acercaban cada vez más unos a otros.
Esto no podía ir bien durante mucho tiempo. Si dos átomos de hidrógeno se acercan demasiado, se produce de nuevo una reacción, ya que dos protones cercanos, pero separados, necesitan más energía que un deuterón, que no es sino una combinación muy estrecha de un protón y un neutrón. (Si se une a esto un electrón, el deuterón forma un átomo de deuterio, que es eléctricamente neutro). Estas dos partículas pueden aproximarse la una a la otra mucho más que dos protones, porque el neutrón, al ser eléctricamente neutro, nunca será repelido. Además, el deuterón, como combinación de un protón y un neutrón, resulta ser estable, porque la fuerza nuclear fuerte atrae y vincula a ambas partículas cuando estas se encuentran suficientemente cerca la una de la otra. Esta fuerza, que es completamente independiente de la fuerza electromagnética o de la gravitación, actúa solo en distancias cortas. (Al menos en comparación con las longitudes convencionales; en comparación con la longitud de Planck, estas distancias siguen siendo enormes).
Por lo tanto, esta fuerza empezará a ser efectiva cuando dos protones se hayan acercado lo suficiente, como sucede en el universo primigenio: ya sea mediante un choque casual de protones que revolotean a gran velocidad en la fase caliente de la nucleosíntesis nada más producirse el big bang, o bien de forma sistemática en las primeras condensaciones ocasionadas por la atracción gravitatoria después del big bang. A continuación, uno de los protones se transformará en un neutrón y un positrón, la antipartícula del electrón, y el otro protón se asociará con el neutrón para formar un deuterón. Además, surge de nuevo un neutrino, partícula que interactúa de una manera extremadamente débil y que escapa a todas estas aventuras. Inmediatamente, el positrón y uno de los electrones de la corteza se aniquilan el uno al otro, y así, a partir de dos ligeros átomos de hidrógeno, con sus dos protones y dos electrones, surge un único átomo de deuterio formado por un protón, un neutrón y el electrón que queda, además de cierta cantidad de energía libre que será la base de la irradiación de las estrellas.
Con esto se puede seguir compactando el hidrógeno, como si se tratara de unos simples protones, ya que un solo núcleo ocupa menos espacio que dos separados. Pero la gravitación es implacable. También los deuterones se aproximarán cada vez más los unos a los otros y a los núcleos de hidrógeno que queden. Finalmente se producen otras reacciones. Por ejemplo, dos deuterones tienen la misma combinación de partículas que un núcleo de helio. Cuando se acercan el uno al otro, pueden unirse para formar un núcleo de helio, también en este caso con una ganancia de energía y mediante la unión que les facilita la fuerza nuclear. Lo mismo que dos protones se unen para dar un deuterón, así también se fusionan dos deuterones para formar un núcleo de helio, un proceso en el cual se han puesto muchas esperanzas tecnológicas por considerarse como una posible fuente de energía en la Tierra. El combustible, o sea, el hidrógeno, sería casi inagotable, y el proceso resultaría muy limpio; como «residuo» aparecería finalmente el helio.
En las estrellas la fusión se realiza con facilidad, porque la gravitación compacta el hidrógeno sin que sea necesario nada más, y la elevada presión acerca los núcleos lo suficiente para que la reacción sea posible. Aquí se libera mucha más energía que en la formación del deuterón: precisamente la energía que irradian la mayoría de las estrellas. En el interior de estas se produce como consecuencia una fuerte elevación de la temperatura, y la materia así calentada está sometida a una presión que puede impedir el colapso gravitatorio. Esta es la razón por la que las estrellas, como nuestro Sol, son estables durante un largo intervalo de tiempo, lo cual es una suerte por lo que respecta a nuestra supervivencia.
Sin embargo, a medida que aumenta la edad de las estrellas se va agotando lentamente la reserva de hidrógeno, incluida la de deuterio. A partir de un momento determinado se producen reacciones nucleares del helio, ya que también aquí el hidrógeno que se condensa cada vez más, o quizá otro núcleo de helio, pueden añadir más protones y neutrones. De esta manera se forman elementos más pesados, como el carbono y el oxígeno que tan necesarios son para la vida sobre la Tierra, y también silicio y hierro, que componen la mayor parte de nuestro planeta. En estos procesos se libera asimismo una energía que contribuye a la irradiación de las estrellas. Los núcleos más estables son los del hierro y el níquel, por lo que al llegar a ellos se detienen la mayoría de las reacciones; a partir de aquí los elementos pesados no se forman ya en las estrellas en cantidades significativas.
Así, la primera generación de estrellas produjo muchos más elementos que los que eran posibles en la nucleosíntesis del big bang. Algunas estrellas, agotadas por tanto aumento de masa, explotaron convirtiéndose en supernovas una vez que se hubo gastado su combustible nuclear, liberando elementos que quedaron repartidos por el universo. Como el hidrógeno había hecho en un principio, estos elementos se reunieron formando nubes y empezaron a desarrollar centros de condensación. De estas condensaciones surgieron en una generación posterior las primeras estrellas de nuestro sistema solar y sus planetas, incluida la Tierra.

1.2. Enanas blancas
Cuando el combustible nuclear se va agotando poco a poco, la estrella ya no puede brillar con tanta intensidad como en el caso de la fusión del helio. Al principio se infla y se convierte en lo que llamamos una gigante roja que todavía estará incandescente durante algún tiempo. También al Sol le espera este destino dentro de 5 000 millones de años, y lamentablemente la Tierra se verá afectada. Pero, cuando todo el combustible se agota definitivamente, surge el viejo dilema: la insaciable gravitación no deja de aumentar la densidad de la estrella, y ahora mucho más que antes de la etapa de la gigante roja. ¿Qué fuerza antagonista puede aumentar su intensidad a la par que crece la fuerza gravitatoria, de tal modo que sea posible convertir la estrella en un objeto estable?
Una estrella más ligera simplemente se enfriaría y menguaría un poco después de agotar su combustible nuclear, tras lo cual la presión de la materia sería suficiente para conseguir una estabilización, como sucede en cualquier planeta. Sin embargo, en el caso de estrellas pesadas esto no es posible, sencillamente porque hay demasiada masa que presiona en el interior de la estrella apagada. Una presión tan alta resulta difícil de reproducir en el laboratorio, por lo que el comportamiento de la materia en estas circunstancias no se ha llegado a estudiar y conocer plenamente. No obstante, en un ámbito determinado y para comprender la evolución posterior del colapso de una estrella es suficiente la física que conocemos.
Inicialmente, la mecánica cuántica acude en nuestra ayuda, como ya lo ha hecho con anterioridad en el caso del problema de la estabilidad del hidrógeno. Nos conduce al descubrimiento de una nueva fuerza, por desgracia nada evidente, que puede enfrentarse a la gravitación. Como ya hemos visto, cuando las densidades son tan altas la repulsión eléctrica no tiene nada que hacer. Pero hay otra razón por la que dos partículas similares, por ejemplo dos protones o dos electrones, no pueden acercarse demasiado la una a la otra. El primero en darse cuenta de esto y formularlo como un principio fue el físico Wolfgang Pauli, al que ya he mencionado con anterioridad: se trata del principio de exclusión de Pauli, que le hizo merecedor del premio Nobel de Física en 1945. La utilización de un principio indica ya que esto, como muchas otras cosas en la mecánica cuántica, es difícil de entender. Sin embargo, es algo totalmente real, como demuestran no solo la existencia de enanas blancas en el universo, sino también muchos experimentos realizados en la Tierra.
En la materia normal, así como en las estrellas habituales, la presión se produce por choques entre átomos o moléculas. La presión es más elevada cuando los átomos o las moléculas impactan vehementemente con la materia que los rodea, lo cual puede deberse, por ejemplo, a que la temperatura haya aumentado. Ahora bien, en las viejas estrellas que ya no tienen combustible nuclear queda excluida la posibilidad de aumentar la presión mediante un calentamiento, y la estrella ha de compactarse por efecto de la gravitación. Los núcleos de los átomos, que en este caso pertenecen a elementos demasiado pesados y no fusionables, se acercan mucho los unos a los otros, con lo que las funciones de onda de sus electrones se superponen. A partir de una cierta distancia intermedia entre núcleos atómicos, los electrones pueden pasar con facilidad de la corteza de un átomo a la de otro átomo vecino; por lo tanto, los electrones no se han de atribuir exclusivamente a un átomo, sino que pueden ir mucho más lejos. En este caso se habla de la formación de un gas de electrones que rellena la materia compactada. Con altas presiones, se consigue que los átomos presionen unos contra otros, pero también sucede esto de manera natural en los metales y es lo que hace que circule la corriente eléctrica.
En un gas de electrones no se producen choques entre estos en el sentido habitual de la expresión. El gas de electrones se resiste a una compresión demasiado fuerte en virtud del principio de exclusión de Pauli, por lo que se puede decir que es la mecánica cuántica la que hace que las partículas se mantengan apartadas unas de otras. En el caso de partículas tales como los electrones, los protones y los neutrones se pone de manifiesto que las funciones de onda de dos tipos similares (por ejemplo las funciones de onda de dos electrones) no pueden ocupar el mismo lugar. Cuando nos hacemos la típica idea de imaginar las partículas como puntos, esto no genera problema alguno, ya que los puntos no ocupan espacio. En cambio, la función de onda, a causa de lo difuso de los cuantos, tiene que extenderse espacialmente y, puesto que dos funciones de onda no pueden ocupar el mismo espacio, el principio de exclusión de Pauli implica que los electrones desde el punto de vista de la mecánica cuántica deben repelerse. Esto sucede cuando las funciones de onda se acercan demasiado, lo cual suele producirse en los casos de distancias extremadamente cortas entre las partículas.
Por consiguiente, esta fuerza, para poder ser efectiva, requiere una situación de colapso muy avanzado de la materia. Y en estas circunstancias el objeto resultante, estabilizado ya mediante la peculiar fuerza mecánico-cuántica, es muy pequeño, precisamente una estrella blanca: un objeto compacto que surge por una fuerte compactación gravitatoria tras el uso de casi la totalidad del combustible nuclear. En este momento en el interior del objeto casi no se producen reacciones nucleares, y ya tampoco es necesaria una elevada temperatura para la estabilización. Las enanas blancas son bastante frecuentes y se encuentran en la Vía Láctea a unas distancias medias de unos 10 años luz, lo cual no es mucho si se compara con el diámetro total de la galaxia, que mide unos 100 000 años luz. Su masa es muy pequeña en comparación con la de las estrellas habituales: las enanas blancas poseen una masa mínima de una milésima de la masa del Sol y alcanzan masas de hasta una vez y media la de este astro. Pero, en general, a causa de la fuerte compresión suelen ser muy pequeñas, con radios cuyos valores se sitúan en cualquier caso por debajo del radio del planeta Júpiter.

1.3. Estrellas de neutrones
¿Es por fin una enana blanca la respuesta estable a la gravitación? Como indica el límite superior de una vez y media la masa del Sol, este no es el caso. Las reacciones nucleares hacen inútiles todos los esfuerzos del principio de exclusión de Pauli cuando la masa de una estrella que se apaga supera esa masa máxima de las enanas blancas, llamada límite de Chandrasekhar, en referencia a Subrahmanyan Chandrasekhar, que recibió por sus trabajos el premio Nobel de Física en 1983. Cuando la masa de la materia comprimida en una estrella es muy grande, los electrones y los protones de los elementos se aproximan mucho unos a otros. (Para partículas diferentes, no es aplicable el principio de exclusión). Cuando están lo suficientemente cerca, se produce una reacción similar a la que tiene lugar en la fusión de dos protones. Aunque en un sentido más bien inverso, también se conoce este proceso a partir de la desintegración beta de núcleos radiactivos, en la que un neutrón se desintegra para convertirse en un protón. Sin embargo, en este caso reaccionan un electrón y un protón para dar un neutrón junto con un neutrino, que a causa de su débil interacción con la materia puede abandonar de inmediato la estrella. Las estrellas de neutrones deben su existencia a esta última rebelión de la materia contra la gravitación.
En condiciones normales, esta reacción contraria de la desintegración beta es en principio posible, pero en apenas un cuarto de hora el neutrón se desintegraría de nuevo dando un protón y un electrón (más un antineutrino), porque es más pesado que las otras dos partículas juntas y, por consiguiente, necesita más energía para quedar estabilizado. En una estrella muy densa el colapso gravitatorio proporciona exactamente la energía que es necesaria para estabilizar el neutrón. Y, por supuesto, no se estabiliza únicamente un neutrón, sino que todos los protones y electrones que hay en el interior de la estrella pueden reaccionar sin más convirtiéndose en neutrones. Una vez más una partícula, el neutrón, ocupa menos espacio que un protón y un electrón juntos; después de la reacción la estrella puede seguir colapsándose y liberando energía.
Esto se produce como una explosión. La zona central de la estrella se colapsa de repente, irradiando una enorme cantidad de energía, acompañada de un relámpago de neutrinos, difícil de detectar, pero muy energético. También unas grandes porciones de la zona exterior de la estrella son lanzadas al espacio exterior, porque el repentino impacto que la materia que se colapsa produce sobre el duro núcleo de neutrones que se está formando genera una onda de choque que se propaga hacia el exterior. Estas explosiones que tienen lugar al final de la vida de una estrella activa son visibles posteriormente como supernovas. Más concretamente, se trata en este caso de supernovas del tipo II (o Ic, si ya no hay más hidrógeno en la corteza). Por lo tanto, hay que distinguirlas de las supernovas Ia, de las que ya he hablado en el capítulo anterior a causa del importante papel que desempeñan en la cosmología moderna y que se basan en otro tipo de explosiones termonucleares de enanas blancas.
Lo que queda en el núcleo es un tipo de materia aún mucho más extraordinario que el que se encuentra en una enana blanca: neutrones puros. No existe aquí ningún tipo de fuerza eléctrica, pues todas las partículas son neutras. La única fuerza estabilizadora es la repulsión mecánico-cuántica de los neutrones, que se basa de nuevo en el principio de Pauli, el cual no hace referencia alguna a las cargas eléctricas presentes. En comparación con una enana blanca, una estrella de neutrones es mucho más densa, porque de dos partículas con carga, un protón y un electrón, surge un único neutrón, que es eléctricamente neutro. En consecuencia, las funciones de onda de todos los neutrones ocupan menos espacio que las anteriores de los electrones y los protones. Pueden comprimirse mucho más, de tal modo que la materia de las estrellas de neutrones es tan densa que un metro cúbico de esta materia pesa más de mil millones de toneladas. Al igual que las enanas blancas, algunas estrellas de neutrones pueden pesar en total hasta dos veces el peso del Sol, pero a causa de su elevada densidad ocupan solo el espacio de una esfera de unos diez kilómetros de radio. En la periferia de una estrella de neutrones, la fuerza gravitatoria es tan intensa que en algunos casos incluso los núcleos de los átomos se deforman por efecto de las fuerzas de marea gravitatorias.
Después de extinguirse las supernovas, las estrellas de neutrones brillan poco, pero a menudo pueden ser detectadas por la atracción que ejerce su masa cuando forman parte de sistemas de dos objetos que giran uno alrededor del otro, siendo la otra estrella un astro normal que emite luz. A causa del movimiento conjunto de ambas en torno a su centro de gravedad, la estrella visible experimenta un tambaleo a partir del cual puede calcularse la masa de la oscura estrella de neutrones. Aparte de esto, las estrellas de neutrones desempeñan un papel importante en los púlsares, con lo que sirven para hacer pruebas experimentales de la teoría de la relatividad general, como ya se ha explicado anteriormente. Por lo tanto, también la existencia de estos objetos está demostrada sin lugar a dudas, así como el hecho de que son estables durante un largo período de tiempo.
¿Podemos decir que con esto la gravitación queda ya situada en el lugar que le corresponde? Pues resulta que no, porque también aquí hay un límite para la fuerza mecánico-cuántica, y esto nos lo recuerda el valor máximo de la masa que tienen las estrellas de neutrones. Cuando una de estas es suficientemente pesada, pongamos el doble que el Sol, no basta con la repulsión que, según el principio de Pauli, existe entre los neutrones. El valor exacto del límite superior es en teoría mucho más impreciso que en el caso de las enanas blancas, ya que la materia de los neutrones no se conoce tan bien como la densa materia de una enana blanca. Pero, afortunadamente, en el marco de la teoría de la relatividad general es posible plantear unas ecuaciones que muestran con claridad cómo todas las fuerzas posibles que actúan sobre la materia se colapsan en el caso de una presión suficientemente alta, es decir, cuando las estrellas son suficientemente pesadas. La generalidad de este enunciado, con independencia de la forma exacta de la materia, pone de relieve una vez más la elegancia de la teoría de la relatividad.
Cuando se rompe esta última cuerda, no hay ya ningún asidero posible. La materia se colapsa entonces irremediablemente a causa de una gravitación sin límites. Ninguna ley física conocida proporciona otras fuerzas antagonistas que pudieran desempeñar aquí algún papel. Se podría esperar que aparecieran leyes físicas, por ahora desconocidas, que fueran aplicables a esta materia tan enormemente compacta y energética, y con ellas nuevos objetos estelares estables. Sin embargo, por el momento nunca se ha encontrado algo así en el universo, y nada que la materia pueda inventarse tiene posibilidad de actuar contra la desenfrenada fuerza gravitatoria de la teoría de la relatividad general. En vez de esto, lo que se ve en el universo real y en las soluciones matemáticas de la teoría de la relatividad general son los agujeros negros: el estadio final del colapso total de la materia.

2. La singularidad central

¡No, nadie puede ver la muerte!
¡No, nadie puede contemplar su rostro!
¡No, nadie puede oír la voz de la muerte!
La muerte, segadora de la humanidad, es cruel.
Poema de Gilgamesh

Los agujeros negros, como soluciones de la teoría de la relatividad general, podrían describir perfectamente muchas de las características de zonas muy compactas que la astrofísica conoce. Es imposible ignorar dichas zonas, ya que en el universo existen objetos extraordinariamente compactos que son mucho más pesados que la masa máxima permitida para las estrellas de neutrones. Por ejemplo, en el centro de nuestra propia galaxia se encuentra una masa compacta llamada Sagittarius A*, cuyo tamaño es el del Sol multiplicado por unos tres millones, aunque desde la Tierra es imposible determinar su dimensión. Solo puede tratarse de un enorme agujero negro.
Si se considera literalmente la totalidad del espacio-tiempo, tal como resulta de las ecuaciones clásicas de la teoría de la relatividad general, toda la materia contenida en un agujero negro se colapsa hasta quedar concentrada en un solo punto. Al igual que en el big bang, nos encontramos aquí con una singularidad en la que la densidad se hace infinitamente grande, por lo que las ecuaciones pierden toda su validez. También para esto es preciso desarrollar una teoría global que nunca deje de ser válida y nos muestre de manera precisa la etapa final del colapso gravitatorio. Una candidata a ser esta teoría es naturalmente una vez más la gravitación cuántica, como se verá más adelante en este capítulo. Pero, incluso antes de llegar al colapso total, los agujeros negros muestran las características de la teoría de la relatividad general, que se diferencian curiosamente de las que tienen las estrellas de neutrones. Por ejemplo, como ya se ha indicado al principio de este capítulo, la singularidad no es un punto del espacio, sino un punto en el tiempo. A continuación me ocuparé de estas características, que son importantes a la hora de comprender los agujeros negros.

2.1. El horizonte
Cuando la materia se ha colapsado totalmente en un agujero negro, y no hay una fuerza antagonista que pueda oponerse a la atracción gravitatoria y mantener las partículas elementales separadas, ¿aparece entonces el agujero negro como un único punto del espacio cuya densidad es infinita? La respuesta es no, y lo es por dos razones: en la etapa final la materia se ha colapsado del todo, pero las singularidades de la convertibilidad del espacio y el tiempo en la teoría de la relatividad general hacen que esto no suceda en un punto del espacio. Se podría describir mejor como un «punto en el tiempo», como se verá más adelante, pero tampoco esto refleja todas las características. Por otra parte, este punto del tiempo no puede percibirse desde el exterior del agujero negro; la singularidad en la que se colapsa la materia está envuelta en un horizonte que se encuentra muy lejos de dicha singularidad. Solo por las características de este horizonte y su entorno cercano es posible reconocer un agujero negro. No es posible obtener ningún conocimiento directo mediante observaciones, pero dentro de unos diez años el satélite-observatorio Constellation-X medirá el espacio-tiempo en el entorno del horizonte de un masivo agujero negro a partir de los rayos X que proceden de él.
Todas estas características estaban ya incluidas en la solución que halló Karl Schwarzschild en 1916 —solo un año después de que aparecieran las primeras publicaciones sobre la teoría de la relatividad general— para objetos estelares con simetría de rotación. Sin embargo, durante mucho tiempo tanto la singularidad como la existencia del horizonte no se conocieron, hasta que en la década de 1960 fueron descifradas gracias a los avances en la comprensión geométrica del espacio-tiempo. El propio Einstein nunca creyó en la realidad de las singularidades a las que tenía que enfrentarse su teoría, y que han de ser investigadas a fondo si se quiere considerar dicha teoría como fundamental. En vez de esto, Einstein pensó, como la mayoría de los físicos de su tiempo, que una singularidad solo surgía matemáticamente por una supuesta simetría rigurosa, pero desaparecería en el caso de soluciones menos simétricas y más realistas. (No obstante, Einstein recalcó en varias ocasiones que él no consideraba la teoría de la relatividad general como algo fundamental, sino que esperaba ampliaciones de la misma basadas en la teoría cuántica).
En un espacio-tiempo dotado de una precisa simetría de rotación, tal como lo describieron las soluciones matemáticas de Schwarzschild, la materia solo puede colapsarse de manera centrada y hasta un punto exacto donde toda ella se concentra y adquiere una densidad infinitamente elevada. También se podría suponer que las desviaciones con respecto a una simetría esférica perfecta de la estrella original, que en los casos reales siempre aparecen, se deben a un colapso en una zona que ha seguido expandiéndose, aunque al final se compactaría fuertemente, pero no sería singular. Sin embargo, no es así. La singularidad que analizaremos a continuación aparece de forma generalizada y, por lo tanto, ha de considerarse como una amenaza real para la teoría.[27]
Algunas de las técnicas geométricas que se utilizan para el análisis de estos espacio-tiempos tan extraños en los que la intensa curvatura no solo distorsiona el propio espacio-tiempo, sino también nuestra visión, tienen una base intuitiva. Se fundamentan en una construcción abstracta introducida por Roger Penrose, que se denomina completitud conforme del espacio-tiempo. En este caso «completitud» significa que ese espacio-tiempo que se expande hasta el infinito puede representarse en un dominio finito y perfectamente abarcable. «Conforme» significa que la representación no deforma demasiado el espacio-tiempo, con lo cual conserva las formas geométricas, especialmente el tamaño de los ángulos. Esto es importante, sobre todo porque los ángulos del espacio-tiempo, como ya hemos visto anteriormente, han de entenderse como magnitudes no solo espaciales, sino también espaciotemporales. Por consiguiente, se conservan las velocidades, concretamente la de la luz. Como velocidad máxima absoluta en la circulación por el espacio-tiempo, la velocidad de la luz tiene un significado especial; y la representación conforme respeta esta importante ley física.
En el caso de la solución dotada de simetría de rotación, tal como la halló Schwarzschild, afortunadamente solo es preciso tener en cuenta dos de las cuatro dimensiones del espacio-tiempo: el radio y el tiempo. La simetría de rotación implica que ciertas características del espacio-tiempo, como las de una esfera perfecta, no dependen del ángulo de orientación descrito en torno al centro de la simetría de rotación. Puede despreciarse el ángulo de orientación en el espacio, es decir, dos dimensiones, sin por ello omitir características esenciales del espacio-tiempo. Así se puede ilustrar el espacio-tiempo mediante diagramas bidimensionales, especialmente en combinación con la completitud conforme del llamado diagrama de Penrose. (En el caso de la solución de Schwarzschild, este diagrama recibe también el nombre de diagrama de Kruskal, en honor de Martin Kruskal, que en 1960 introdujo las coordenadas adecuadas para esta representación).
El fundamento gráfico de un diagrama de Penrose es el siguiente: como sucede a menudo en astrofísica, al realizar una investigación concreta de los agujeros negros nos encontramos con un problema de dispersión.
Un agujero negro no emite luz, e incluso la ya mencionada radiación de Hawking es normalmente demasiado débil para resultar decisiva en las observaciones. En cambio, se reconoce un agujero negro gracias a la luz emitida por otras estrellas, que pasa cerca de él y es desviada hacia nuestros instrumentos de observación. De manera parecida a lo que sucede con la Luna, se puede reconocer y medir un agujero negro por esta radiación dispersada, aunque en este caso hay una mayor dificultad a causa de la gran lejanía y de las características especiales de la dispersión (el agujero negro no tiene una superficie nítida, sino únicamente un horizonte).
En este problema de dispersión se basa también la representación de un agujero negro en un gráfico bidimensional. Para ello, como se ve en la figura 17, dibujamos rayos de luz en un diagrama del espacio-tiempo en el que se introduce el radio y el tiempo. En la teoría de la relatividad se acostumbra a expresar el tiempo hacia arriba, por lo que también aquí elegimos la dirección vertical como coordenada temporal. Entonces el radio puede variar hacia la izquierda o la derecha, según nos movamos hacia el centro (hacia la izquierda) o nos alejemos de este hacia el exterior (hacia la derecha).

17.jpg
Figura 17: Un espacio-tiempo con simetría de rotación puede representarse sobre un plano que está limitado por la positividad del radio, y en el que el tiempo y el radio aparecen como coordenadas. Los rayos de luz se desplazan a lo largo de unas líneas rectas que forman entre sí un ángulo de 45°. Cuando chocan con la frontera, aparece una reflexión en la gráfica, ya que atraviesan el centro de tal manera que su distancia al mismo primero se reduce, luego desaparece y finalmente vuelve a crecer. Izquierda: diagrama espacio-temporal con el borde izquierdo como centro de rotación en el tiempo, que varía en sentido vertical, y la trayectoria, en el espacio y el tiempo, de un rayo de luz que atraviesa el centro. Derecha: diagrama espacial de la misma situación con el centro de rotación en el medio y la trayectoria que describe un rayo de luz al variar el tiempo. El radio, es decir, la distancia de la luz al centro, primero se reduce, luego desaparece en el centro (o sea, en el borde izquierdo del diagrama espaciotemporal) y finalmente crece tras salir del centro.

A diferencia del tiempo, el radio siempre es positivo, por lo que, en primer lugar, hemos de dotar a nuestro diagrama de un borde que es una línea vertical. Cuando el radio toma valor cero sobre esta línea, nos encontramos en el centro de la simetría de rotación, que tiene forma de esfera, con independencia del valor del tiempo.
¿Qué sucede si nos aproximamos a esta línea siguiendo una trayectoria física? No se trata de una frontera del espacio-tiempo al estilo de la singularidad del big bang; en este lugar no sucede nada extraordinario. La línea representa simplemente una posición concreta que se encuentra en el centro de simetría. Cuando nos dirigimos hacia el centro, simplemente lo atravesamos, y lo mismo harían unos rayos de luz, como se ve en la figura 17. El centro no es un objeto físico, por lo que no puede influir en la materia o la luz. Cuando esta penetra en el punto y vuelve a salir de él, lo único que cambia es el radio, es decir, la distancia al punto, que primero disminuye, luego desaparece y finalmente vuelve a crecer. El radio nunca será negativo, pero su dirección de cambio varía de ser decreciente a ser creciente. Así se refleja en el diagrama bidimensional del espacio-tiempo, como si el rayo de luz se «reflejara» al llegar a la línea vertical: llega desde la derecha y regresa hacia la derecha, después de tocar la línea. Sin embargo, no hay allí nada material, como podría ser un espejo. La «reflexión» es simplemente una consecuencia de nuestra representación bidimensional de este fenómeno, que es en realidad cuatridimensional, pero hemos ignorado el ángulo de orientación en el espacio.

18.jpgFigura 18: Diagrama completo del espacio-tiempo en el que se propagan dos rayos de luz. Procedentes del pasado, surgiendo del lado inferior derecho, tan lejos del centro como se quiera, se acercan a la frontera vertical de la izquierda, atraviesan el centro y vuelven a alejarse de este, avanzando hacia el futuro. Esto ilustra un problema de dispersión, en el que la luz brilla procedente de una fuente luminosa, situada a la derecha y abajo con respecto al centro, y luego se mide mediante detectores en la parte superior derecha.

Con esto tenemos ya la primera componente del diagrama de Penrose: una línea vertical que simboliza la evolución temporal del centro, así como de los rayos de luz. Dado que la luz en el espacio vacío siempre tiene la misma velocidad, y que esta, como el ángulo del espacio-tiempo, no se verá modificada por la representación conforme, establecemos en nuestro diagrama una dirección de los rayos de luz a 45°, pudiendo orientarse esta hacia la izquierda o hacia la derecha, según pase la luz de radios grandes a radios pequeños, o viceversa. Podemos imaginarnos que estos rayos vienen del infinito y, tras atravesar el centro, regresan al infinito. Por lo tanto, no necesitamos trazar una línea límite por el lado derecho. Sin embargo, existe una limitación a una región finita a causa de la mencionada «completitud» del espacio-tiempo, por lo que a menudo se representa un espacio-tiempo vacío como un triángulo isósceles, con la línea vertical del centro como un lado, y los ya desaparecidos lugares de origen de los rayos de luz entrantes y los lugares de destino de los salientes como los otros dos lados, tal como se ve en la figura 18.
Así resulta un diagrama bidimensional completo de un espacio-tiempo en el que solo se propagan rayos de luz. (Por haber ignorado el ángulo de orientación en el espacio, en este diagrama únicamente podemos representar rayos de luz con una trayectoria que pasa por el centro. Esto es suficiente para comprender el espacio-tiempo en cuanto a sus características de dispersión). Salvo por los rayos de luz, un espacio vacío no es desde luego nada espectacular: pero es posible completar el diagrama con otros elementos que representen objetos astrofísicos dotados de simetría de rotación. Entonces las líneas que forman un ángulo de 45° nos muestran el problema de dispersión que plantea este objeto, tal como lo utiliza la astronomía en sus observaciones.
Quizá sorprenda un poco que un objeto compacto situado en el centro, por ejemplo la Luna, no se presente de una forma muy distinta a como lo hace el espacio vacío. Si el objeto adopta un radio determinado, tendremos que representar la trayectoria temporal de la superficie de la Luna un poco más a la derecha de la frontera situada a la izquierda, como se ve en la figura 19. El radio de la Luna es constante, por lo que la superficie debe mantener una distancia fija del centro a la frontera de la izquierda. Pero esta representación conforme no respeta las distancias y, en consecuencia, la superficie ha de representarse en general en un diagrama conforme mediante una línea curva. Así se evitará que la superficie corte a los dos lados perpendiculares, que solo están ahí para que partan de ellos los rayos de luz, las únicas líneas que han de llegar hasta dichos lados.

19.jpg
Figura 19: Diagrama del espacio-tiempo de la Luna con tres rayos de luz, el primero de los cuales es absorbido, mientras que los otros dos son reflejados. A la derecha está representado todo el espacio-tiempo en su completitud. Los bordes situados a la derecha corresponden a los radios infinitos en el pasado o en el futuro, como origen o como meta de los rayos de luz que llegan de una remota lejanía.

Algo decisivo sucede cuando observamos un agujero negro. Representar esto de una manera clara es el auténtico punto fuerte del diagrama de Penrose. Se podría esperar que, en lugar de la línea vertical del centro, figurase una frontera real del espacio-tiempo, concretamente la singularidad central. Esta sería una posibilidad que también ha tomado cuerpo para algunas soluciones de la teoría de la relatividad general. Sin embargo, estas soluciones no desempeñan papel alguno en la astrofísica, ya que un agujero negro, tal como surge al colapsarse una estrella, produce otro tipo de diagrama. Como muestra un análisis matemático, la singularidad sigue la línea del centro, pero no en dirección vertical, sino en horizontal, tal como muestra la figura 20. Por lo tanto, no es temporal —ningún punto fijo en el que cambie el tiempo—, sino espacial, es decir, una parte del espacio para un valor temporal fijo. En definitiva, la posición vertical que expresa el tiempo no varía a lo largo de la singularidad. Por esta razón, lo que se esperaba inicialmente, o sea, que la singularidad se refiriera a un punto en el espacio, no es correcto. Porque un punto así en el espacio, que se pudiera considerar para cualquier valor del tiempo, estaría situado en una vertical dentro de nuestro diagrama, como la línea del centro. En cambio, al estar en una horizontal, incluye varios puntos del espacio, pero para un tiempo determinado: en un punto fijo del tiempo.

20.jpgFigura 20: Diagrama del espacio-tiempo de un agujero negro con una línea de guiones y puntos que expresa la singularidad como una frontera añadida. No todos los rayos de luz pueden en este caso escapar a una distancia segura, es decir, a la frontera situada arriba a la derecha. Hay un rayo de luz (en el dibujo, el procedente de la parte inferior derecha) que todavía puede escapar, y marca así el horizonte en la parte suya que sale del centro. Los rayos de luz que se inician dentro del horizonte (en este diagrama, el situado por encima de la línea del horizonte) alcanzan la singularidad en cualquier dirección, incluso cuando se alejan del centro de rotación. Los rayos de luz que parten del exterior y se alejan del centro escapan hacia una lejanía segura.

Cuando se produce un colapso habitual en un punto, se espera que se haya expandido en una imagen del espacio-tiempo, precisamente porque el punto se desplaza con el tiempo. La singularidad como estado final del colapso es en realidad una línea expansionada en el diagrama de Penrose, pero, dado que este fenómeno está estrechamente vinculado con una transformación espacio-tiempo en el interior del agujero negro, la expansibilidad se pone de manifiesto en el espacio, y sin embargo la forma puntual se muestra en el tiempo, y no al revés.
En la teoría de la relatividad general la nueva línea horizontal representa realmente una frontera: la curvatura del espacio-tiempo se hará ahí infinitamente grande, y también la densidad de la materia incidente que ha llegado en principio a generar el agujero negro. En esta línea se encuentra el punto (temporal) en el que la materia se colapsa por completo. Las ecuaciones de la teoría de la relatividad general pueden decirnos algo más sobre la forma de la singularidad (por ejemplo, que en este caso se trata de un punto en el tiempo), pero no van más allá. No es posible utilizarlas para investigar la posibilidad del espacio-tiempo por encima de la línea horizontal, ya que sus ecuaciones pierden todo su sentido matemático a causa de los valores infinitos. Sobre la materia que se colapsa o la que consecutivamente incide, incluidos los infelices o abnegados observadores, lo único que puede decirse es que esta frontera se alcanza después de un cierto tiempo finito y luego, según la teoría, deja de existir. Si esta frontera de la existencia teórica representa también una frontera real del universo, se trata de otra cuestión, que solo puede responderse mediante una teoría global, quizá con la gravitación cuántica.
A causa de la naturaleza de «punto en el tiempo» que tiene la singularidad, esta no es visible como un punto llamativo para un observador que se desplace hacia ella, porque para esto sería necesario que saliera del punto una luz que llegara hasta dicho observador. En el diagrama cualquier luz se movería desde la singularidad hacia arriba, es decir, en la región en que la teoría de la relatividad general ya no nos ofrece ningún espacio-tiempo para que esa luz se propague. La singularidad tiene una apariencia totalmente diferente de la de cualquier otro objeto astrofísico, y no solo por su densidad extraordinariamente elevada. En cambio, el carácter espacial de esta singularidad significaría que se forma justo en el momento en que el observador se precipita dentro de ella.
Esto puede parecer una emboscada, pero lo cierto es que la singularidad se hace notar con anterioridad, porque en su entorno, entendido en el sentido temporal, o sea, antes de formarse dicha singularidad, la curvatura del espacio-tiempo es extremadamente grande, aunque es en la propia singularidad donde se hace infinita. Según lo que se ha explicado en el capítulo dedicado a la teoría de la relatividad general, una fuerte curvatura significa que las intensidades y direcciones de la fuerza de la gravedad son muy diferentes en un punto y en otro, aunque el segundo esté situado muy cerca del primero. Todo objeto expandido, como una sonda espacial, está sometido a las fuerzas expansivas, ya que en distintos lugares del objeto actúan fuerzas diferentes que distienden la corteza en distintas direcciones. Estas fuerzas se denominan fuerzas de marea, por analogía con el conocido, aunque mucho más débil, efecto que se observa sobre la Tierra cuando la curvatura del espacio-tiempo, producida por el campo gravitatorio terrestre y por el de la Luna, ocasiona las mareas. En esto se reconocería la singularidad, mucho antes de caer en ella; y los objetos pronto se verían desgarrados por estas fuerzas.
Este es el aspecto de la singularidad para un observador que ya ha caído en el agujero negro y no puede huir de la singularidad. Pero ¿cómo se hace visible el agujero negro que está lejos en el espacio exterior? Lo decisivo aquí es que el espacio-tiempo contenido en un agujero negro está dividido en dos regiones diferentes. Por una parte, está la región triangular situada bajo la línea horizontal de la singularidad en la figura 20, una región de la cual nada puede escapar, y, por otra, el resto del espacio-tiempo, en el que nos encontraríamos nosotros como observadores externos. Dado que la luz nunca puede escapar del interior —en definitiva, solo puede moverse a lo largo de esas líneas que tienen una pendiente de 45° y que desde el interior van a dar contra la singularidad—, es preciso considerar la zona de separación como el borde del agujero negro: he aquí el legendario horizonte.
El horizonte posee varias características muy importantes. Por una parte, salvo el caso de su punto final en un futuro lejano, se encuentra lejos de la singularidad; incluso muy lejos cuando se trata de agujeros negros pesados. Si toda la masa del Sol se hundiera en un agujero negro, la distancia del horizonte a la singularidad, el llamado radio de Schwarzschild, sería una millonésima del radio solar actual, que mide casi 700 000 kilómetros. En las estrellas más habituales la proporción entre su radio y el radio de Schwarzschild es parecida. En el caso de las enanas blancas, el radio de Schwarzschild es aproximadamente una diezmilésima de su radio, por lo tanto aquí la proporción es en comparación más alta que en el caso del Sol, lo cual indica una mayor densidad.
Las estrellas de neutrones, que son extremadamente densas, tienen radios poco mayores que el radio de Schwarzschild, determinado por su masa. Por consiguiente, se encuentran ya a punto de colapsarse para convertirse en un agujero negro, ya que, si fueran tan solo un poco más densas, su superficie quedaría dentro del horizonte y luego se desgarraría en la singularidad. Cuando se trata de agujeros negros aún más pesados, el radio aumenta en proporción a la masa. El radio de Schwarzschild del agujero negro que se encuentra en el centro de la Vía Láctea, que como ya se ha dicho tiene la masa de varios millones de soles, viene a ser parecido al radio de nuestro Sol. En estos casos el horizonte está tan alejado de las zonas de curvatura situadas junto a la singularidad, que incluso la curvatura del espacio-tiempo junto al horizonte es muy escasa. Aquí la gravitación cuántica en general no es necesaria para comprender las características, pero sí lo es la teoría cuántica de la materia como en el efecto Hawking.
La escasa curvatura significa también que, al atravesar el horizonte, en principio no notaríamos nada, justificándose así su denominación. Del mismo modo que el horizonte sobre la esfera terrestre parece una frontera infranqueable, pero al acercarnos y cruzarlo lo percibimos como algo inmaterial, así también el cruce del horizonte de un agujero negro no va acompañado en principio de ningún fenómeno amenazante. En el entorno cercano de un observador que se precipita por un agujero negro, el espacio-tiempo no aparece diferente de como lo hace en el espacio exterior. Pero el horizonte, observado desde fuera, es perfectamente reconocible, ya que las señales enviadas por el observador que está cayendo en él necesitan cada vez más tiempo para llegar hasta un colega suyo que se encuentre en una posición fija en el exterior. En definitiva, lo que sucede es que en una zona donde la gravitación es más fuerte el tiempo transcurre más lentamente que en otra zona donde la fuerza de la gravedad es más débil; el tiempo del observador que se acerca al horizonte transcurre siempre con mayor lentitud en comparación con el de otro observador que se ha quedado en una posición fija. Si el observador que se precipita hacia el horizonte envía señales con regularidad, el que permanece fuera puede constatar el avance del primero y también saber cuándo está a punto de pasar el horizonte.
Esto no solo es importante de cara a un experimento utópico en un agujero negro, sino también para las observaciones astronómicas. La luz no es otra cosa que una de esas señales enviadas con regularidad. Cuando unas estrellas, o un gas caliente e incandescente, se encuentran en las proximidades de un horizonte, como sucede en el centro de la Vía Láctea, un cambio de color puede hacer que detectemos un retardo en la periodicidad: este retardo conduce a una reducción de la frecuencia, lo cual significa un desplazamiento al rojo. (La luz roja está situada en el extremo de las frecuencias bajas del espectro visible). De hecho, se trata de aprovechar estos efectos para medir entornos del horizonte de los agujeros negros.
Se ha tardado en llegar a comprender el horizonte y su importancia, pues esto no tuvo lugar hasta mucho después de que Schwarzschild hubiera hallado su solución matemática. La dificultad reside en el hecho de que en el propio horizonte aparecen valores infinitos, aunque en este caso no son una catástrofe para el espacio-tiempo. Lo infinito aquí es el desplazamiento al rojo, tal como lo mide un observador desde una posición fija en el exterior: la señal entrante, cuando alcanza el horizonte y poco antes de desaparecer, se desplaza infinitamente al rojo. Observada desde el exterior, una señal así no muestra ningún tipo de cambio temporal. Mientras en el exterior, muy lejos del agujero negro y con una gravitación débil, el tiempo transcurre de manera normal, los fenómenos que se producen cerca del horizonte aparecen retardados. Esto es así también para la luz, que en su mayor parte desaparece de la zona visible del espectro electromagnético y, por lo tanto, en cierto modo se apaga.
Todo esto se traduce en dificultades cuando se desea expresar la totalidad del espacio-tiempo mediante coordenadas, de un modo similar a como se utilizan en la Tierra los grados de latitud y longitud para fijar posiciones de manera estándar. En el caso de espacios curvados, no siempre es fácil elegir unas coordenadas definidas de forma global y, si se actúa con rigor, surgen problemas incluso en una superficie esférica como la de la Tierra. De hecho, en los polos la longitud geográfica no tiene sentido, porque allí todos los meridianos se unen y pasan por el mismo punto. Entonces ¿qué grados de longitud hay que asignar a los polos? Estos puntos en los que algunas de las coordenadas elegidas pierden todo su sentido se denominan singularidades de coordenadas. Aparecen como singulares en el sentido matemático y, si no se toman las precauciones necesarias, pueden hacer que en los cálculos se obtengan resultados infinitos. Sin embargo, en el aspecto físico no sucede nada extraordinario cuando se llega a un punto de este tipo. Por lo tanto, aunque se trata de singularidades de coordenadas, no son singularidades incalificables en sentido estricto.
Además, el polo norte se menciona a menudo comparándolo con una singularidad física, lo cual conduce a errores. Se dice entonces que es tan absurdo hablar sobre un «antes del big bang» (o en nuestro contexto, «tras el agujero negro»), como decir «sobre el polo norte», cuando se está en una posición fija sobre la superficie terrestre. Esto conduce a un error, porque el polo norte es simplemente una singularidad de coordenadas, mientras que la singularidad del big bang y la de un agujero negro son realidades físicas: en estas crece la curvatura de manera ilimitada, y con ella las cualidades perceptibles, como la temperatura o las fuerzas de marea. En el big bang o en el agujero negro se queda uno realmente destrozado, pero en el polo norte, como mucho, nos helamos.[28] (Y esto porque se ha situado el polo norte arbitrariamente en el Ártico, es decir, que, para definir la longitud y la latitud geográficas, se ha tenido en cuenta el eje de rotación de la Tierra).
Un ejemplo más sencillo de singularidad de coordenadas es el que encontramos en la circunferencia. Aquí basta como coordenada un único ángulo, pero siempre hay un punto en el que el ángulo debe retroceder, dando un salto de 360° a 0°. Esto se debe a que la circunferencia es cíclica, pero nosotros, para nuestras coordenadas, tenemos que utilizar valores que no son periódicos. Esta es la razón por la que se produce el abrupto salto de la coordenada, lo cual constituye una singularidad de coordenadas, pero no sucede nada más. Una hormiga que camine sobre una circunferencia, al terminar cada vuelta no tiene más que seguir andando, totalmente indiferente con respecto al salto del ángulo. Lo mismo sucede con el calendario: la circunferencia es en este caso el movimiento de la Tierra alrededor del Sol, y las coordenadas (meses, días, horas…) constituyen una elección mucho más complicada que un solo ángulo, que en realidad sería aquí también suficiente. En este ejemplo se produce asimismo un salto, concretamente de las 24 h del 31 de diciembre a las 0 h del 1 de enero. El Año Nuevo no es otra cosa que una singularidad de coordenadas, un fenómeno tan insignificante que, desde un punto de vista matemático (y no solo desde esta perspectiva), no está justificado que para celebrar la ocasión se gasten enormes sumas de dinero.
Otra característica importante del horizonte puede deducirse de algunas de las observaciones que he formulado anteriormente, a saber, el hecho de que el horizonte no tiene en realidad borde alguno, es decir, ninguna superficie espacial que pudiera rodear un objeto voluminoso. En definitiva, el horizonte queda definido en el diagrama de Penrose, en la figura 20, mediante una línea cuya pendiente es de 45°, y que corresponde precisamente a un rayo de luz. En esta línea trazada en el espacio-tiempo no puede situarse un objeto de gran masa, ni siquiera el borde de dicho objeto. Según esto, no es posible desplazarse hasta quedar sobre esta línea o, por así decirlo, aterrizar sobre el borde, para luego volver de nuevo al espacio exterior. Cuando estamos por fin en el horizonte, ya no hay escapatoria: como objeto material que somos, nos precipitamos al espacio interior, y con ello a la singularidad. Incluso la luz, aunque puede, en el mejor de los casos, quedarse en este borde para siempre y así evitar la caída en la singularidad, nunca más podrá volver al espacio exterior, al menos no según los postulados clásicos de la teoría de la relatividad general.

2.2. Singularidades desnudas y censura cósmica
Como puede verse en la figura 20, la singularidad de un agujero negro surgido tras el colapso de una estrella es un punto en el tiempo, y no en el espacio, por lo tanto es una línea horizontal, y no vertical, en el diagrama de Penrose. Junto a esto hay también soluciones de la teoría de la relatividad general que poseen simetría de rotación, pero entre ellas la frontera izquierda del diagrama, o al menos una parte de ella, es singular. Puede suceder entonces que esa parte de la línea vertical no esté recubierta por un horizonte, y a veces este no existe en absoluto, a pesar de la singularidad. Un ejemplo de esto se representa en la figura 21. Esta posibilidad de que aparezcan las llamadas singularidades desnudas ha irritado tanto a algunos investigadores de la relatividad, que estos han introducido el concepto de censura cósmica con la esperanza de preservar en cierto modo el pundonor de la teoría de la relatividad general. Se trata de la sospecha de que estas singularidades no recubiertas podrían surgir en los colapsos gravitatorios solo en unas circunstancias tan especiales que realmente no tendrían ninguna importancia en el contexto del universo.
Esta sospecha tiene, por supuesto, una base seria: si existe una singularidad no recubierta, la luz y muchas más cosas podrían llegar desde allí hasta nosotros. Dado que la teoría de la relatividad general falla en la singularidad y, por lo tanto, no nos dice nada sobre ella, en estas circunstancias puede suceder en la singularidad literalmente cualquier cosa. Pero si lo que parte de allí, sea lo que sea, puede influir en el resto del espacio-tiempo, entonces la ciencia pierde todo su poder de predicción.

21.jpgFigura 21: Espacio-tiempo con una singularidad desnuda. Mientras la parte continua de la línea vertical corresponde, como antes, sencillamente a un centro, en la parte punteada domina una densidad infinitamente grande de la materia, que, desde el punto de vista de la teoría de la relatividad general solo puede calificarse como borde anárquicamente singular del espacio-tiempo. De cada punto puede salir un rayo de luz hacia el exterior, hacia la frontera situada arriba a la derecha; no hay un horizonte que recubra la singularidad. En ella se desploman las leyes físicas, no existiendo allí control alguno sobre lo que sucede. Sin embargo, desde allí pueden llegar al mundo exterior mensajes y repercusiones de la anarquía, lo cual hace imposible cualquier predicción.

Ciertamente, la singularidad del big bang es algo parecido, pero en este caso estamos tan acostumbrados a la idea de un «comienzo» del universo en el que se ha creado la base para nuestra existencia, que aceptamos la posibilidad de que este tipo de singularidad haya influido en el universo. Verdaderamente se necesita contar con una fuerte influencia para hacer una interpretación del comienzo, porque si antes no existía algo, pero luego sí, la singularidad tuvo que ejercer en algún momento una influencia extraordinariamente poderosa. Aunque la teoría de la relatividad no pueda explicar este tránsito de la nada a algo, si se decide aceptarlo, al menos la evolución posterior es susceptible de estudiarse mediante los cálculos correspondientes. Puede que el big bang permanezca indefinido desde el punto de vista de la teoría de la relatividad general, pero existió en algún momento del pasado y, por lo tanto, sucedió. Sin embargo, la singularidad desnuda sigue existiendo, quizá para siempre. Por lo tanto, en cualquier instante nos puede llegar de ella algo imprevisible, alguna ruptura de las reglas del determinismo que nos resulte aún más inaceptable. Esto se muestra también en el diagrama de Penrose: la singularidad del big bang que se representa en la imagen del espacio-tiempo de la figura 22 aparece configurada de una manera distinta a como lo está una singularidad desnuda, que posiblemente se forma en un colapso gravitatorio (siempre que no esté censurada). La singularidad del big bang, al igual que la singularidad habitual de un agujero negro, es un punto en el tiempo: una línea horizontal en el diagrama de Penrose. Sin embargo, una singularidad desnuda es vertical.
La sospecha de una censura cósmica tiene también su importancia desde un punto de vista matemático. Como ya se ha dicho, existen soluciones exhibicionistas que se conocen de manera explícita y muestran su singularidad al desnudo. Sin embargo son extremadamente tímidas: en todos los casos conocidos se ha demostrado que con la más mínima perturbación, es decir, una ligerísima modificación de las circunstancias iniciales del colapso, se forma un horizonte que lo recubre todo: una censura verdaderamente efectiva.
Sin embargo, aún no se ha probado que exista este comportamiento de la censura, aunque fue sugerido por Roger Penrose hace ya cuatro décadas, concretamente en 1969, y desde entonces muchos matemáticos y físicos han intentado demostrarlo. La consecuencia de esto es que ha impulsado importantes desarrollos matemáticos y hasta ahora no ha dejado de constituir uno de los grandes problemas de la teoría de la relatividad general.

22.jpgFigura 22: Diagrama de Penrose para un universo que se inicia en el borde inferior con la singularidad del big bang. Aunque esta singularidad tampoco está cubierta por un horizonte, aparece configurada de una manera totalmente diferente de como lo está la singularidad desnuda de la figura 21: ocupa una línea horizontal, en vez de una vertical. Hacia arriba el diagrama no está completamente dibujado, ya que hay diversas posibilidades para el futuro: como ya se ha explicado en el capítulo dedicado a la teoría de la relatividad general, dependiendo de la forma exacta de la materia el universo puede colapsarse de nuevo con una singularidad, que cerraría el diagrama por la parte superior, o lo expandiría indefinidamente.

Si pensamos que lo que aquí se dilucida es un conocimiento fundamental para la predicción de todo lo que sucede en un espacio-tiempo, se hace patente de una forma impresionante el significado de amplio alcance que tienen la teoría de la relatividad general y la investigación actual centrada en las cuestiones que dicha teoría aún tiene abiertas.

2.3 Gravitación análoga
A causa de la censura cósmica, la única posibilidad que nos queda es analizar el horizonte de un agujero negro. Dado que la investigación directa mediante sondas queda totalmente fuera de nuestro alcance, en la medida de lo posible hay que investigar las consecuencias generales de los horizontes en el laboratorio. Aunque aquí el comportamiento del espacio-tiempo no sea la causa, la propia materia puede producir fenómenos parecidos en ciertos materiales. Esto lo expuso por primera vez en 1981 el físico canadiense William Unruh, que se complacía en comparar un agujero negro con una potente catarata de agua: cuando el agua se precipita por un desnivel con la rapidez suficiente, es decir, a una velocidad mayor que la de propagación de las ondas o del sonido en el agua, entonces el observador que caiga arrastrado por la catarata —por ejemplo un pez que se pueda comunicar mediante el sonar— no puede ya enviar más señales a través del agua a otro pez que permanezca en la seguridad arriba de la catarata. En muchos casos se puede considerar este fenómeno como en la figura 23, porque la turbulencia espumosa que se produce al pie de la catarata no puede propagarse contracorriente hacia arriba, donde el agua está mayormente lisa y todavía en calma. Esto no es más que el ejemplo más sencillo de que los fenómenos aparentemente exóticos del espacio-tiempo en la teoría de la relatividad general pueden tener analogías en medios tan convencionales como los fluidos. Esta rama de la investigación de fenómenos geométricos con ayuda de la física de la materia compactada se llama gravitación análoga. (A pesar de lo que pudiera pensarse, no se trata de la precursora analógica de alguna supuesta gravitación digital).

23.jpgFigura 23: La catarata sirve para estudiar lo que es un horizonte, porque las ondas no pueden propagarse como señales sonoras en el agua hacia arriba en sentido contrario a la caída. Esto se pone de manifiesto por el manso fluir del agua más arriba de la catarata, que no se ve perturbado por las turbulencias que se forman en la zona inferior. De manera análoga, en torno a un agujero negro existe un horizonte tal que la luz que se encuentra detrás de él no puede salir al exterior. (Leura Falls, Blue Mountains, Australia. Fotografía de Martin Bojowald).

Aunque sería muy fácil inventar algo que fuera un horizonte en este sentido, existen aquí unos sutiles conflictos de intereses que en este contexto tienen relación con efectos cuánticos en el horizonte. Para los agujeros negros, se trataría de la radiación de Hawking, de la que hablaré con detalle más adelante. En el caso de la gravitación análoga en diversos medios, se tiene la ventaja de que en estos los efectos cuánticos de la materia se han investigado ya detalladamente por otros motivos. En vez de ondas gravitatorias como perturbación del espacio-tiempo, que pueden llegar hasta nosotros desde fuentes de emisión lejanas y, por consiguiente, permiten que las detectemos directamente, nos encontramos aquí con los llamados fonones. Se trata de oscilaciones colectivas, acopladas unas a otras, que se producen en los átomos de un cuerpo sólido o de un fluido y que, a causa de la rigidez del medio, se propagan con una velocidad determinada, de tal modo que un grupo de átomos que están oscilando inducen, mediante fuerzas de enlace, a sus átomos vecinos para que estos también oscilen.
Dado que las oscilaciones de un átomo individual están cuantizadas, tal como explica la mecánica cuántica, también estas oscilaciones colectivas lo están. Su intensidad no puede variar de manera continua, sino únicamente en pasos discretos mediante la producción de más fonones debida a las oscilaciones atómicas. Por consiguiente tenemos aquí una imagen atómica y cuantizada del sonido, algo parecido al modo en que los fotones forman la imagen cuantizada de la luz. En el caso de las ondas gravitatorias se espera asimismo que exista una imagen cuantizada, para lo cual habría que recurrir a la complicada gravitación cuántica. Aunque su estructura aún no se comprende del todo, ya existe lo que llamamos gravitón para referirse a estas estimulaciones atómicas del espacio-tiempo. En la gravitación cuántica de bucles, la idea definitiva puede ser realmente muy parecida a la de la física del estado sólido, ya que se tiene una estructura discreta y atómica del espacio-tiempo, cuyas estimulaciones, una vez que se lleguen a comprender matemáticamente, han de dar como resultado gravitones.
Las ondas que surgen por la propagación de una oscilación pueden ser utilizadas para la transmisión de señales, siempre que se disponga de métodos para producirlas de manera bien calculada y detectarlas con precisión. En los casos de la luz y el sonido se utilizan ampliamente al ver y escuchar. A escala microscópica, se reciben de forma individual los fotones de la luz o los fonones en el aire y se interpretan en su totalidad como un mensaje. Estas partículas de intercambio tienen también una importancia fundamental en la comprensión de la física, ya que constituyen la noción elemental de fuerza. En el caso de los fonones esta fuerza es elástica: una deformación en un cuerpo rígido o un aumento de la presión en un fluido se propaga desde su lugar de origen como una onda y su influencia se ejerce finalmente incluso en zonas lejanas. La deformación o el aumento de presión que llega allí tras un tiempo determinado es atribuible al efecto de una fuerza y se interpreta macroscópicamente, prescindiendo de los procesos elementales.
De manera similar, los fotones son los componentes elementales de la luz, que, en enormes cantidades, constituyen las señales complejas con las que solemos comunicarnos. La luz se propaga también en el espacio vacío, por lo que no es una fuerza material que transmitan los fotones, sino una fuerza electromagnética. Los gravitones han sido propuestos como las partículas elementales de intercambio de la gravitación, pero a causa del estado incompleto de la gravitación cuántica esta idea no ha llegado todavía a comprenderse del todo. Sin embargo, en comparación con los trabajos de Newton, este concepto ofrece una clara ventaja: como transmisores, los gravitones deben atravesar primero el espacio situado entre dos lugares, por lo que la fuerza que resulta de ellos no produce un efecto inmediato. Una formulación coherente de los simples gravitones como cuantos de gravitación eliminaría automáticamente las dudas que Newton tenía con respecto a sus propias fórmulas.
Sin embargo, una formulación coherente de la noción de fuerza, tal como se da en su descripción clásica mediante la teoría de la relatividad general, es muy complicada y a menudo está cargada de aparentes paradojas. Aquí, una vez más, la existencia de agujeros negros aclara los problemas: un agujero negro es la fuente de una potente fuerza gravitatoria con la que ejerce influencia sobre las masas en su entorno. Esto es tan fuerte que la mayoría de las galaxias están vinculadas a discos rotatorios mediante agujeros negros gigantescos. Si podemos detectar los agujeros negros, es solo gracias a la influencia gravitatoria que ejercen en su entorno, pues la luz no puede escapar de ellos. Si la fuerza gravitatoria no puede ser más que la fuerza generada por el intercambio de gravitones, ¿por qué entonces los gravitones, es decir, unos mensajeros análogos a los fotones de la luz, pueden abandonar el agujero negro para anunciar en el entorno la existencia de una poderosa fuerza generada en el centro de dicho agujero? Hacer que la noción elemental de cuantos de gravitación sea coherente con los colosales procesos que deforman el espacio y el tiempo es una de las mayores dificultades que plantea la gravitación cuántica.
Volviendo a la gravitación análoga: como ya se ha dicho en la descripción de los horizontes, la teoría cuántica de la materia situada en las cercanías del horizonte de un agujero negro nos lleva a un proceso de producción de materia, a la radiación de Hawking. Según esto, sería de esperar que en un horizonte ubicado dentro de un medio tuviera lugar un proceso similar de producción de fonones. Dado que resulta fácil construir un horizonte análogo y que los fonones no son otra cosa que sonido, es decir, algo detectable, es posible comprobar aquí el proceso general de producción. Por ejemplo, Ralf Schützhold ha propuesto recientemente unos experimentos que podrían llevar esto a la práctica.
Aunque pueda parecer algo sencillo, el sonido de la radiación análoga a la de Hawking no puede oírse de una manera sencilla, porque no es suficientemente potente. Por lo tanto, el medio debe aislarse de otras fuentes exteriores, lo cual se ve dificultado por la creación del horizonte, cuya existencia requiere elevadas velocidades de una parte del medio. La esperanza se ha puesto en unas formas exóticas de la materia llamadas condensados de Bose-Einstein, que surgen en algunos materiales sometidos a temperaturas muy bajas. Tienen la ventaja de que en ellos la velocidad del sonido es muy pequeña; por lo tanto, basta con unas velocidades muy pequeñas del medio para confinar las ondas sonoras en una región concreta. Además, esta materia se encuentra a temperaturas muy bajas que luego pueden ser ligeramente más bajas que las de la radiación de fonones de Hawking. A diferencia de lo que sucede en los agujeros negros del universo, aquí la radiación de Hawking es aguda (o, mejor dicho, fuerte) en comparación con la radiación de fondo, que está condicionada por la temperatura y, por consiguiente, es al menos algo más fácil de detectar.
Estos experimentos están por ahora en la fase de planificación, pero ofrecen definitivamente la posibilidad de comprobar las características de los horizontes en la seguridad del laboratorio, antes de que nos atrevamos a realizar pruebas con agujeros negros en el universo. Aquí no hay peligro alguno, ya que no hay singularidades, y el horizonte desaparece automáticamente cuando el fluido llega a un estado de reposo. Si la radiación análoga de Hawking pudiera comprobarse y medirse con precisión, no solo se conseguiría confianza en los métodos matemáticos aplicados a su cálculo, sino también algo en relación con los problemas realmente básicos que, en el caso de la radiación de Hawking, aún no se comprenden. En vez de forzar las matemáticas para llegar a esclarecer estas cuestiones, lo cual se está intentando desde hace algunas décadas y solo produce lentos avances, se podría preguntar a la propia naturaleza a través de mediciones adecuadas.

3. La teoría cuántica de los agujeros negros
Los agujeros negros ofrecen un rico filón para las preguntas en las que la teoría cuántica de la materia o de la gravitación tienen una importancia decisiva. Esto vale tanto para la zona del horizonte como para la singularidad final del colapso. Se trata sobre todo de la pregunta relativa a qué es realmente un agujero negro, ya que la teoría de la relatividad general, precisamente a causa de la singularidad, no nos ofrece ninguna noción completa.

3.1 ¿Evolución cósmica?
Está claro que los agujeros negros existen en el universo y, por consiguiente, es tanto más chocante que no sepamos realmente nada sobre ellos. La cuestión no es solo ante qué tipo de objeto astrofísico nos encontramos, del mismo modo que tampoco está clara la naturaleza de la aparición de rayos gamma. Los agujeros negros constituyen un misterio totalmente diferente: hay que determinar si son simplemente unas zonas de nuestro universo extremadamente densas y curvadas, o si se trata de un proceso de encapsulamiento del espacio-tiempo, que así se ramifica dando lugar a un universo filial. Por lo tanto, la pregunta decisiva es la siguiente: ¿el horizonte marca una zona de tránsito hacia otro universo que solo es accesible a través de él, o es sencillamente un estadio intermedio hacia una región de nuestro universo?
Estas dos posibilidades pueden representarse también mediante el diagrama de Penrose, si lo ampliamos gráficamente más allá de la línea horizontal de la singularidad. Esto no es matemáticamente viable dentro de la teoría de la relatividad general, pero resulta de gran ayuda para conocer todas las posibilidades y luego proseguir la investigación en el marco de la gravitación cuántica. Como puede verse en la figura 24, la nueva zona podría estar unida con la antigua zona exterior del agujero negro, de tal modo que este solo estaría constituido por un núcleo extraordinariamente denso. Sin embargo, también podría ser independiente, de tal modo que, quizá como una alternativa espectacular, detrás de la singularidad se abriría el mundo totalmente nuevo de un universo filial. Entonces el agujero negro sería un portal que marcaría la bifurcación entre el universo madre y el universo filial; y habría un horizonte donde se cortaría el cordón umbilical.

24.jpg
Figura 24: Posibilidades de un agujero negro con una singularidad evitada. Izquierda: Detrás de la singularidad existe un universo filial que no tiene ya contacto alguno con la anterior zona exterior del agujero negro. (La zona sombreada marca una superposición dentro de la representación, en la cual no hay contacto físico entre las partes del espacio-tiempo). Derecha: La singularidad clásica está simplemente rodeada de una zona de alta curvatura del espacio-tiempo original (representada con trazo ondulado) en la que, según la gravitación cuántica, se puede penetrar. En este caso, el diagrama no se diferencia esencialmente del de un objeto cotidiano compacto, tal como puede verse en la figura 19.

Una ampliación precisa de la idea clásica solo puede realizarse con ayuda de una teoría de la gravitación cuántica, ya que es de esperar que esta controle lo que sucede en la singularidad de la teoría de la relatividad general. Por consiguiente, todavía falta el esclarecimiento definitivo de esta cuestión, pero ya se pueden utilizar algunas de las características conocidas de las teorías de la gravitación cuántica para especular sobre el asunto. Lo que mejor se adecúa para las especulaciones, como suele ser habitual, es la más espectacular de las posibilidades mencionadas, es decir, la de la formación de un universo filial.
Los teóricos han centrado a menudo su atención en esta posibilidad, pero quien la ha tratado de forma especialmente creativa ha sido Lee Smolin, que es uno de los precursores de la gravitación cuántica de bucles. Smolin presupone que este universo filial puede acabar convirtiéndose realmente en un universo completo como el nuestro, e incluso que, de manera similar, nuestro universo ha surgido de otro universo precursor. Hay que distinguir esto de un rebote cósmico, como el de la cosmología cuántica de bucles, porque allí se trata simplemente de una inversión de la expansión de un único universo, mientras que aquí un universo se parte en dos en un lugar determinado. Y, si esto sigue adelante, se obtiene un espacio-tiempo muy ramificado y con una estructura extraordinariamente complicada. La razón es que por cada agujero negro de nuestro universo hay que considerar la existencia de un universo filial propio, y cada uno de estos puede producir a su vez agujeros negros, y a partir de ahí otras filiales de estos universos filiales, y así sucesivamente.
Otra diferencia con respecto al rebote cósmico es el hecho de que, para formular una explicación sobre los universos filiales, es imprescindible adoptar un punto fijo de referencia teórico fuera del espacio-tiempo. Como observadores internos, que es lo que todos somos en realidad, hay que elegir entre posicionarse fuera de todos los agujeros negros, o precipitarse al interior de un universo filial determinado. Por lo tanto, no es posible contemplar la totalidad del espacio-tiempo como un objeto observable y, por consiguiente, un objeto físico; en lugar de esto, lo que sí tendríamos sería un punto de vista metafísico ajeno a cualquier posibilidad de observación. Incluso en la cosmología hemos visto ya unas enormes dificultades para observar el universo anterior al big bang. Pero, al menos en principio, esto era posible; observar a la vez varios universos filiales es en principio imposible.
Es en este punto donde entra en juego una interesante idea de Smolin. Su argumento consiste en decir que, no obstante, este tipo de proceso de escisiones repetidas podría tener consecuencias observables. Para ello basta con asumir una hipótesis más, a saber, que en cada proceso de escisión los parámetros del universo solo cambian de un modo insignificante, comportándose prácticamente como constantes físicas. No hay razones concretas que apoyen esto, pero la decisión está una vez más en manos de la gravitación cuántica y, por consiguiente, de momento se dará por válida esta hipótesis.
Smolin plantea a continuación que se trata de un proceso evolutivo, como los que se dan en la biología. Según Charles Darwin, la enorme variedad de la vida en la Tierra ha surgido mediante la evolución, que, de una forma simplificada, puede basarse en los principios de mutación y selección. Mutación significa que los descendientes de unos padres desarrollan unas características ligeramente diferentes a las de estos, mientras que la selección elige inflexiblemente a los individuos que presentan mejores características para vivir en un entorno determinado. Esto no sucede arbitrariamente, sino de una manera casi lógica: en este sentido, son las características más afortunadas las que permiten al individuo tener la descendencia más numerosa, ya que esto, aunque posiblemente no garantice la supervivencia del individuo, sí lo hace con la de algunos de sus descendientes.
El espacio-tiempo podría estar sometido a unos principios parecidos. Si en cada universo filial cambian ligeramente las características, lo que tenemos son mutaciones. También interviene la selección, porque la tasa de reproducción mediante agujeros negros en el universo filial depende de las leyes físicas que imperen allí. (Sin embargo, en este caso la selección se entiende en sentido estadístico y no existencial, ya que los distintos universos no compiten entre sí por los recursos. Por lo que sí compiten es por un dominio estadístico de sus características en el conjunto de todos los universos filiales). Por ejemplo, la frontera de Chandrasekhar, que determina la masa máxima de una enana blanca, depende de las constantes físicas, como la constante de Planck en la teoría cuántica o la constante de gravitación de Newton. Si una modificación de dichas constantes físicas hace que la frontera descienda, entonces los agujeros negros podrán formarse con masas menores. Los universos filiales cuyos parámetros son adecuados para que resulte más fácil la formación de agujeros negros producirán a su vez más universos filiales, es decir, más nietos que otros y, por lo tanto, dominarán como matronas en el universo metafísico. De esta manera surge la idea de evolución cósmica, que quizá sea responsable de la gran diversidad de objetos astrofísicos que surgen en nuestro universo no solo directamente a partir de los agujeros negros, sino también de las formaciones o los fenómenos relacionados con ellos, como las galaxias o quizá los estallidos de rayos gamma.
Lo peculiar de la hipótesis de Smolin es que al menos resulta estadísticamente demostrable y, por lo tanto, posee una cierta calidad científica. Esto la distingue de otras versiones de los llamados multiversos, que constan de varias regiones perfectamente distinguibles unas de otras para los observadores situados en su interior. Desde un punto de vista estadístico, nosotros tendríamos que encontrarnos en una zona típica del multiverso, es decir, en uno de los universos filiales que aparecen con tanta frecuencia. Pero, según el modelo biológico, los universos más aptos son mucho más frecuentes, o sea, los que tienen una descendencia más numerosa. Las nuevas generaciones surgen (aquí) mediante los agujeros negros, a través de los cuales el multiverso se ramifica produciendo otro universo filial. Si el nuestro es un universo típico, debe producir muchos agujeros negros, cosa que aparentemente sí hace. Esto se puede valorar también de forma cuantitativa, ya que es posible calcular cómo han de ser las constantes físicas para que se generen una gran cantidad de agujeros negros. Por ejemplo, si la constante de gravitación de Newton fuera demasiado pequeña y, por consiguiente, la fuerza gravitatoria demasiado débil, la compactación de la materia se realizaría con demasiada lentitud, y en el universo solo existiría un gas expandido. O quizá las estrellas de neutrones podrían permanecer estables con independencia de su masa, con lo que no se llegaría a colapsos gravitatorios que dieran lugar a agujeros negros.
Por lo tanto, en principio se puede ver si nuestro universo alcanza realmente un buen puesto en la competición inter universal por la fertilidad en cuanto al número de agujeros negros. Sin embargo, los cálculos y las valoraciones estadísticas son, por no decir otra cosa, bastante difíciles. Por esta razón, los pocos cálculos que hasta ahora se han efectuado no dejan de ser muy discutidos. Al margen de esto, la hipótesis de Smolin se basa en la suposición de que la singularidad de un agujero negro puede realmente eliminarse mediante la gravitación cuántica, hasta tal punto que en su lugar aparece una ramificación que da lugar a un universo filial. También esta idea es tan discutible como difícil de probar, pero dos secciones más adelante nos llevará de nuevo al tema de la teoría cuántica de los agujeros negros.

3.2. Radiación de Hawking y pérdida de información
Para emprender el camino hacia la teoría cuántica de los agujeros negros, necesitamos, en primer lugar, unos cuantos detalles más sobre la radiación de Hawking, en cuyo caso los cálculos no se basan en una versión de la gravitación cuántica, sino que utilizan efectos cuánticos de la materia en un espacio-tiempo que está curvado por la transformación del espacio y el tiempo, pero no es en sí mismo cuántico. También aquí, como durante la inflación, la forma especial del espacio-tiempo hace que se produzcan partículas a partir del vacío. Como hemos visto en la figura 20, el diagrama del espacio-tiempo de un agujero negro tiene una forma totalmente distinta a la de los otros objetos astrofísicos de la figura 19 o a la del espacio vacío de la figura 18. Algunas diferencias pueden observarse directamente en el horizonte y detrás de él, es decir, en el interior del agujero negro; en las proximidades del horizonte se tiene una estructura del espacio-tiempo completamente diferente de la que existe a una distancia segura del mismo.
Por lo tanto, al igual que en el caso de la analogía del suelo marino que influye en la propagación de las olas, tal como hemos visto en el capítulo dedicado a la teoría cuántica, o en el ejemplo de la producción inflacionaria de materia a partir del vacío que se menciona en la cosmología, la forma del espacio-tiempo es responsable del comportamiento de las funciones de onda mecánico-cuánticas de la materia en dicho espacio-tiempo. Es tal la influencia que la inestable base del espacio-tiempo en las proximidades del horizonte ejerce sobre las funciones de onda de la materia, que se escinden algunas partes de esta en forma de paquetes de partículas. En el contexto de estas partículas se pone de manifiesto que surgen pares de partícula y antipartícula, de tal modo que una de las componentes del par se precipita en el agujero negro, y la otra escapa hacia el exterior como parte integrante de la radiación de Hawking.
Al escapar las partículas, el agujero negro pierde energía, y con ello masa. Por consiguiente, el horizonte, cuyo radio es proporcional a la masa, se encoge y arruga. A continuación, el proceso continúa muy lentamente, ya que la temperatura de un agujero negro pesado es muy baja y, en consecuencia, se irradia poca energía. A imagen y semejanza del suelo marino, se puede entender este fenómeno considerando que un gran agujero negro tiene el horizonte a mucha distancia de la singularidad; por lo tanto, las diferencias entre el espacio-tiempo cercano al horizonte y el espacio-tiempo del espacio vacío son menos llamativas que en el caso de agujeros negros de menor tamaño.
Inevitablemente, el radio del horizonte se reduce, salvo que llegue energía procedente del exterior, como la irradiada mediante el efecto Hawking. En el caso de agujeros negros cuya masa sea la normal que suelen presentar la mayoría de los que se encuentran en el universo, la débil radiación cósmica de fondo aporta la energía suficiente para estabilizar los agujeros negros frente a la evaporación de Hawking. Sin embargo, a medida que el universo sigue expandiéndose, la radiación de fondo se enfría cada vez más y, por consiguiente, se vuelve más débil. En un futuro lejano, los agujeros negros que son más ligeros empezarán a evaporarse. Solo la absorción de materia cercana, como estrellas o gas intergaláctico, puede salvarlos de la evaporación, pero también este suministro llegará un día a agotarse. Si se contempla la historia completa del universo, el hecho de que los agujeros negros se evaporen es un fenómeno totalmente realista.
En este caso, un agujero negro se hará cada vez más pequeño y caliente. De esta manera, el proceso de evaporación se refuerza a sí mismo y, tras un tiempo finito, si realizamos una sencilla extrapolación, hemos de concluir que conducirá a la desaparición del horizonte. Sin embargo, esta extrapolación en teoría no es plausible, ya que el horizonte, cuando se ha empequeñecido, se encuentra cerca de la singularidad y, por consiguiente, en una zona de pronunciada curvatura. Así pues, en esta situación se necesita una teoría cuántica de la gravitación, que Hawking no había tenido en cuenta. En vez de esto, sus cálculos se basaban en la teoría de la relatividad general, que describe el agujero negro y el horizonte, así como en una teoría cuántica de la materia que se encuentra en este espacio-tiempo, pero no del propio espacio-tiempo.
En consecuencia, el proceso de Hawking por sí solo no nos puede ayudar a la hora de decidir qué significa realmente la singularidad del agujero negro. De esta manera, la singularidad no se deshace simplemente en el aire (o en una radiación), y la teoría cuántica, si se refiere solo a la materia, no nos ofrece solución alguna para el problema de la singularidad. Pero la evaporación pone de manifiesto otros problemas de la idea clásica que pueden ser de ayuda posteriormente, cuando se dé una respuesta mediante la gravitación cuántica a través del planteamiento de distintos puntos de vista.
Lo que más ampliamente se discute en relación con este problema es la llamada paradoja de la información: cualquier cosa puede caer en el agujero negro y llevarse consigo una cantidad enorme de información. Según el proceso de Hawking, de allí solo sale una radiación térmica que surge del entorno del horizonte, por lo que no sabe nada sobre el interior del agujero negro. La radiación térmica es una de las cosas más aburridas y desinformadas que hay en la física.[29] Para su caracterización basta con un único parámetro: la temperatura. Cuando esta se conoce, el perfil de intensidad de la radiación ya está determinado de antemano en su totalidad (debe ser de la forma correspondiente a los cálculos realizados por Max Planck).
Con todo esto, los agujeros negros se convierten en poderosos destructores de información, lo cual plantea un serio problema en la teoría cuántica. Aunque no se conocen ecuaciones exactas que describan de una manera completa el estado cuántico o la función de onda de un agujero negro, se puede demostrar que ninguna ecuación de las habituales en las teorías cuánticas puede reflejar una pérdida de información tan extrema. Lo importante aquí no es únicamente el hecho de que sea difícil acceder a la información, sino que en principio esta no pueda reconstruirse. Cuando un libro se quema, la información contenida en él deja de ser visible, pero mediante sofisticadas técnicas puede seguir siendo accesible incluso en las hojas carbonizadas. Sin embargo, no sucede lo mismo cuando se destruye información en un agujero negro: simplemente deja de existir un soporte de dicha información en el que puedan estar almacenados los datos perdidos.
Quizá el problema se entienda mejor si se formula utilizando magnitudes conservadas. En la física existen ciertos valores numéricos que caracterizan el contenido total de materia y que no se pueden modificar mediante ningún proceso físico conocido. Un ejemplo de esto es la energía, que en el proceso de Hawking se mantiene siempre constante. Otra magnitud de este tipo es la carga eléctrica, o también la cantidad total de protones, neutrones y partículas pesadas que acompañan a las anteriores, es decir, lo que llamamos el número de bariones. Sus antipartículas se cuentan con valores negativos, de tal modo que el número total no varía cuando se crea una pareja, por ejemplo un protón y un antiprotón. Nada nos impide enviar al interior de un agujero negro más protones que antiprotones; en cualquier caso, esto sería lo habitual, ya que, por lo que sabemos, en nuestro universo hay mucha más materia que antimateria. Por consiguiente, el agujero negro contiene un excedente de protones, mientras que la radiación de Hawking trata de forma ecuánime la materia y la antimateria. Si el agujero negro emitiera radiaciones hasta agotarse completamente, y solo quedaran las partículas de Hawking, se vería vulnerada esta importante ley de conservación.
Este problema solo puede resolverse si suponemos que, al finalizar la evaporación, queda un resto estable del agujero negro. Pero ¿qué clase de objeto puede ser ese resto, y por qué tendría que detenerse entonces la evaporación? Aquí solo podrían utilizarse conceptos de la gravitación cuántica, ya que la teoría de la relatividad general no permite que la evaporación finalice, ni que haya restos. Según esto, una vez que la materia se ha colapsado, solo queda la posibilidad de agujeros negros con un horizonte que emita la radiación de Hawking. Por lo tanto, un núcleo compacto que quede como resto después de la evaporación únicamente puede explicarse mediante una teoría cuántica de la gravitación. Ahora bien, si la gravitación cuántica, como suele decirse, solo es relevante a escala de la longitud de Planck, este resto ha de ser muy pequeño. Por consiguiente, se plantea la pregunta relativa a si dicho resto, aunque sea estable, puede contener una parte suficientemente grande de la información caída en el agujero, con el fin de que el proceso sea coherente con la teoría cuántica.
Como cuando tratamos el caso de la singularidad del big bang, aquí tampoco vamos a pasar de largo ante la gravitación cuántica y la investigación de sus detalles. Al igual que en la singularidad mencionada, nos enfrentamos a un problema de tiempo: el espacio-tiempo tiene una frontera que, por ejemplo, no ofrece a la luz que está tras el horizonte tiempo suficiente para escapar. La singularidad del big bang puede eliminarse mediante un tiempo discreto, que aporta un tiempo suplementario detrás de dicha singularidad, y quizá sirva esto también en el caso de los agujeros negros. Finalmente, en el agujero negro aparece la singularidad del «punto en el tiempo», de manera similar a la singularidad que surge en el momento del big bang, dejando a un lado el hecho de que el agujero negro solo ocupa una zona limitada, y no la totalidad del espacio. Si se consigue más tiempo, quizá se abra otra zona del espacio-tiempo: un nuevo mundo (un universo filial o una nueva parte de nuestro universo después de la evaporación del agujero negro) sobre el cual, utilizando solo la teoría de la relatividad general no se consigue conocimiento alguno.

3.3. Gravitación cuántica de los agujeros negros
Si los agujeros negros emiten energía, existe la posibilidad de considerarlos como un fenómeno análogo a los sistemas de átomos excitados: sistemas unidos por la gravitación, cuya irradiación puede proporcionar información sobre su estructura. Aquellos átomos que se encuentran en un estado energético superior al estado fundamental pueden irradiar el excedente de energía y volver así de nuevo al estado fundamental. Las cantidades de energía que pueden medirse a partir del espectro de emisión del átomo proporcionan datos importantes sobre la estructura atómica en el contexto de la mecánica cuántica. Los agujeros negros también irradian energía, aunque esta no se mide, sino que se puede calcular a partir del proceso de Hawking. Para esto se utiliza la teoría de la relatividad general y la teoría cuántica de la materia, obteniéndose un resultado que, en el marco de estas dos teorías, a causa del problema de la información, no es del todo coherente. Especialmente, el estado final al que se llega después de la evaporación de Hawking no puede entenderse de este modo. De hecho, este estado final muestra una analogía con el estado fundamental del átomo, que tan solo puede explicarse aplicando íntegramente la mecánica cuántica. Para comprender el final de la evaporación de Hawking, se necesita una teoría cuántica de la gravitación y del espacio y el tiempo, y no solo de la materia como en los cálculos de Hawking.
Por consiguiente, con los agujeros negros tenemos un tipo de sistemas atómicos que no están construidos mediante ladrillos de materia, sino a partir de un espacio-tiempo cuantizado. Cuando el agujero negro cambia su estado energético o de masa, se irradia un fotón de Hawking. En este caso, la radiación de Hawking se explica mediante una teoría de la radiación en un espacio-tiempo determinado, de manera similar a la descripción de la radiación térmica en un espacio hueco (hohlraum) mediante la fórmula de Planck. Para comprender mejor cómo se genera la radiación, es preciso construir también una teoría del espacio hueco y de su intercambio con la radiación mediante la emisión y la absorción de fotones. En el caso de la radiación del espacio hueco, Einstein lo había conseguido mediante su explicación de la fórmula de Planck.
Cuando se trata de agujeros negros, se necesita una teoría cuántica del espacio-tiempo de un agujero negro, ya que es el espacio-tiempo el que genera los cuantos de Hawking. Cualquier explicación definitiva debe utilizar la gravitación cuántica. Cuando se disponga de ella, se podrá realizar una espectroscopia de los agujeros negros análoga a la espectroscopia atómica o molecular, que tan importante fue en el desarrollo de la mecánica cuántica. Sin embargo, lo que sí será inalcanzable durante mucho tiempo es cualquier comparación con las observaciones, porque para ello tendría que ser posible no solo la medición de la propia radiación de Hawking, sino también algunos detalles de esta radiación, tales como la distribución de intensidades a distintas longitudes de onda. Para los agujeros negros astrofísicos, nuestro universo, a pesar de toda su expansión, está todavía demasiado caliente, de tal modo que cualquier radiación de Hawking sucumbe ante la radiación cósmica de fondo.
No obstante, incluso una espectroscopia teórica plantea un gran número de preguntas interesantes. La estructura atómica del espacio y el tiempo, tal como se describe en la gravitación cuántica de bucles, indica que la superficie de los agujeros negros y, junto con ella, también la masa, ambas vinculadas mutuamente mediante el radio de Schwarzschild, solo pueden tomar valores discretos. Esto ya lo había propuesto Jakob Bekenstein antes de que Hawking realizara sus cálculos. Entretanto, la gravitación cuántica de bucles ofrece una propuesta concreta sobre la forma matemática de este espectro, pero antes hay que investigar minuciosamente qué transiciones tienen lugar en él cuando surge la radiación de Hawking. También es especialmente interesante la pregunta relativa a si un agujero negro posee un estado fundamental similar al del átomo, y qué espacio-tiempo podría corresponder a dicho estado fundamental. Según la analogía atómica, al final del proceso de Hawking sería de esperar que el agujero negro se encontrara en su estado fundamental; este es decisivo para dar respuesta a la pregunta relativa a si la información se destruye totalmente en la evaporación de Hawking o puede quedar almacenada de algún modo en un núcleo compacto.
Por otra parte, la analogía atómica, aunque puede explicar el primer paso de la evaporación de Hawking, puede conducir finalmente a conclusiones falsas, porque el agujero negro se hace cada vez más pequeño y, por consiguiente, el horizonte, que hace las veces de lugar donde se genera la radiación de Hawking, se aproxima cada vez más a la singularidad y su intensa curvatura. Esto no sucede en los átomos materiales, donde la energía se limita a disminuir cuando el átomo se acerca a su estado fundamental. En este estado, las características de la teoría cuántica son extremadamente importantes, ya que, si no fuera así, esta teoría no hubiera podido resolver los problemas clásicos de estabilidad, pero, por otra parte, no aparece ningún fenómeno de aumento de la densidad de la energía, cosa que sí sucede en la singularidad. Para responder a las preguntas decisivas sobre los agujeros negros, es preciso tomar en consideración especialmente la singularidad y su destino en el marco de una gravitación cuántica.
Al igual que en la cosmología, hay dos fenómenos de la gravitación cuántica de bucles que pueden llevar a la desaparición de la singularidad: las fuerzas antagonistas y la provisión de más tiempo mediante su conversión en magnitud discreta. En el caso de los agujeros negros, no podemos basarnos en situaciones tan simétricas como las que se dan en la cosmología, ya que aquí la homogeneidad sería demasiado fuerte: necesitamos un punto destacado como centro de la simetría de rotación, de tal modo que la fuerza de la gravedad varíe con la distancia a dicho punto. Con esto, los cálculos son más complicados, y las posibilidades que ofrece la gravitación cuántica no han sido investigadas todavía de manera que ofrezcan unos resultados fiables. Pero de este modo, no solo existen indicios claros de la existencia de fuerzas antagonistas y tiempo adicional, sino también modelos concretos de agujeros negros sin singularidades. Para Abhay Ashtekar, y para mí mismo, en los primeros años de la cosmología cuántica de bucles esta fue una feliz oportunidad para sondear las consecuencias de esta teoría en un contexto más general. Paralelamente, Leonardo Modesto, así como Viqar Husain y Oliver Winkler, llevaron a cabo investigaciones similares. En tiempos más recientes, Christian Böhmer y Kevin Vandersloot, así como Rodolfo Gambini y Jorge Pullin, se han dedicado a indagar sobre estas cuestiones. Aunque todavía no hay una respuesta completa para la pregunta relativa a si aparece un universo filial en vez de la singularidad, o si quedan restos de agujeros negros en el universo que existió con anterioridad, sin embargo los procesos posibles pueden limitarse mucho.
La idea fundamental es de nuevo el carácter discreto del tiempo: no están permitidos todos los valores o puntos del tiempo que se desee tomar, sino que este salta dando pasos fijos, estrictamente controlados. Aunque el tamaño de esos pasos es muy pequeño y dicho tamaño no desempeña apenas papel alguno en el exterior y en el horizonte del agujero negro, y tampoco a mayor profundidad en el interior de un gran agujero negro, sí que será decisivo en las proximidades de la singularidad. A diferencia del tiempo continuo que se utiliza en la teoría de la relatividad general, que después de un intervalo finito se detiene, y se desmorona con la propia teoría, el tiempo discreto sigue transcurriendo. Por lo tanto, la eliminación de algunos puntos temporales a escalas microscópicas detrás de la singularidad clásica de un agujero negro implica también aquí la aparición de un nuevo dominio del tiempo mucho más amplio, macroscópico, detrás de dicha singularidad. En el diagrama de Penrose se representa esto a la izquierda en la figura 25. Aquí es decisivo el hecho de que la singularidad situada en el interior del agujero negro es un punto del tiempo, y no un punto del espacio, como el punto central de una estrella. Solo así es posible que el tiempo discreto pueda saltar este punto y abrir un nuevo mundo en el futuro.
Aquí nos encontramos con uno de los importantes fenómenos de coherencia que, en ausencia de observaciones directas, guían el desarrollo de la teoría: ciertos detalles precisos de la teoría clásica desempeñan un papel decisivo en los mecanismos concretos de la ampliación de la teoría cuántica, sin que se haya introducido esto en la definición de la gravitación cuántica. Los agujeros negros, tal como surgen al colapsarse la materia, se expresan en la teoría de la relatividad general mediante una singularidad de «punto en el tiempo» detrás de un horizonte, y esta singularidad puede ser atravesada por el tiempo discreto, como la singularidad del big bang en la cosmología. Si la singularidad de un agujero negro fuera un punto del espacio, como el centro de una estrella, el tiempo transcurriría paralelo a ella y no tendría posibilidad alguna de atravesar la singularidad y así eliminarla. Por lo tanto, en una teoría cuántica de la gravitación aparecerían además singularidades desnudas, si no hubieran sido ya contrarrestadas por la censura cósmica en la teoría de la relatividad general.
Ciertos aspectos clásicos, y también los de la teoría cuántica, desempeñan aquí un papel importante, estrechamente enlazados unos con otros, ilustrando la elegancia y coherencia de sus ideas. La gravitación cuántica es efectiva e inflexible a la hora de eliminar las singularidades peligrosas, pero al mismo tiempo es ahorradora cuando se trata de singularidades que pueden resolverse a la manera clásica. El destino de la singularidad en la teoría cuántica, a pesar de no estar aún claramente definido, constituye así una prueba que hay que tomar muy en serio y cuya existencia puede demostrarse mediante ecuaciones matemáticas. A medida que se acumulan estas demostraciones crece la confianza en la teoría. Cuando sucede que una prueba no se supera, lo que se hace es intentar perfeccionar la teoría de tal modo que dicha prueba llegue a dar un resultado positivo, y luego lo den también las pruebas anteriores. Si esto no se consigue, o si las modificaciones de la teoría parecen demasiado artificiosas, se abandona finalmente el intento. Incluso a pesar de la carencia de observaciones, existe una fuerte presión para seleccionar las especulaciones teóricas.
Una vez que se ha despojado a la singularidad de su carácter de punto en el tiempo, hay detrás de ella tiempo y también espacio, o, si se observa desde el exterior del agujero negro, un universo posterior a la evaporación de Hawking de un agujero negro. Así pues, es decisiva la pregunta relativa a si ese espacio-tiempo posterior a la singularidad está vinculado en su interior con el espacio-tiempo existente en el exterior, o como ya se ha planteado: ¿acaso en el agujero negro el espacio-tiempo se ramifica dando lugar a un universo filial, o es que la materia que se colapsa en el agujero negro es lanzada de nuevo hacia el exterior? Esta pregunta es importante para el concepto físico y para las posibles observaciones que vayan a realizarse (en un futuro lejano); y, aparte de esto, también para la visión de conjunto del cosmos, así como para la comprensión teórica, a la que esta pregunta somete a una dura prueba.
En el supuesto punto de ramificación, a diferencia de lo que sucede al atravesar la zona de intensa curvatura de la singularidad clásica, es necesario un análisis muy preciso de todos los detalles de las modificaciones temporales tal como se producen en los componentes elementales del espacio-tiempo discreto. Finalmente, cuando se produce una ramificación que da lugar a un universo filial, se tiene que llegar a un desgarro del espacio-tiempo entre dos átomos espaciales vecinos que hasta entonces estaban unidos, pero ya no lo están en el paso siguiente, después de la singularidad.

25.jpgFigura 25: Las dos posibilidades existentes de vincular el interior libre de singularidades con el exterior en el marco de la gravitación cuántica. O bien hay detrás de la singularidad un punto de ramificación donde surge un universo filial, o el interior se encuentra simplemente en un espacio-tiempo que lo rodea todo.

En este punto, la posibilidad de una respuesta completa se ve dificultada por el actual estado incompleto de la teoría y también por su complejidad matemática. Sin embargo, hay indicios de que, cuando exista una teoría completa y coherente, la respuesta será algo así como lo siguiente: no se produce ramificación alguna que dé lugar a un universo filial, sino que la zona interna, tras la evaporación del horizonte, se une de nuevo con el exterior.
Entonces también aparecerá de nuevo la materia colapsada, y lo hará posiblemente con una explosión visible a gran distancia en el universo. La zona de densidad energética y curvatura extremadamente elevada que se sitúa en torno a la singularidad clásica se vuelve accesible desde el exterior, lo cual constituiría un gran acontecimiento cósmico. La pérdida de información que Hawking temía en un principio no tiene lugar, porque al aparecer de nuevo la materia también surge la información almacenada relativa a dicha materia. Puede estar muy distorsionada y ser difícil de descifrar, ya que habrá tenido que atravesar la zona de intensa curvatura situada en el interior, pero en principio seguirá estando disponible. Y esto es lo único que se necesita para la coherencia del marco teórico.
La prueba provisional de este comportamiento se basa en propiedades características de la dinámica atómica del espacio-tiempo, tal como esta se presenta en la gravitación cuántica de bucles. Según esto, en zonas de muy intensa curvatura en las que dominan los aspectos cuánticos de la teoría, se puede llegar a un distanciamiento de átomos espaciales cercanos y, así, a una escisión de un espacio-tiempo precursor en zonas separadas. Según la forma exacta de la dinámica, que a causa del estado incompleto de la teoría aún no se conoce con precisión, existen dos posibilidades: o bien las partes separadas por poco tiempo vuelven a unirse en el siguiente paso temporal discreto, o permanecen separadas para siempre.
Solo en el segundo caso puede producirse una ramificación hacia un universo filial. Pero aquí el problema es que la singularidad de «punto en el tiempo» que presenta el agujero negro está expandida espacialmente, al igual que el centro habitual de una estrella está expandido, pero no en sentido espacial, sino temporal. Para que se produjera una ramificación del interior del agujero negro, dando lugar a un universo filial, sería necesario que el espacio-tiempo se desgarrara solo en un extremo de la singularidad clásica, o sea, de la zona de mayor curvatura dentro de la gravitación cuántica, mientras que otras zonas permanecen intactas. Si esto no sucede, es decir, si se divide al momento en innumerables átomos espaciales totalmente separados unos de otros, se produce un aborto cósmico espontáneo que nadie debe considerar en ningún caso como un universo filial.
Dado que la zona de intensa curvatura, no solo en su borde, sino en toda su amplitud, está sometida a las leyes de la gravitación cuántica, en el caso de un desgarro en el borde se produce fácilmente un desprendimiento generalizado en el interior. Por fin, en todos los lugares hay una curvatura extremadamente intensa con su comportamiento fuertemente marcado en el sentido de la teoría cuántica, y no hay motivo alguno para que exista un comportamiento especial en el borde. Por lo tanto, la teoría no distingue ya entre la ramificación para producir un universo filial y la hendidura del agujero negro para volver al espacio-tiempo original, sino entre este último caso y la fragmentación del interior.
¿Cómo se puede entonces descartar una fragmentación desastrosa? Por suerte, esto se puede hacer con relativa facilidad, ya que casualmente el interior de un agujero negro que no rota obedece a las mismas leyes que se dan en la cosmología dentro del supuesto de una homogeneidad exacta. Sin embargo, la totalidad del espacio-tiempo de un agujero negro es de todo menos homogénea, ya que la fuerza gravitatoria depende en gran medida de la distancia a la singularidad central, y en el horizonte esta dependencia radial se convierte en dependencia con respecto al tiempo. También aquí vuelve a ser una vez más decisivo el carácter de «punto en el tiempo» que posee la singularidad: si nos acercamos al horizonte, se reduce el radio, que es una coordenada espacial. Pero, cuando atravesamos dicho horizonte y nos aproximamos cada vez más a la singularidad, nos movemos en dirección al futuro, ya que la singularidad se encuentra delante de nosotros en el tiempo. Es, pues, el tiempo, y no una coordenada espacial, el que cambia en un movimiento hacia una curvatura más pronunciada. Realmente, el hecho de que el espacio interior pueda considerarse homogéneo, pero, como en la cosmología, variable en el tiempo, es algo que se deduce de la solución matemática de Schwarzschild.
Esta homogeneidad facilita mucho la investigación de la dinámica, ya que es posible considerar en conjunto todos los puntos espaciales. Por lo tanto, hay así una única ecuación (la que aparece en el capítulo 5, en el apartado titulado «La utilidad de las matemáticas») para resolver la totalidad del espacio interior, en vez de utilizar innumerables ecuaciones para todos los átomos espaciales. Gracias a la cosmología cuántica, conocemos ya el resultado: se puede atravesar la singularidad de la teoría clásica sin llegar a escisión o desgarro alguno. Finalmente, si lo trasladamos a la cuestión de los agujeros negros, esto significa que el interior de cualquiera de ellos ha de abrirse hacia fuera después de que el horizonte se haya deshecho por irradiación, con lo que el interior del agujero negro se vuelve visible para un observador posterior.
Aunque es incompleto el conocimiento de la gravitación cuántica, existe una predicción inequívoca. De todos modos, se ha de tener en cuenta que en esta cadena de argumentos hemos hecho uso de distintas suposiciones e indicios diversos que todavía han de ser fundamentados mediante cálculos minuciosos o incluso elementos teóricos de los que aún no se dispone. Aquí lo más importante es enlazar la dinámica del interior, para la que hemos utilizado resultados cosmológicos, con la dinámica del espacio exterior, cuyo conocimiento es por ahora escaso. En nuestra argumentación hemos partido de la coherencia de la teoría global, en la cual se puede combinar coherentemente la dinámica del interior, que se centra en la homogeneidad, con la dinámica del exterior, que describe la evaporación del horizonte. La idea que expresamos de esta manera puede considerarse como una predicción de los componentes de la teoría, que constituirían unos sólidos cimientos para la coherencia a la hora de plantear cálculos globales. Cuando se consiga esto, tendrá que ser factible la ampliación del resultado incluso a los agujeros negros en rotación, para los cuales nuestros argumentos perderían su validez a causa de la falta de homogeneidad del interior.
La relación con las ecuaciones cosmológicas permite asimismo el desarrollo de una imagen concreta provisional del interior de un agujero negro y de su destino después de la evaporación. De nuevo es importante la aparición de una fuerza antagonista que actúe al producirse la elevada condensación de la materia que se colapsa, teniendo en cuenta la gravitación cuántica. Según esto, la materia no puede colapsarse hasta llegar a ese «punto en el tiempo» que representa la singularidad clásica, sino que, al llegar a una condensación suficientemente fuerte, experimenta una tracción que la hace esponjarse de nuevo. Al igual que en la cosmología, la capacidad limitada del tiempo discreto es responsable de la aparición de la fuerza antagonista. La condensación es máxima en el centro del agujero negro, que en la teoría de la relatividad general albergaría la singularidad. Visto desde el exterior, este punto del tiempo se caracteriza por la desaparición del horizonte, que se ha evaporado. Como puede verse en la figura 26, al contrario que en la teoría clásica, el interior será luego visible desde el exterior en forma de una materia caliente y extremadamente densa que se expande, impulsada por las fuerzas de repulsión de la gravitación cuántica, como si fuera un big bang en miniatura. Desde el exterior, después de vislumbrar esta imagen, se vería el resto de la radiación de Hawking, que sería emitida poco más tarde por una parte interior que está explotando.

26.jpg

Figura 26: Representación de observaciones astronómicas en un agujero negro no singular. A lo largo de la frontera de la parte superior derecha se recibe en primer lugar la radiación que había pasado por el agujero negro antes de la formación del mismo (flecha inferior). Como primera señal procedente del agujero negro se ve la radiación de Hawking que surge del borde de la singularidad clásica. Posteriormente, cualquier radiación que venga de la zona del agujero negro atraviesa la elevada curvatura que existe dentro de él. Esta radiación transporta los restos de la materia que se había precipitado al interior del agujero negro y puede contener enormes cantidades de energía.

Esta idea, como ya se ha dicho, necesita todavía ser cimentada mediante otros cálculos que, por ejemplo, son imprescindibles para valorar cuantitativamente las cantidades de energía. Aunque es bastante seguro que ese interior que se está abriendo emitirá más energía que la fase final de la radiación de Hawking, dicha energía podría ser solo una pequeña fracción de toda la materia que se está colapsando. Finalmente, en el caso de los agujeros negros pesados, esto dura mucho tiempo, hasta que se evaporan por completo. Durante este tiempo, mediante el proceso de Hawking, puede ser irradiada una gran parte de toda la energía disponible, aunque la irradiación en intervalos de tiempo cortos tiene muy poca intensidad. Por lo tanto, la fuerza y la luminosidad de la posible explosión de un agujero negro no puede todavía valorarse de manera precisa; a causa de las curvaturas extremadamente pronunciadas que existen en el interior, que superan con mucho a todas las que puedan encontrarse en el universo, exceptuando las del big bang, hay que partir de la hipótesis de un suceso de enorme potencia. Por desgracia (¿o por suerte?), habrá que esperar mucho tiempo para ver algo así en nuestro universo, porque la radiación cósmica de fondo, a pesar de su debilidad, protege aún de la evaporación a los agujeros negros.

Por de pronto, la mancha de luz surgida en el oscuro cielo nocturno no le resultó muy emocionante al «gravónomo» de servicio, aunque no dejaba de ser un pequeño cambio en la monotonía que caracterizaba su trabajo cotidiano. Las explosiones de este tipo ya habían perdido largo tiempo atrás el tinte espectacular que tuvieron al principio, a pesar de ser en aquel momento los únicos fenómenos cósmicos visibles que todavía podían percibirse a simple vista. Hacía mucho tiempo que todos los demás se habían apagado, después de que la expansión del universo hubiera arrastrado las otras galaxias e incluso las estrellas vecinas a posiciones demasiado lejanas. La imparable expansión había producido asimismo un enfriamiento cada vez más intenso de la radiación cósmica de fondo, y finalmente había facilitado la evaporación de los agujeros negros más pesados. La materia que largo tiempo atrás se había colapsado y comprimido hacía su aparición de nuevo con potentes y continuas explosiones. Estas explosiones fueron también las fuentes principales de emisión de ondas gravitatorias, que, al ser registradas por los «gravónomos», habían proporcionado una base para iniciar el cartografiado convencional del cielo que luego se utilizaría en la astronomía.
Sin embargo, las investigaciones científicas del universo se hicieron cada vez más escasas, y la «gravonomía» quedó en manos de los militares. Parecía que estaban claros el origen y el destino de un universo que se volvía cada vez más grande y vacío; por consiguiente, se fue desvaneciendo el interés científico por las ondas gravitatorias o por cualquier otro débil emisario cósmico. Los antiguos observatorios se utilizaban para la vigilancia militar. Tras el agotamiento de las fuentes de energía tradicionales, la extracción de energía de los agujeros negros, según el proceso de Penrose, se convirtió en el último elixir de la vida. Para ello, algunos de los agujeros negros que existían de forma natural fueron agrandados artificialmente mediante un proceso para el cual se había introducido el concepto de «ampliación del horizonte», una denominación que pretendía quitarle importancia. Al principio, este procedimiento se había utilizado también para eliminar civilizaciones que resultaban molestas, pero esta práctica pronto se empezó a abandonar gradualmente. Como había sucedido siempre en todas las civilizaciones del universo, la humanidad había destacado especialmente por su poder de destrucción. Además había tenido la suerte de descubrir pronto el desarrollo de una descripción teórica del espacio-tiempo que resultó muy afortunada y que se consiguió gracias a la teoría de la relatividad general. (Por circunstancias geopolíticas y de la política de investigación, de las que el propio ser humano era culpable, la actividad investigadora dedicada a la gravitación se vio frenada durante varias décadas, y en los siglos siguientes tampoco iba a desempeñar un papel relevante). La humanidad utilizó estos conocimientos, y su consiguiente aplicación, con el fin de lograr la consolidación de su dominio, para luego prohibir oficialmente la ampliación del horizonte, después de haber creado una situación política de poder. Se sospecha que solo unas pocas galaxias canallescas siguen utilizando esta tecnología, por lo que deben ser vigiladas a través de las ondas gravitatorias emitidas inevitablemente en una ampliación del horizonte.
Los consorcios energéticos, aunque por otro motivo, también habían insistido en realizar múltiples ampliaciones del horizonte: se habían dado cuenta del peligro que suponía para ellos la expansión del universo, que no dejaba de acelerarse. El caso era que la lenta pero inevitable pérdida de densidad que la materia sufría a causa de esta expansión no permitiría durante mucho más tiempo la existencia de grandes agujeros negros como fuentes de energía. Por consiguiente, propagaron el desacelerador de Buchert: la energía oscura como fuente de la expansión acelerada se había revelado en gran medida como una consecuencia de las faltas de homogeneidad en el universo posterior al big bang, un universo cada vez más estructurado. En la creencia de poder reducir la falta de homogeneidad haciendo desaparecer galaxias enteras en el interior de agujeros negros, se emprendieron en principio sucesivas ampliaciones de horizontes.
Esto no podía acabar más que en un fracaso total, ya que la materia lanzada al interior de los agujeros negros aumenta la masa del agujero negro y, por consiguiente, no se reduce suficientemente la fuerza de la gravedad, ni la falta de homogeneidad de su distribución. Salvo por la aniquilación de galaxias, la ampliación del horizonte, aunque sucediera un número excesivo de veces, apenas tenía repercusiones. Sin embargo, contribuía a un debilitamiento de la aceleración, que de forma totalmente natural había que atribuir a la creciente disminución de la falta de homogeneidad en el universo en expansión. Por supuesto, los políticos celebraron esto como un éxito de su aventura militar y su política energética.
Mientras le venía a la mente el recuerdo de lo que decían los libros de historia, nuestro «gravónomo» se dio cuenta rápidamente de que durante sus observaciones se había encontrado con una explosión natural tras la evaporación de un agujero negro y estuvo a punto de volver a su lectura, pero se paró a pensar que esta señal era diferente: al pasar la mirada de nuevo por la pantalla en la que se representaban con todo detalle las ondas gravitatorias, notó algo muy especial.
La evaporación y explosión de los agujeros negros se explicaba perfectamente mediante la teoría de Schlingen, que, después de siglos de esfuerzos, se había consolidado como teoría de la gravitación cuántica y reunía las ventajas de todas las teorías precursoras. Esta teoría se había desarrollado justo a tiempo para ser comprobada con los últimos vestigios de la radiación cósmica de fondo, que se iba debilitando cada vez más. Fue un éxito espectacular. Posteriormente, cuando explotaron los primeros agujeros negros, también estos detalles tuvieron una explicación muy precisa mediante la teoría de Schlingen, que desde entonces está considerada como la teoría fundamental y definitiva del universo. Incluso en el suceso más reciente pudieron reconocerse sin esfuerzo los rasgos característicos del espectro de ondas gravitatorias correspondiente a la explosión de un agujero negro. Sin embargo, había una parte débil y muy frecuente que desbordaba la precisión de las mediciones. ¿Podía suceder que la teoría de Schlingen no fuera la última palabra de la física teórica?
La noticia de posibles discrepancias entre la teoría y las observaciones —las primeras en varios siglos— se extendió como un reguero de pólvora. Se realizaron nuevos cálculos y fueron propuestas algunas modificaciones de la teoría de Schlingen, aunque todas resultaron infructuosas. Por otro lado, la explicación definitiva de estas discrepancias resultó en principio decepcionante: fue un historiador quien, en unas anotaciones antiguas, encontró alusiones a la sonda de Kruskal, que en otros tiempos había llevado a cabo una misión de reconocimiento en el agujero negro central de una galaxia mediana. Los detalles eran ya imposibles de conseguir, pero resultó fácil rastrear dentro de la medición de las ondas gravitatorias la parte de las señales de alta frecuencia emitidas por la sonda en su camino hacia el centro, hasta la destrucción de dicha sonda. De esta manera, la nueva observación contribuyó al triunfo de la teoría, ya que aquí se había recibido por primera vez una señal claramente identificable que, a diferencia de la luz, podía atravesar la extremadamente caliente y densa zona central del agujero negro. Una vez que se conoció el origen de la señal, esta pudo ser compatibilizada inequívocamente con la teoría

Capítulo 8
La dirección del tiempo

Contenido:
  1. El concepto del tiempo
  2. Entropía
  3. La flecha del tiempo

A menudo el tiempo es algo que acaba con nuestra paciencia. Muchas cosas resultarían más fáciles si el tiempo se comportara como el espacio. En este caso se podría retroceder en el tiempo, quizá para rectificar un error o aprovechar una ocasión desperdiciada. O bien, igual que se hace con un terreno, se podría comprar un poco de tiempo cuando los plazos andan demasiado justos. El tiempo condiciona la vida: en primer lugar, sucede todo tan rápido y de un modo tan frenético que no nos damos cuenta de que estamos dejando atrás nuestro propio futuro. Las cosas siguen así durante un largo trecho, y el tiempo se mantiene imperturbable. Al final, después de haber estado siempre dándonos prisa, sin que lo podamos evitar, nos deja atrás para siempre y él sigue avanzando… solo para los demás.
¿Por qué es el tiempo tan diferente del espacio, si, según la teoría de la relatividad, ambos forman juntos el espacio-tiempo e incluso son convertibles el uno en el otro?

1. El concepto de tiempo

¿Acaso el tiempo no dispone de tiempo?
FRIEDRICH NIETZSCHE, La gaya ciencia

En la vida cotidiana el tiempo se caracteriza por su avance imparable (y subjetivamente irregular), que diferencia claramente el pasado del futuro. Para esto es decisiva la memoria, gracias a la cual recordamos el pasado y percibimos la existencia del futuro: la parte más reciente del pasado se reconstruye en nuestra experiencia como parte del futuro de un pasado más remoto. Algunos sucesos, aunque sean insignificantes, tienen consecuencias directas, que en la reconstrucción de la memoria se reconocen como ubicadas en un contexto causal. Por lo tanto, se espera que los sucesos del presente tengan consecuencias similares en el futuro, aunque estas aún no hayan sucedido.
Este concepto del tiempo, a pesar de ser cotidiano, resulta extraordinariamente complejo y, por lo tanto, ha de distinguirse del tiempo matemático, que ha de describir la naturaleza con independencia de la memoria. Este tiempo es como la marcación de una película, que no interviene en el argumento, pero muestra los hechos físicos en su orden causal. Lo que se representa es las posiciones de los cuerpos en la física clásica o la forma de la función de onda en la teoría cuántica. Esto es así incluso en la teoría de la relatividad general, aunque el tiempo asume un papel activo y, por ejemplo, puede llegar a su fin. A causa de su convertibilidad con el espacio, el tiempo no ofrece una marcación absoluta, sino que esta depende del observador; pero el tiempo sí determina qué suceso puede producir posteriormente otro, y dónde es posible una dependencia causal.
La idea matemática del tiempo es muy útil para determinadas investigaciones, aunque sea un concepto idealizado. Esta clase de tiempo no es observable; lo que sí se ve son las modificaciones que experimentan las configuraciones de la materia, como el cambio en la posición del Sol con respecto a la Tierra, o el de las agujas en la esfera del reloj. Los relojes de cualquier tipo están hechos de materia y se encuentran sometidos a las leyes de la naturaleza, así como a la influencia que ejerce sobre ellos el resto de la materia. Se dice de un reloj que es bueno cuando es escasa la influencia que ejerce otro tipo de materia sobre él; pero siempre hay alguna influencia, aunque sea débil, con lo cual la idea de un tiempo totalmente independiente de la materia es una utopía. Por el contrario, el movimiento físico real es relativo, al igual que la oscilación de un péndulo se mide en relación con la posición de las agujas de un reloj. Lo que se observa siempre será la materia, no el tiempo en sí mismo.[30] Esto es significativo sobre todo en la cosmología, como veremos más adelante. Aunque en las condiciones actuales de nuestro planeta es posible fabricar relojes que son fáciles de usar, en las primeras fases del universo hay zonas en las que, por ejemplo, a causa de la alta densidad reina inevitablemente una poderosa influencia entre todos los componentes de la materia. En estos casos, como medida del tiempo se puede utilizar a lo sumo magnitudes geológicas, tales como el volumen variable del universo.
Tanto si se trata del tiempo matemático como si es el tiempo físico, las leyes de la naturaleza determinan el comportamiento general, y los valores iniciales inciden en las situaciones especiales. Esto se pone de manifiesto directamente en la descripción matemática realizada mediante ecuaciones diferenciales. Por ejemplo, cuando se establecen las posiciones y velocidades de los planetas en un punto de partida fijo, las leyes de la teoría de la relatividad general determinan la totalidad de las órbitas descritas en torno al Sol y sus cruces a lo largo del tiempo. Aquí no existe diferencia alguna entre el pasado y el futuro: si se frena la velocidad orbital en un momento posterior, se modifican todas las velocidades de los planetas y se aplica de nuevo la teoría de la relatividad general, se obtienen exactamente las mismas órbitas, que solo serán recorridas en una inversión temporal. ¿Cómo es posible que en un mundo así surja una memoria que, no obstante, puede distinguir entre pasado y futuro?

2. Entropía
La mayoría de los procesos, en especial los de la vida y, por lo tanto, también los de la memoria, no se llevan a cabo con unos pocos cuerpos claramente definidos como los planetas, sino que se basan en el movimiento de innumerables átomos, cuya pista individual es imposible de seguir. Por lo tanto, las mediciones y las descripciones teóricas están orientadas a las magnitudes colectivas de todos los componentes microscópicos, como pueden ser el volumen total, la presión (como medida de la fuerza global ejercida por los choques de los átomos sobre las paredes del recipiente que los contiene) o la temperatura (como medida de la velocidad media de todos los componentes).
Muchas de estas magnitudes colectivas, en contraposición con el sinnúmero de posiciones atómicas, no cambian en general de una manera reversible en el tiempo. Esto lo demuestra claramente la experiencia cotidiana, ya que, por ejemplo, la forma de un recipiente, que también representa una magnitud colectiva para todos sus componentes atómicos, cambia radicalmente cuando el recipiente se rompe, sin que sea fácil recuperar la forma inicial. El tiempo que transcurre para que una jarra se haga pedazos es claramente diferente del que es necesario para volver a unir los cascotes y conseguir una jarra que parezca intacta. Una filmación de la rotura puede distinguirse de manera inequívoca de un proceso inverso en el tiempo, cosa que no sería posible en una filmación del movimiento molecular.
El contraste entre la reversibilidad temporal del movimiento de todos los componentes microscópicos del recipiente y la irreversibilidad macroscópica del movimiento de la totalidad del recipiente encuentra su explicación en la forma especial de las condiciones iniciales que son necesarias para una constante universal determinada, como es la forma del recipiente. Si el recipiente cae al suelo y se rompe, las posiciones iniciales de sus componentes, así como todas las velocidades que estos desarrollan durante la caída, se coordinan de una forma muy precisa. Pero el recipiente roto ha quedado partido en muchos trozos individuales cuyas posiciones, orientaciones y velocidades son completamente diferentes unas de otras. Sería muy difícil convertirlas en unas velocidades tales que en una reversibilidad temporal del proceso de rotura produzcan de nuevo el ensamblaje de todo el recipiente.
La diferencia entre un recipiente entero y otro roto es el estado de orden. En un recipiente entero, todos sus componentes, así como las velocidades de estos, están unidos unos con otros y ordenados de una manera muy precisa. En un recipiente roto, al desaparecer la unión, en parte desaparece también el orden, y los cascotes pueden distribuirse como quieran en el espacio. Un recipiente entero se encuentra en un estado mucho más especial que uno roto, y existen muchas más configuraciones que se reconocerían como posibles para un recipiente roto. La medida física que aquí se utiliza recibe el nombre de entropía, y esta describe con precisión el número de estados microscópicos que vienen determinados por las innumerables posiciones de los átomos y corresponden a un estado macroscópico definido por unas pocas magnitudes colectivas. La entropía es baja en el caso de un recipiente entero, pero alta para uno que está roto en pedazos, y, como en el caso de la rotura, normalmente le resulta más fácil aumentar que disminuir. Cuando se fabrica el recipiente, este adquiere un estado de menor entropía, pero posteriormente es inevitable que llegue un momento en que se rompa, o al menos se deteriore, con lo que pasará a un estado de mayor entropía.
Pero ¿cómo se logra crear inicialmente un recipiente de menor entropía? El material debe formarse y estabilizarse de una manera especial en un proceso que reduce la entropía. Esto solo se puede hacer utilizando una energía que se obtendrá, por ejemplo, quemando una sustancia como el carbón o un derivado del petróleo. La combustión es también un proceso en el que aumenta la entropía, ya que una sustancia ordenada, fluida o sólida, cuyos componentes han de moverse hasta cierto punto de manera coordinada, se transforma en un desordenado gas de mayor entropía. La entropía del combustible ha de elevarse para que se pueda producir un recipiente de menor entropía. En general, se puede decir que el aumento de la entropía en el proceso de combustión supera su reducción en el proceso de producción de un objeto ordenado, de tal modo que, al observar todos los componentes, la entropía realmente no puede disminuir.
De esta manera, en nuestra burda percepción, que no contempla detalles microscópicos, surge un desequilibrio entre el pasado y el futuro. La memoria se basa en lo percibido y, por lo tanto, nos muestra un mundo en el que se distingue entre el pasado y el futuro. Además, aunque pudiéramos percibir directamente el movimiento de los átomos, esto nos daría con mucho una información excesiva, que en la memoria tendría que ser reducida de nuevo a unas pocas magnitudes colectivas. Así se explica la oposición entre reversibilidad microscópica e irreversibilidad colectiva.
Desde un punto de vista cosmológico, esto nos lleva a un problema muy discutido: cuando la entropía aumenta sin cesar, esto significa que hace mucho tiempo ha tenido que ser mucho más escasa que en la actualidad, y sus valores serán cada vez menores si retrocedemos sin cesar en el pasado. En un momento dado tuvo que haber registrado el mínimo valor posible en un estado de orden perfecto. ¿Cómo pudo surgir tal estado, que dio inicio al mundo, pero también lo condenó a la imperfección?
Hemos llegado a ser conscientes de este problema al trasladar la experiencia de la Tierra a la totalidad del universo. Sin embargo, al hacer esto, se descuida un componente esencial: la gravitación, que es imprescindible en el universo. La gravitación puede aumentar el orden, lo cual, como tantas de sus características especiales, se basa en su capacidad de atracción. Si pensamos en un gas distribuido casi uniformemente, de forma parecida a la distribución de materia poco después del big bang, este gas tiene muy poco orden y escasa estructura, por lo que su entropía es alta. Si no tenemos en cuenta la gravitación, no cambiará nada esencial en la distribución, por lo que la entropía no varía y permanece en su alto nivel.
Pero la gravitación interviene inevitablemente y conduce poco a poco a un fortalecimiento de las condensaciones allí donde el gas por casualidad está algo más concentrado. Con el tiempo se forman estructuras ordenadas que desembocan en el proceso de formación de galaxias y estrellas en el universo. La totalidad de estas estructuras está mucho más ordenada que la situación inicial y, por consiguiente, la entropía disminuye por efecto de la gravitación. Ocasionalmente se forman también estrellas cuya luz brilla sobre un planeta, proporcionándole así energía de forma continuada, una energía que producen estas estrellas mediante la fusión nuclear que tiene lugar en su caliente zona interior, cuya densidad aumenta a causa de la gravitación. Cuando se dan las condiciones apropiadas, tal como las encontramos en la Tierra, pueden surgir estructuras mucho más ordenadas, incluso contenidas en formas de vida que consumen la energía que les es suministrada.
Una idea mejor que la de una entropía en crecimiento continuado es en realidad, como afirmaba su creador Ludwig Boltzmann, la de un nivel casi constante, que puede reducirse localmente mediante ciertos procesos físicos, o también por simple casualidad. En este oasis de orden están en marcha asimismo otros procesos que aumentan lentamente la entropía y se aproximan de nuevo al nivel de partida. No obstante, si nos imaginamos el universo desde el punto de vista de un observador externo y metafísico, que no ocupa una posición en el universo, sino que abarca todo lo que hay en él, y también el transcurrir del tiempo en su totalidad, entonces, según los parámetros cosmológicos, el momento presente parece tener en realidad una entropía tremendamente alta. Desde luego, hay muchas posibilidades para el aspecto que podría tener un universo de un tamaño concreto, con una velocidad de expansión y una aceleración determinadas. Para esto son irrelevantes todos los detalles de la distribución exacta de las galaxias, las estrellas y los planetas, o incluso de los átomos, y en este sentido el universo actual es más parecido a un recipiente roto en pequeños pedazos que a uno intacto y construido con precisión. El universo, tal como lo vemos, es solo una de muchas posibilidades, que pueden tener todas, por ejemplo, la misma forma que la radiación cósmica de fondo, o una distribución homogénea de las galaxias a gran escala (como magnitudes cosmológicas idénticas). Por lo tanto, al observarlo como un todo, el universo concuerda con los sistemas cotidianos, en los que estamos acostumbrados a ver un continuo aumento de la entropía.
A menudo los cosmólogos ven aquí un problema, ya que se supone que la entropía ha de ser cada vez más pequeña cuanto más retrocedamos en el tiempo. Esto se hace especialmente difícil si el universo no empezó a existir hace una cantidad finita de tiempo, sino que su existencia se remonta a tiempos tan antiguos como se quiera, posiblemente en una larga sucesión de ciclos que se van alternando, uno de expansión y el siguiente de colapso, como veremos en el capítulo siguiente. Cuanto más atrás sitúa una teoría el momento inicial del universo, tanto menor tuvo que ser la entropía en dicho momento, para poder aumentar continuamente hasta su valor actual. Es decir, se debe proponer un estado inicial muy especial y ordenado, a partir del cual el estado de nuestro universo tal como lo vemos ahora se adaptará con exactitud a una idea determinista (lo que en el lenguaje de los cosmólogos se denomina ajuste fino). Esto puede ser aceptable en sí mismo; cuando se plantea un estado inicial especial, una buena teoría debería proporcionar también una explicación convincente para la causa de dicho estado. Así pues, la pregunta ha cambiado ligeramente: ¿cómo se puede explicar el estado actual del universo, en apariencia tan especial, sin suponer que hubo un estado inicial también muy especial?
Aunque suena problemático, este punto de vista tiene importantes consecuencias, a pesar de ser a menudo tan solo el resultado de una analogía nada fiable. Lo que queremos explicar en cosmología es, por una parte, la imagen que ofrece el universo a grandes escalas y, por otra, las posibilidades de nuestro entorno próximo en el sistema solar, que permite nuestra existencia como forma de vida. Con respecto a esto, disponemos de las observaciones fundamentales que se realizan en el presente y para un futuro cercano. Desde una perspectiva cosmológica, el universo actual solo interesa en cuanto a su estado macroscópico, que se obtiene con independencia de aspectos más detallados, y cuya forma se deduce sin problemas a partir de las teorías cosmológicas disponibles hoy día.
Ciertas observaciones cosmológicas, como la distribución de las galaxias o de la radiación de fondo, determinan unos pocos parámetros como magnitudes colectivas sobre las cuales las posiciones individuales exactas de las estrellas no influyen en absoluto. Pero determinadas características del sistema solar, como, por ejemplo, la distancia de la Tierra al Sol, resultan extremadamente importantes para nuestra existencia, ya que con otros valores, como ya sabemos, haría en la Tierra demasiado calor o demasiado frío para el desarrollo de la vida. Sin embargo, esto también da como resultado tan solo una cantidad limitada de parámetros, que desempeñan el papel de magnitudes colectivas. Hay una pluralidad de estados microscópicos que son compatibles con este estado macroscópico, y dichos estados compatibles, dejando a un lado nuestro sistema solar, solo en algunos detalles situados por debajo de las escalas galácticas se diferencian del estado macroscópico descubierto a través de observaciones cosmológicas. Estos detalles no son importantes en cosmología, salvo en el caso de las características de nuestro sistema solar que resulten esenciales, por ejemplo, para la existencia de la vida.
A un observador situado fuera del universo le resultaría muy especial la configuración actual exacta de todas las galaxias y estrellas, no solo de nuestro sistema solar, sino también de otros sistemas del universo. Llegaría a la conclusión de que dicha configuración tendría que proceder de un estado inicial muy finamente ajustado, fuera cual fuese el momento en que se situara ese inicio. Sin embargo, nosotros no somos ese tipo de observador, que desde luego no puede existir según nuestra idea física del universo. Somos observadores que, por muy audaces que seamos, hemos de sacar nuestras conclusiones desde una posición situada dentro del universo. Por una parte observamos el estado macroscópico del universo en la cosmología y las magnitudes colectivas, y por otro lado vemos también una parte del estado microscópico en la vida cotidiana sobre la Tierra o a través de nuestra propia existencia. Una parte importante de los datos que obtenemos en la observación, aunque puede estar sujeta a las magnitudes colectivas, es desde el punto de vista de la observación cosmológica una caracterización parcial del mundo microscópico.
Por lo tanto, no nos encontramos en una de esas situaciones en la que solo estaríamos interesados por magnitudes macroscópicas, es decir, una situación en la que la entropía es un parámetro importante. En cierto modo, estamos instalados en un cascote de la jarra rota, y este cascote tiene para nosotros exactamente la misma importancia que toda la jarra. Existen innumerables configuraciones para el cascote, aunque son muchas menos las que tienen unos de los cascotes en una forma determinada, que puede ser casual, pero que solo encontramos una vez. Como observadores situados dentro del sistema, que representa la totalidad del universo, intentamos descubrir una parte de los detalles microscópicos, para así eliminar problemas que podrían ser consecuencia de un aumento de la entropía. Vemos con mucha precisión nuestro entorno, lo cual, desde la perspectiva de la cosmología, se correspondería con un criterio microscópico. La configuración de dicho entorno es en realidad muy especial, pero en cualquier caso microscópica y aleatoria. El cascote sobre el cual vivimos ha surgido tal como lo encontramos; no hay nada más que explicar.

3. La flecha del tiempo

Cada instante llega únicamente  para atraer hacia sí mismo al siguiente.
JEAN-PAUL SARTRE, La náusea

La existencia de una flecha del tiempo se considera a menudo como uno de los grandes misterios de la física, y en especial de la cosmología. Ocasionalmente se atribuye a la entropía la causa de esta direccionabilidad del tiempo. Según esto, el desorden global del universo crecería incesantemente y marcaría la diferenciación del futuro con respecto al pasado (o quizá más bien al revés). Si se tiene en cuenta el carácter en parte microscópico de nuestras observaciones en el universo, la entropía queda fuera de consideración como explicación de la dirección del tiempo. La entropía depende siempre del grado de exactitud con que se llevan a cabo las observaciones y de cómo admitamos los resultados de las mismas para una descripción teórica. Es imposible que esto explique el fenómeno cotidiano de vernos continuamente impulsados hacia delante en el tiempo, sin poder dar un paso atrás, ni hacer jamás una pausa, porque, de otro modo, con exactitud atómica en las observaciones y con memoria fotográfica, lo cual nos abriría el camino hacia la física microscópica reversible en el tiempo, podríamos retroceder a épocas anteriores, cosa que es difícil de imaginar.
Antes de entrar en esta cuestión con mayor profundidad, y para evitar malentendidos, se debería aclarar primero qué significa la flecha del tiempo y, lo que es quizá más importante, qué es lo que no significa. Sobre todo hay que plantearse cuál es la razón por la que no podemos invertir a voluntad el sentido de la flecha del tiempo, con independencia de la posibilidad de realizar viajes en el tiempo, lo cual es una cuestión muy estimulante para la fantasía. Aquí no entraré a discutir la posibilidad real de un viaje en el tiempo, pero, durante un viaje de este tipo, entendido en el sentido habitual, se supone que el tiempo no corre hacia atrás, sino que simplemente transcurre de distinta manera para personas diferentes. Una persona o un grupo de personas son encerradas en un recinto limitado que, tras la aplicación de un proceso que rara vez se explica con detalle, llegan al pasado de su entorno. Ni los que realizan este viaje, ni los que se quedan fuera de él, dan un solo paso hacia atrás en el tiempo; lo que sucede es sencillamente que se aísla una zona espacial del mundo exterior y se establece un avance modificado del tiempo. Aunque los viajeros se trasladan al pasado de su entorno, el tiempo sigue avanzando para ellos. En definitiva, conservan la memoria de todo su pasado, pero parte de este se encuentra en el futuro de su entorno, y no se volverán más jóvenes ni morirán cuando alcancen un tiempo anterior a su nacimiento. La pregunta que plantea por qué el tiempo, al contrario que el espacio, está dispuesto como una carretera de un solo carril, es independiente de la cuestión relativa a la posibilidad de los viajes en el tiempo.
¿Por qué no se puede retroceder en el tiempo? En última instancia, esta pregunta se basa únicamente en un malentendido del lenguaje. La experiencia primaria es el movimiento, y no es cierto que nos movamos en el espacio o en el tiempo, sino en el espacio-tiempo. No tiene sentido hablar de un movimiento en el espacio con independencia del tiempo, o de un desplazamiento en el tiempo que sea independiente del espacio. El movimiento consiste solamente en un cambio de posición en el espacio durante un intervalo de tiempo dado. El espacio y el tiempo están ya ligados indisolublemente el uno con el otro incluso antes de que nos embarquemos en la teoría de la relatividad. El movimiento sería imposible si tuviéramos que decidirnos por una dirección espacial o una dirección temporal. El tiempo elemental que se deduce de la realidad del movimiento, con independencia de que la vida introduzca conceptos tan refinados como la memoria, no es un parámetro rígido, sino simplemente una forma de indicar los cambios y el movimiento.
Como se ha reflejado al principio de este capítulo, en física se utiliza a menudo la idea de un proceso que avanza en un tiempo matemático, y así se organizan a menudo los cálculos de la física teórica. Pero lo que realmente se mide son las relaciones entre unas magnitudes métricas y otras. Desde luego, el tiempo se mide mediante un aparato, concretamente un reloj: un procedimiento de medición nos da, por ejemplo, la relación entre la posición de un objeto y las manecillas de un reloj. La introducción de un valor del tiempo es un paso adicional definido convencionalmente. En la cosmología no se mide la expansión del universo en función del tiempo, aunque esto se deduzca en principio de las soluciones de la teoría de la relatividad general. Se mide, por ejemplo, la velocidad de alejamiento de una estrella mediante los desplazamientos de las frecuencias en su espectro de emisión, y también su distancia a la Tierra. Con ayuda de la teoría de la relatividad general, se puede traducir esta relación en una dependencia temporal de la expansión del universo, y compararla finalmente con las soluciones matemáticas. Es precisamente esta comparación lo que, a través de mediciones de muchas supernovas, ha aportado indicios sobre la ya discutida existencia de la energía oscura. Como en este ejemplo, una descripción relacional del movimiento refleja con mayor realismo el proceso de medición, dado que en dicha descripción se expresa la relación entre unas magnitudes y otras, y se lleva a cabo la comparación directa con las observaciones. Es sobre todo en la gravitación cuántica donde esta idea desempeña un papel muy importante. Sin embargo, esto no aporta respuesta alguna para la pregunta que nos planteamos en este capítulo, puesto que también el espacio es relacional y se obtiene a partir de mediciones de distancias entre distintos objetos materiales. Por consiguiente, el comportamiento relacional no explica la aparente diferencia que existe entre el espacio y el tiempo en cuanto a su direccionabilidad.
Puede resultar sorprendente, pero la única alternativa a un tiempo dirigido en el que el espacio y el tiempo no desempeñarían papeles diferentes es, si acaso, la imposibilidad del movimiento. Por lo tanto, queda descartada la posibilidad de que exista un tiempo tal que se pueda elegir entre hacerlo avanzar hacia el futuro o retroceder hacia el pasado; nos quedaríamos literalmente paralizados ante el tormento de tener que elegir. Porque ¿qué significaría optar por retroceder un paso en el tiempo? Lo que me ha sucedido hace cinco minutos es el influjo del universo (incluido mi propio cuerpo) sobre mí cuando me encontraba en unas circunstancias determinadas que caracterizaban mi edad en aquel momento. En circunstancias diferentes impera en cada caso un influjo también diferente que percibimos como flujo del tiempo, ya que el conocimiento del propio cuerpo se ve influido de tal manera que este conserva en la memoria, en parte, las circunstancias del pasado. El tiempo es en sí mismo una magnitud que se abstrae de la realidad: es un parámetro que se elige de manera convencional en su forma específica y se utiliza para identificar los movimientos, que en realidad son relacionales y describen unas relaciones complicadas entre cosas diferentes, pero no entre una cosa y el tiempo. En definitiva, la percepción psicológica del tiempo, siendo un elemento que ordena los contenidos de la memoria, está basada en una convención anclada en un concepto evolutivo, cuya supresión haría imposible discernir cualquier movimiento. Si estuviera permitido un cambio en la dirección del tiempo, esta convención perdería todo fundamento. Es imposible modificar todas estas relaciones mediante una decisión consciente, lo cual sería necesario para retroceder voluntariamente en el tiempo, es decir, para regresar al pasado y a unas circunstancias potencialmente recordadas.
Por consiguiente, si se desea explicar la direccionabilidad del tiempo, se desemboca finalmente en un problema que es mucho más antiguo que la teoría relativista del espacio y el tiempo: el problema de la existencia del movimiento y el cambio. Ya en su época, Parménides fue sensible a esto y vio como única solución la negación total del movimiento, que calificó de pura ilusión. A pesar de las dificultades evidentes de hacer concordar esta idea con las más elementales observaciones, la hipótesis de Parménides mantuvo cierta influencia a través de los siglos, desde su inmediato seguidor Zenón, pasando por los atomistas Leucipo y Demócrito, llegando a filósofos como Schopenhauer e incluso físicos como Schrödinger. En última instancia, este problema sigue latente desde un punto de vista filosófico, pero en este ámbito nos encontramos ya fuera de la física, cuya tarea es describir modificaciones y movimientos cuya existencia da por cierta.
Un último recurso para especular sobre la irreversibilidad de la flecha del tiempo lo encontramos a veces en la cosmología cuántica. Por razones matemáticas, suele ser práctico utilizar como parámetro el volumen del universo para describir de una manera relacional los cambios temporales. Es seguro que en la expansión del universo este tiempo transcurre hacia delante, pero ¿qué sucedería si un día el universo detuviera su expansión y luego se colapsara? Entonces su volumen se reduciría y el cosmos evolucionaría hacia atrás, y con ello quizá también el tiempo. Esta teoría fue formulada por primera vez por Thomas Gold en 1958, antes de la llegada de la cosmología cuántica.
En principio, este comportamiento del volumen es perfectamente posible según la teoría de la relatividad general, aunque los parámetros cosmológicos actuales, tal como parecen constatarse en nuestro universo, no hagan que esto sea probable. ¿Acaso en este punto de inversión retrocede también el tiempo, no por una decisión consciente de un observador situado en el universo, sino por la evolución misma del propio universo? Actualmente hay que admitir la existencia de una remota posibilidad de que se produzca este comportamiento, ya que la naturaleza del tiempo en la gravitación cuántica no está aún del todo clara.
Sin embargo, es mucho más probable que tal inversión de la flecha del tiempo sea simplemente una ilusión generada por la descripción matemática elegida. Cuando se camina sobre la Tierra por un camino que atraviesa el polo norte, la latitud en principio aumenta y, tras cruzar el polo, disminuye. Pero esto no significa que se haya vuelto al camino anterior, ya que los grados de longitud tienen un valor diferente al otro lado del recorrido, más allá del polo norte. Del mismo modo, el punto de inversión del volumen del universo como parámetro del tiempo en un colapso no significaría que el tiempo transcurre a la inversa. Simplemente, como en el caso de los grados de longitud, habría que usar otros parámetros para poder distinguir entre el universo antes y después de la expansión máxima. Por lo tanto, tampoco la cosmología cuántica ofrece razones sólidas para pensar en una inversión del sentido del tiempo.

Todas las situaciones de decadencia han resultado ser profecías falsas, como en tantos otros casos. Es cierto que la economía universal estaba casi colapsada, aunque esta predicción se podía cumplir por sí misma a causa de todas las informaciones que generaban pánico. Hacía mucho que la radiación de fondo de las ondas gravitatorias se medía con métodos tan sensibles que la composición del universo era ya conocida con suficiente exactitud para predecir su futuro. Tras la reducción de la aceleración a causa de la energía oscura transitoria, también la expansión se había ralentizado y se encontraba ya a punto de detenerse completamente y de dejar paso a un colapso de todo el universo. El momento exacto en que podía suceder esto no se conocía con seguridad, pero todas las estimaciones daban un valor del orden de unas pocas décadas. En principio el proceso no parecía amenazador, porque podrían pasar miles de millones de años hasta que el universo se volviera demasiado caliente y denso para poder sobrevivir. Por el contrario, el regreso a un universo más caliente parecía muy deseable.
Sin embargo, se alzaban cada vez más fuertes las voces que exageraban este retroceso de la expansión, identificándolo con el fin del mundo. A pesar del éxito de la teoría de Schlingen, había una pregunta que seguía sin respuesta: ¿qué es exactamente el tiempo, es irreversible en su avance o va quizá ligado a la evolución del universo? Se recordaba que las viejas teorías habían relacionado la dirección del tiempo con la expansión del universo, hasta tal punto que se postulaba una inversión de la flecha del tiempo en un universo que se colapsaba. Entonces se podría recordar el futuro y predecir el pasado. Estas expectativas tenían su origen en ciertas formas de la cosmología cuántica cuya incidencia en un universo tan grande era normalmente escasa, y que fueron insuficientemente comprobadas a pesar de todos los demás avances de la época. Se recordó entonces vagamente la lejana posibilidad de inversión de la flecha del tiempo, y esta idea encontró una amplia difusión, dado su carácter esotérico.
A raíz de esto se consideró lógico derrochar todos los ahorros (al menos en la medida en que lo permitían los procesos vitales artificialmente ralentizados para sobrevivir en aquel universo frío y vacío). Si la dirección del tiempo cambia y este transcurre al revés, las inversiones y los intereses pierden inmediatamente todo su sentido. En vez de invertir habría que gastar todo el dinero y vivir a lo grande una vida a la que se volverá tras cambiar de nuevo el sentido del tiempo. Muchos siguieron este principio a la espera del colapso, y esto produjo una expansión económica de una magnitud nunca vista, ocasionada por la alta demanda de bienes de consumo. Pero, cuando finalmente se detuvo la expansión del universo y este empezó a colapsarse, ¡no se produjo la inversión de la flecha del tiempo! La única consecuencia cosmológica fue que el universo, en un proceso lento pero imparable, reducía su tamaño y volvía a ser más caliente y cada vez más denso, más macizo: el río del tiempo crecía de nuevo…

Capítulo 9
Cosmogonía

No es lo místicocómosea el mundo, sinoquésea el mundo.
LUDWIG WITTGENSTEIN, Tractatus logico-philosophicus

Contenido:
  1. Analogías
  2. Mitos
  3. Teorías
    3.1. La filosofía presocrática
    3.2. Cosmología física
    3.3. Cosmología cuántica de bucles
Pero la economía estaba totalmente hundida; la sociedad estaba enfrentada, ya que la riqueza se encontraba en manos de una minoría que se había resistido a seguir el llamamiento al derroche. En consecuencia, las civilizaciones iban degenerando y ya solo esperaban el ocaso en medio del calor de un cosmos que se reducía cada vez más. La economía se recuperaba a duras penas, pero tras unos cuantos miles de millones de años llegó finalmente a estar garantizada la expansión, ya que en aquel universo recalentado había un exceso de energía. La tecnología y la economía, que estaban adaptadas a la antigua aridez, se encontraban en plena ebullición y producían riquezas nunca vistas. Las civilizaciones podían por fin utilizar con pleno rendimiento los conocimientos que habían acumulado durante la turbulenta y ya casi olvidada expansión de sus años jóvenes, y que se habían salvado durante la crisis del colapso. Al ser pocas las contrariedades de la vida cotidiana, resultaba fácil fabricar máquinas altamente desarrolladas, y además se disponía de energía suficiente. Empezó una época dorada en la que casi no había que trabajar, pero la cultura y la ciencia florecieron hasta unas cotas insólitas.
Sin embargo, todo esto sucedía con conocimiento de la finitud y el carácter efímero de cualquier tipo de vida en un universo que se encogía. Se decidió utilizar los recursos disponibles para crear una baliza cultural, pensando de una manera quizá presuntuosa que aquel saber podría ser útil para el universo, o para algo contenido en él. Los avances culturales, así como los rasgos moleculares y anatómicos de las civilizaciones supervivientes fueron codificados en una potente señal de ondas gravitatorias para salvar a través del denso universo, si no la vida, al menos las ideas, siguiendo el modelo de la legendaria sonda Kruskal, bien entendido que esta información se transmitiría mientras existiera el tiempo…

Si por fin la teoría avanza algún día hasta una posible comprensión del big bang, así como del resto del universo, no se podrá renunciar al intento de explicar la aparición del mundo. En realidad, lo que hay por ahora es que las interpretaciones de las distintas teorías y de sus resultados matemáticos con respecto al conocimiento global del universo producen un alto grado de fascinación. Pero en el hecho de interpretar de una forma demasiado directa y con intención de generalizar se esconde un gran peligro, no solo porque las teorías relativas a estos temas van a seguir en mantillas durante cierto tiempo, sino principalmente porque la física, incluso dejando a un lado a su hermana mayor la filosofía, no está sola en esta empresa; además, se encuentra inmersa en un mercado saturado de bagatelas. Sin embargo, la posibilidad de comparar distintos modelos del universo tiene cierto encanto y, sin duda, también algún efecto didáctico.
Sorprende la frecuencia con que aparecen aquí claros paralelismos entre ideas procedentes de distintas tradiciones, lo cual desde luego no es atribuible a una verdad luminosa, sino más bien a la falta de agudeza que muestra la fantasía humana, a pesar de todos sus excesos. Mediante las analogías presentadas en este capítulo a modo de ejemplo no se pretende sugerir en modo alguno una relación estricta entre las distintas maneras de abordar el tema, pues, a pesar de los parecidos superficiales, las teorías se diferencian en sus detalles, por no hablar de sus mensajes.

1. Analogías

Las comparaciones nunca son decisivas, esto es cierto, pero pueden hacer que las cosas resulten más familiares.
SIGMUNDFREUD,Nuevas conferencias de introducción al psicoanálisis

En cierto sentido, los escenarios del nacimiento del universo se comportan de manera similar al modelo atómico de la materia. Como es sabido, el nombre y el concepto de átomo fueron propuestos hace unos 2.500 años por los presocráticos Leucipo y Demócrito, para quedar establecidos en términos de la física a principios del siglo XX, en gran medida gracias a las aportaciones de Einstein en 1905, año en que publicó la teoría de la relatividad especial y la hipótesis de los fotones (teoría del efecto fotoeléctrico). En ambos casos, tanto en el modelo moderno del átomo como en el antiguo, se postula y se argumenta que los componentes básicos de la materia son unos cuerpos no divisibles: los átomos. Sin embargo, los detalles y la motivación de la teoría atómica presocrática eran muy distintos del concepto físico basado en observaciones, aunque en la actualidad, a la luz de los nuevos conocimientos, se prescinde definitivamente de la divisibilidad del átomo físico. Los atomistas desarrollaron su concepto de átomo como respuesta a la inquietante idea de Parménides de que todo movimiento es una ilusión. En pocas palabras, Parménides fundamentaba esta tesis aparentemente descabellada en unos pocos pasos lógicos basados en la ingeniosa idea de que la nada no existe. Entonces tampoco puede existir el movimiento, ya que para ello sería necesario que un cuerpo pasara a ocupar una posición en la que anteriormente se encontraba esa nada que no existe. Esta paradoja lógica que, como ya se ha dicho, después de Parménides fue corroborada sobre todo por Zenón, no encontró el respaldo de los atomistas, que la rechazaron partiendo sencillamente del supuesto de que es un hecho la existencia del espacio vacío en el que se mueven los átomos y la materia se forma.
Esta impresionante evolución de la teoría filosófica se diferencia radicalmente del proceso que llevó al concepto de átomo en la física moderna. Hoy día estamos acostumbrados a representaciones e imágenes directas, como, por ejemplo, las del microscopio de barrido de efecto túnel (véase la figura 27), que, aunque no son del todo nítidas, muestran de manera inconfundible la estructura de la materia, formada por átomos individuales.

27.jpg
Figura 27: Cadena de átomos de oro sobre una superficie de silicio, fotografiada mediante un microscopio de barrido de efecto túnel.

Sin embargo, el concepto de átomo que se impuso mucho antes en la física no estuvo basado en observaciones directas, sino indirectas. Por poner un caso, Einstein basó de manera cuantitativa su famoso trabajo de 1905 sobre el movimiento browniano (una ligera vibración microscópica de pequeñas partículas suspendidas en un medio fluido, que podrían ser, por ejemplo, granos de polen) en unos choques irregulares entre partículas de fluido. No solo tuvo la audacia de presentar este descubrimiento como una tesis, sino que consiguió incluso fundamentarla matemáticamente, relacionando mediante una ecuación la velocidad de la vibración con ciertas propiedades de las partículas que se hallan en el medio fluido. En los años siguientes, una comparación precisa con varias observaciones llevó rápidamente al reconocimiento general de la descripción del átomo. Tuvieron que pasar cincuenta años para que Erwin Müller, de la Universidad del Estado de Pensilvania, pudiera obtener las primeras imágenes directas con resolución atómica utilizando la microscopía de iones en campo desarrollada por él mismo (véase la figura 28).

28.jpg
Figura 28: La punta de la aguja de wolframio de un microscopio de iones en campo nos muestra una estructura atómica.

Algo similar sucede con las descripciones del nacimiento del universo. A lo largo de la historia de la cultura se han formulado muchas hipótesis al respecto, a menudo embellecidas hasta el último detalle. Desde hace algún tiempo, la física se prepara para dar respuesta a esta cuestión y lo hace, como siempre, aplicando los métodos que habitualmente le han deparado éxitos: observaciones sensibles, aunque quizá indirectas, acompañadas de sólidos fundamentos teóricos. Si lo comparamos con la evolución del concepto de átomo, nos encontramos ahora en una fase en la que no hay imágenes directas, y cabe la duda de si algún día se dispondrá de ellas para explicar el nacimiento del universo. Lo más aproximado que nos llega actualmente son las descripciones de la radiación cósmica de fondo originada poco después del big bang, pero esto también es posterior al big bang. La imagen directa del propio big bang o del universo anterior a este sigue siendo una utopía, y esto se debe a la densidad de esta fase, así como a sus propiedades teórico-cuánticas. Sin embargo, del mismo modo que las observaciones indirectas del movimiento browniano confirmaron el concepto físico del átomo, así también mediante mediciones sensibles de la radiación cósmica de fondo de microondas y de otras radiaciones es posible obtener una conclusión indirecta sobre el origen del universo. Aún no hemos llegado tan lejos, pero el hecho de que en principio sean posibles las comprobaciones nos permite utilizar las teorías actuales con fines especulativos.

2. Mitos

¡La gente va allí después de morir!
Una niña de Joshimath

A la hora de clasificar los mitos relativos al nacimiento del universo hay que distinguir entre una creación primaria y otra secundaria; en la figura 30 se ofrece una ilustración que lo explica. La creación primaria proporciona una razón para el nacimiento del universo, mientras que la secundaria da una razón para la forma del universo tal como ahora lo conocemos. Ambas pueden coincidir, pero también pueden considerarse por separado.
Las creaciones primaria y secundaria son idénticas para las concepciones lineales del universo que comienzan en un momento de la creación, a partir del cual avanzan constantemente para culminar posiblemente en un final apocalíptico. Esto es lo que dice la tradición cristiana, pero se puede encontrar también en el contexto cultural de China.
Sin embargo, está más difundida la separación entre la creación primaria y la secundaria, una idea de la que suelen surgir unas descripciones cíclicas del universo. Esto es lo que se manifiesta sobre todo en el hinduismo: fue Brahma quien llevó a cabo la creación primaria del universo, a la que siguieron ciclos sucesivos de destrucción y nueva creación.
La destrucción y la creación son inseparables y, por lo tanto, van unidas en los poderes de los dioses. Esto queda claro al explicar por qué el dios Ganesha tiene cabeza de elefante[31] (véase la figura 29). Ganesha es hijo de Shiva y Parvati, que son ambos divinidades y, por consiguiente, llevan una vida familiar más bien insólita. Un día, durante una larga ausencia de Shiva, Parvati da a luz a Ganesha, que crece rápidamente hasta convertirse en un fuerte y apuesto hijo de los dioses.

29.jpg
Figura 29: Ganesha con su colmillo roto.

Cuando Shiva regresa a su hogar, ve a un joven que le resulta desconocido, y que es precisamente Ganesha, al que Parvati ha encargado la vigilancia de la casa. En cumplimiento de este encargo, Ganesha cierra el paso a Shiva, que pretende entrar en su propia casa y, en la pelea por conseguirlo, corta la cabeza a Ganesha. Parvati se da cuenta del error demasiado tarde: Shiva acaba de despedazar a su propio hijo y solo podrá volver a entrar en la casa cuando haya reparado su falta. Shiva se va en busca de una solución y lo primero que encuentra es un elefante al que corta la cabeza, y se la coloca a Ganesha. (A pesar de ser un dios, no es capaz de viajar hacia atrás en el tiempo para reparar el error evitando la pelea; quizá habría que valorar esto como un indicio para la discusión sobre la flecha del tiempo).
Además de estos bellos ejemplos relativos a los poderes divinos, encontramos también una explicación extremadamente detallada de la sucesión temporal de los ciclos que se producen entre la creación secundaria y la subsiguiente destrucción. Se precisan incluso las duraciones cuantitativas de los ciclos en años, pero el fundamento de las mismas sigue siendo una incógnita. En contraposición con estos bellos relatos característicos de la cultura india, destaca por su simplicidad y su carácter abstracto un símbolo llamado esvástica o cruz gamada. Con la forma estilizada de una rueda, simboliza la evolución cíclica del universo, y también la flecha del tiempo según el sentido de sus brazos.

30.jpgFigura 30: Creación primaria y creación secundaria: la creación primaria es la idea del artista y su realización. Una vez que se expone, tiene lugar la creación secundaria de una manera mucho más fácil y casi automática (en este caso raspando la pared blanca sobre una placa de mármol negro colocada adecuadamente), lo cual conduce a la formación de estructuras, como en la creación del universo. (Dispositivo per creare spazio [Dispositivo para crear espacio], 2007, mármol negro belga, mármol blanco, papel de lija, polvo de yeso [pared], 121×110×5 cm. Proyecto y realización de Gianni Caravaggio. Fotografía de Paul Andriesse).

Es muy conocida la relación entre la visión cíclica del universo y la reencarnación, o más en general una existencia terrena después de la muerte. En vez de una discusión minuciosa, basta aquí con relatar una anécdota: tras una conferencia pronunciada en el estado de Roorkee, situado a unos cien kilómetros al norte de Delhi, me decidí a aprovechar los tres días que faltaban para el viaje de regreso haciendo una excursión por el cercano Himalaya junto con dos estudiantes indios que yo conocía. Primero nos informamos hablando con algunos científicos del país que conocían la zona, y luego nos pusimos en camino, sin tener muy clara la meta, siguiendo una ruta que transcurría a lo largo del Ganges. Viajábamos con los medios de transporte habituales en la zona y por una carretera de montaña que en algunos tramos estaba construida de manera bastante deficiente, por lo que el trayecto no fue todo lo directo que esperábamos, pero recorrimos el impresionante valle del Ganges y, a pesar de perder el rumbo unas cuantas veces, tras una jornada y media de viaje, llegamos a mediodía del día siguiente al pueblo de montaña de Joshimath, no lejos de Gangroti, el glacial donde nace el Ganges. Lo primero que hicimos fue tomar un teleférico hasta lo alto, desde donde se veía una panorámica de las impresionantes cadenas montañosas que rodeaban aquel lugar. Nuestra idea era bajar, antes de que se acabara el día, hasta el valle para ver el Ganges, que allí, en comparación con su forma más allá del Himalaya, no es más que un pequeño torrente, a veces salvaje.
Así pues, volvimos al pueblo y lo atravesamos por un camino que serpenteaba descendiendo por la ladera. En realidad, desde allí no veíamos el Ganges, porque estaba oculto tras el horizonte del valle, que el propio río había tallado durante milenios hasta darle la forma de una V curvada con una pronunciada forma convexa. Por consiguiente, al descender por la ladera, entre el caminante y el río se interpone siempre una parte de la montaña que se está bajando. En gran medida, el paisaje recuerda a veces los Alpes, pero inmediatamente vuelve uno a quedarse impresionado por el exotismo del paisaje. En la zona alta nos encontrábamos en un bosque de altos árboles cubiertos por tupidas enredaderas y caminábamos sobre una espesa capa de nieve reblandecida por el sol de marzo, sobre la cual revoloteaban mariposas blancas. En el valle pasábamos a veces junto a alguna vaca que se encontraba al borde del camino y dejábamos atrás grupos de niños que interrumpían momentáneamente sus juegos para contemplar al centroeuropeo, que a ellos, por supuesto, les resultaba exótico.
También observamos en una ocasión un grupo de niñas que estaban vestidas con ropas multicolores y charlaban entre ellas junto al camino, sobre el tejado de una casa construida algo más abajo en la ladera. A la mayor de ellas se dirigió Rakesh, uno de mis acompañantes, para preguntarle por dónde se iba al río, y lo hizo en hindi, como era normal.

31.jpg
Figura 31: El valle del Ganges a la altura de Joshimath. Fotografía de Martin Bojowald.

En aquella zona no era frecuente que la gente hablara inglés, por lo que no pude seguir la conversación, aparentemente animada, que ambos sostuvieron. Pero Rakesh me refirió más tarde su sorprendente contenido: la niña no conseguía entender por qué queríamos bajar al río y explicó su extrañeza diciendo: «¡La gente va allí después de morir!».
El significado de esta frase no estaba claro para mí, pero tampoco para mis compañeros de viaje, que sabían lo suyo sobre hinduismo. ¿Se trataba simplemente de una broma de las que se suelen gastar a los forasteros? ¿O era una historia de miedo que los padres contaban a sus hijos para impedir que se pusieran quizá en peligro bajando al río? ¿Pero no podría esto precisamente motivar a los más aventureros a hacerlo? Mientras continuábamos andando por el camino no dejábamos de cavilar sobre aquella frase enigmática que la niña había dicho con tanto convencimiento. El río seguía estando detrás del horizonte que nos marcaba la ladera. Iba oscureciendo poco a poco, y las nubes empezaban a cubrir la cima, donde permanecerían hasta el amanecer. Por la noche empezó a llover, y en aquel momento no sabíamos si a la mañana siguiente los autobuses podrían circular por las carreteras para llevarnos a Delhi en un fastidioso viaje de dieciocho horas, justo a tiempo para tomar los trenes o aviones que nos trasladarían a nuestros lejanos países. A causa de la oscuridad decidimos dar la vuelta, sin haber llegado a vislumbrar en el valle aquella laguna Estigia de los indios. Igual de oculto quedó para nosotros el significado preciso de lo que la niña de Joshimath nos había dicho. Sin embargo, creo que simboliza la idea cíclica del universo trasladada a una existencia terrenal después de morir, estrechamente vinculada con las realidades locales de la naturaleza.

32.jpg
Figura 32: Calendario maya con forma circular.

Muchas otras culturas optaron por una idea cíclica del universo, lo cual no es sorprendente si se tiene en cuenta que hay una mayoría de fenómenos cíclicos que caracterizan a la naturaleza (como el transcurso de los días). Precisamente este transcurrir de los días, y también el Sol, desempeñaba un importante papel en el antiguo Egipto. El dios del Sol cruza el cielo, como si navegara sobre las aguas, y cada noche debe enfrentarse a grandes peligros que amenazan con impedirle amanecer. Por lo tanto, en ningún caso se puede excluir que los ciclos de los días acaben en algún momento en algo parecido a una singularidad. También desde un punto de vista cosmológico, existe esa «primera vez» de la creación primaria, seguida de una infinitud de ciclos. Además, la cultura estuvo fuertemente influida por las crecidas periódicas del Nilo. Estos sucesos tan importantes para la vida se incorporan fácilmente a una visión del mundo más abstracta. También en el continente americano se encuentra este tipo de concepción, por ejemplo en los mayas y los aztecas, que representaban el calendario en forma de círculo, haciendo así evidente el curso cíclico del tiempo (véase la figura 32).
Asimismo, en los primeros tiempos de la cultura europea los conceptos cíclicos desempeñaron un papel decisivo, a pesar de la ocasional impronta cristiana, que sugeriría más bien una visión lineal de la cosmogonía. La filosofía y la ciencia occidentales nacieron y tomaron un significativo impulso en la Grecia presocrática. Ya en Hesíodo encontramos las cuatro eras del universo, un concepto que evidentemente es cíclico. (Dicho sea de paso, también aquí se ven vestigios de una idea discreta del tiempo, sobre todo en la representación de una hoz, como en la figura 33, donde se ve una imagen de Cronos, que, con cada pasada de esta herramienta, acorta los hilos de la vida, segándoles un trozo fijo).

33.jpg
Figura 33: Cronos (o Saturno) representado con la hoz. Simboliza el paso del tiempo como magnitud discreta.

Estos mitos influyeron en la filosofía presocrática, que se esforzó por esbozar un concepto del universo con fundamentos lógicos. Ya se ha mencionado la visión estática de Parménides, que, a causa de la ausencia total de cambios, no es cíclica, ni tampoco lineal. En los otros filósofos presocráticos se encuentran casi todas las posibilidades de visión del mundo que uno pueda imaginarse. Puesto que aquí abandonamos ya la época de los mitos y entramos en los albores del Occidente filosófico y científico, en la próxima sección hablaré sobre las ideas de los presocráticos.
Ocasionalmente, nos encontramos con el hecho de que las diferencias entre las concepciones fundamentalmente lineales y cíclicas del universo desaparecen también en el nivel social de las culturas. Las concepciones cíclicas acaban a menudo en un contexto de tendencia al fatalismo, ya que un transcurso cíclico del tiempo no premiaría determinados esfuerzos. Este eterno retorno preocupó también a Nietzsche. En cambio, las concepciones lineales en ocasiones se presentan asociadas a un estímulo para la innovación. (A menudo se recuerda esta idea, por ejemplo, en algunos informes sobre la industria india de los programas informáticos, que, aunque utiliza y transforma las tecnologías existentes, no tiene facilidad para desarrollar otras nuevas. Descubrí esta problemática por primera vez cuando me la planteó en tono de autocrítica un colega indio, que, sin embargo, podía constituir por sí mismo un contra ejemplo para poner en duda esta generalización demasiado drástica). Pero todo esto es una inadmisible generalización realizada a partir de casos individuales a los que se puede contraponer fácilmente otros ejemplos que conducen a la conclusión contraria. Por ejemplo, en Europa los importantes inicios de la filosofía, cuya influencia llega en parte hasta nuestros días, trajeron consigo unas concepciones del universo predominantemente cíclicas, mientras que la posterior tradición cristiana, aun siendo lineal, no solo no consiguió impedir la paralización de los avances científicos durante la Edad Media, sino que, por el contrario, la propició ampliamente.

3. Teorías

Awake! (not Greece — She isawake!)
LORD BYRON

Al principio es difícil distinguir entre los mitos y las construcciones teóricas filosóficas o científicas. Por ejemplo, en la obra de Tales (hacia 580 a. C.) aparece la idea del agua como materia primigenia, por lo que esta ha de figurar de forma destacada entre los cuatro elementos. La importancia de esta idea no se debe tanto a su contenido como al hecho de que con los filósofos posteriores produjo una larga cadena de diversas hipótesis que fueron perfeccionándose rápidamente y se estimularon unas a otras. Lo más sorprendente es que en una mirada retrospectiva es posible reencontrar en esa cadena de ideas muchos componentes de la moderna visión cosmológica del universo.

3.1. La filosofía presocrática
Ya en la obra de Anaximandro, que era unos pocos años más joven que Tales, aparece un gran paso hacia la abstracción: el origen del universo no se basa en una materia concreta, sino que es lo ilimitado (ápeiron). Además, se observa en este filósofo cierto concepto de simetría, porque lo ilimitado como origen es para Anaximandro también algo que carece de estructura y, como consecuencia lógica de esto, está en equilibrio. Las estructuras empiezan a formarse en el devenir del universo, pero al final este vuelve al estado ilimitado que tenía en un principio: «El principio de todas las cosas es lo ilimitado. A partir de esto se generan, y es también allí donde van necesariamente a morir». Esto muestra grosso modo muchos elementos de un (sencillo) concepto cíclico del universo, como sucede en la moderna cosmología cuántica.
Asimismo, es importante el papel que desempeña la simetría (realizada aquí a través de la falta de estructuras) como fundamento de una gran simplificación de las soluciones en condiciones generales. Sobre la idea de Anaximandro relativa a la falta de estructuras, dice Aristóteles lo siguiente: «Porque una cosa que se encuentra en el centro (del universo) en una relación de simetría con respecto a los bordes más externos no tiene motivo alguno para moverse hacia arriba, hacia abajo o (quizá) lateralmente. Y, como no puede avanzar al mismo tiempo en direcciones opuestas, ha de permanecer en reposo». Esto recuerda mucho a los argumentos que utilizan la simetría, tal como suelen usarse a menudo en la física teórica. Por ejemplo, se podría resolver una complicada ecuación diferencial con unas condiciones iniciales homogéneas y sin estructura, para descubrir al final que la solución carece de movimiento. Sin embargo, esto es mucho más fácil si se reconoce la simetría y, al igual que Anaximandro y Aristóteles, no se ve desde el principio motivo alguno para que haya movimiento. Estos argumentos que aplican la simetría, haciéndolo a veces de una manera muy complicada, desempeñan un importante papel en la física.
Unos setenta años después de Tales, el devenir se situaba en el centro de la filosofía de Heráclito: «No veo otra cosa que no sea el devenir. ¡No os dejéis engañar! Se debe a vuestra corta visión, y no a la esencia de las cosas, el hecho de que creáis ver a veces tierra firme en el mar del devenir y el transcurrir». Solo mediante la observación directa de la expansión del universo, es decir, de las velocidades con que se alejan las galaxias remotas, ha podido llegar la cosmología moderna al amplio devenir del cosmos. También Einstein fue engañado por una visión demasiado corta, y trató de encontrar soluciones estadísticas de volumen constante en su teoría de la relatividad general. Solo pudo conseguirlo introduciendo artificialmente un término suplementario, la llamada constante cosmológica, que, sin embargo, enseguida descartó en virtud de la argumentación de Edwin Hubble sobre la expansión del universo. Hasta tiempos muy recientes no había vuelto a aparecer la constante cosmológica, que ahora desempeña un papel importante (aunque goza de pocas simpatías) en el posible modelado de la energía oscura.
Por otra parte, Heráclito formuló una concepción del universo que era cíclica en sentido estricto, basándola en varios ciclos y relacionándola, al igual que Tales, con uno de los cuatro elementos como materia primigenia. Concretamente, en el caso de Heráclito esta materia es el fuego, que periódicamente destruye universos para luego hacerlos surgir de nuevo: «Este orden universal, el mismo para todos los seres, no lo ha generado ningún dios, ni persona alguna, sino que siempre fue, es y será un fuego eternamente vivo, avivándose y extinguiéndose según proceda». Por lo tanto Heráclito está considerado como un precursor de las ecpirosis que fueron tan populares en la Stoa, las cuales gracias a Justin Khoury, Burt Ovrut, Paul Steinhardt y Neil Turok han vuelto a estar de actualidad, incluso con el mismo nombre, dentro de la cosmología moderna en un modelo creado a partir de la teoría de cuerdas.
Parménides, del cual ya he hablado anteriormente, dio la vuelta a la idea de su contemporáneo Heráclito. Según Parménides, todo cambio es mera ilusión. Es muy sencillo: nada surge ni desaparece. La razón de esto es pura lógica, ya que ningún ser puede proceder de lo que no existe: «Esta conclusión se basa en lo siguiente: una cosa existe o no existe. […] Según esto ¿cómo podría lo existente perdurar en el futuro? ¿Cómo podría haber surgido alguna vez? Porque si surgió, no existirá o tendrá escasa existencia cuando tenga que surgir en el futuro. Por lo tanto, el nacimiento se va extinguiendo y la muerte desaparece». Es imposible surgir de la nada: «Porque la nada es impensable, no se puede hablar de ella, y asimismo nunca podría existir. Entonces ¿qué sentido tendría comenzar antes o después con la nada, y crecer a partir de ella? Por lo tanto, en cualquier caso, la nada no existe en absoluto». Del mismo modo, en la física nos encontramos con un principio y un final de todo, a lo sumo en forma de singularidades, que, por lo tanto, quedan fuera de toda lógica y de cualquier teoría.
Cincuenta años más tarde, Empédocles siguió las huellas de Parménides, pero aportando nuevos elementos. El parentesco es claramente reconocible, por ejemplo, en la siguiente afirmación: «Así como es imposible que algo pueda surgir de lo que no existe, del mismo modo es impracticable e inaudito que lo existente pueda ser aniquilado». A partir de esto se deduce claramente una evolución cíclica del universo: «En la medida en que de este modo suele surgir una cosa a partir de varias, y de la aniquilación de esa cosa nacen varias, se produce una creación, y esta no permanece invariable; pero en la medida en que su variación constante nunca acaba, [los dioses] permanecen imperturbables durante todo el ciclo».
Lo que realmente es nuevo en las teorías de Empédocles es el reconocimiento de una interacción entre dos fuerzas opuestas, tal como es necesario para una situación estable: «Porque cuando [estas dos fuerzas (enemistad y amor)] están presentes, siempre seguirán estándolo y nunca se verán privadas de la infinita eternidad». Por la mención de la enemistad y el amor se ve claro cómo llegó Empédocles a esta conclusión. A partir de la experiencia humana abstrajo rápidamente una cosmología y concibió un elemento decisivo de la física moderna.
Poco antes de la época de Empédocles, concretamente unos cuarenta años después de Heráclito y Parménides, Anaxágoras había aportado una teoría de la formación de estructuras. El estado inicial es homogéneo, como ya lo era para Anaximandro: «Todas las cosas estaban juntas, siendo infinitas tanto su cantidad como su pequeñez. Porque la pequeñez era realmente infinita. Y mientras todas las cosas estuvieron juntas era imposible distinguir cualquiera de ellas con claridad». Por lo tanto, el universo empezó a existir a partir de un estado inicial enormemente simétrico y extraordinariamente sencillo y pobre en estructuras. Al igual que en la cosmología moderna, el problema determinante es cómo de un estado tan simétrico pudieron surgir estructuras tales como las galaxias y las constelaciones; por consiguiente, hay que buscar una causa que pusiera en marcha un fenómeno dinámico realmente complicado. Para Anaxágoras esta causa es el espíritu: «Y sobre todo, aquello que solo tiene un alma, sea grande o pequeño, impera el espíritu. Este también impera sobre todo el movimiento en torbellino, de tal modo que le da el impulso necesario. Y el remolino comenzó en primer lugar a partir de un pequeño punto concreto, pero fue ampliándose y se ampliará aun más. Y el espíritu conocía todo lo que allí se mezclaba y se diferenciaba y se separaba de lo demás. Y el espíritu ponía orden en todo, tal como tendrá que suceder en el futuro y como sucedía [con anterioridad, aunque ahora (ya) no existe] y como sucede [en el presente]».
Dejando a un lado el poderoso determinismo que aquí se manifiesta, esta idea es tremendamente similar a la de la formación inflacionaria de estructuras, en cuyo inicio ha de haber un vacío amorfo, y se ha de avanzar hacia las estructuras mediante fluctuaciones cuánticas. Para el surgimiento de estructuras es decisiva la teoría cuántica, que sustituye al espíritu preconizado por Anaxágoras. En este contexto quizá llama la atención el hecho de que algunos físicos, como Eugene Wigner, hayan atribuido a la conciencia un papel significativo en el proceso de medición de la mecánica cuántica y, por lo tanto, en el colapso de la función de onda. La función de onda debe colapsarse cuando la conciencia (del experimentador o del observador) influye en el sistema cuántico.
Sin embargo, actualmente son una minoría los que sostienen esta opinión, y es precisamente en la cosmología donde resulta discutible. Al fin y al cabo, significaría, en última instancia, que la función de onda de la radiación cósmica de fondo, que partió del vacío inicial, se habría colapsado hace unas pocas décadas, cuando Penzias y Wilson la midieron gracias a una afortunada casualidad. (Salvo que en el universo existiera otra forma de vida que se hubiera adelantado a la humanidad con este descubrimiento y hubiera provocado el colapso antes). La radiación cósmica de fondo desempeñaba un papel importante en el universo primigenio, cuando era mucho más densa que ahora, ya que la compactación gravitatoria impedía densidades menores. Sin ella existirían galaxias de dimensiones mucho menores que las que realmente observamos. Si la radiación actual tuviera su función de onda inicial, sin colapsos, ejercería una interacción totalmente diferente con la materia y cambiaría de manera considerable el proceso de formación de estructuras. Si fuera necesaria la toma de conciencia para el colapso de la función de onda, se podría llegar a la conclusión de que ya en aquellos tiempos remotos una forma material consciente habría realizado observaciones, lo cual no estaría justificado en absoluto, ni siquiera para salvar la interpretación de Wigner.
Finalmente, por lo que respecta a las concepciones del cosmos, es interesante la conclusión relativa a la indivisibilidad, que Parménides dedujo a partir de los mismos principios lógicos en los que se basó para plantear el movimiento como una ilusión: «Tampoco es divisible, porque es totalmente homogéneo. Y nunca hay algo así como un ser más fuerte que pueda impedir su cohesión ni en lo más mínimo; más bien está completamente lleno de aquello que existe. Por eso está plenamente cohesionado; porque un ser se encuentra estrechamente unido al otro». Como ya hemos visto, Zenón intentó hallar fundamentos que apoyaran las hipótesis de Parménides, pero la contradicción con la observación de transformaciones visibles era demasiado evidente.
Esto hizo que finalmente los atomistas, sobre todo Leucipo (discípulo de Zenón, que a su vez era discípulo de Parménides) y Demócrito (algo más joven que Leucipo), pusieran en cuestión de modo sistemático las premisas de Parménides. Es evidente que el movimiento ha de ser posible, y de ahí dedujeron los atomistas como conclusión última que lo que existe es divisible. Entonces lo que existe choca con lo que no existe, y se hace posible esa transformación que en el lenguaje moderno se definiría como movimiento de los átomos en el espacio vacío.
De esta manera, los presocráticos anticiparon, y no solo en la cosmología, muchas preguntas a las que la física moderna podría más tarde responder, por ejemplo, y no fue lo menos importante, mediante los trabajos de Einstein sobre el movimiento molecular browniano. Sin embargo, hay un paso que no dieron los presocráticos: un cuestionamiento de la divisibilidad del tiempo y el espacio en sí mismos. Para esto fue necesario el cambio radical de perspectiva que llegó con la teoría de la relatividad general, que atribuyó al espacio y al tiempo un papel físico.
Pero, por lo demás, en los presocráticos se encuentran la mayoría de los elementos de la cosmología moderna, aunque no todos a la vez en un solo filósofo, sino en hipótesis que se contraponían unas a otras. Al parecer, fue con la llegada de la gravitación cuando realmente entraron en juego por primera vez nuevos elementos. Por ejemplo, se planteó la cuestión de la divisibilidad del tiempo y el espacio con un fundamento científico, y se dedujeron de esto unas concepciones cíclicas del universo, evitando las singularidades de la teoría de la relatividad general. Los fenómenos de gran amplitud espacial quedaron determinados mediante una interacción entre la atracción gravitatoria clásica y la repulsión cuántico-gravitatoria en casos de volúmenes pequeños. Desde un punto de vista cualitativo, esta conclusión no es en absoluto nueva en relación con las concepciones presocráticas, aunque sí tiene un carácter especial la estructura atómica del espacio y el tiempo como causa física, que los presocráticos nunca discutieron. La gravitación cuántica posibilita sobre todo la realización de cálculos explícitos cada vez más minuciosos, y que no se limitan a decorar la concepción general y a quedar como algo que quizá algún día se pueda probar de manera empírica, sino que ocasionalmente incluso dan paso a fenómenos totalmente nuevos. El ejemplo más característico de un componente esencialmente nuevo lo constituye quizá la idea de falta de memoria cósmica, que conduce a una mezcla de características lineales y concepciones cíclicas del universo, porque el final de cualquiera de estos ciclos es entonces algo así como el comienzo de otro nuevo.

3.2. Cosmología física
La ciencia entró relativamente tarde en el asunto de las concepciones cósmicas del universo, y lo hizo impulsada por los recientes avances en la observación de estrellas y galaxias lejanas, así como en los fundamentos teóricos que aportó la teoría de la relatividad general. Poco después de la presentación de las ecuaciones de Einstein, empezó la aportación, primero por parte del propio Einstein, después por Willem de Sitter en 1917 y posteriormente por Alexander Friedmann y Georges Lemaître, de soluciones sencillas que describen la evolución temporal de un universo isotrópico en grandes distancias. En aquella época aún no se sabía nada sobre la expansión del universo, por lo que se buscaban ante todo soluciones que pudieran corresponderse con un conjunto estático de masas. Curiosamente, esto resultaba muy difícil y solo fue posible cuando Einstein introdujo en las ecuaciones, de su propio puño y letra, un término adicional cuya magnitud quedaba determinada por la constante cosmológica.
Más o menos al mismo tiempo comenzaron algunos astrónomos, como Vesto Slipher, a constatar que la mayoría de los objetos tipificados como nebulosas, que eran ligeramente difusos en contraposición con las estrellas, parecían moverse alejándose de nosotros. Desde luego, no se veía el movimiento en sí mismo, pero las nebulosas mostraban sistemáticamente, en comparación con las estrellas, un fuerte desplazamiento hacia el rojo, que según la teoría de la relatividad es atribuible a un movimiento de fuga. Se trata aquí de algo análogo al efecto Doppler, que se da en acústica cuando la sirena de una ambulancia que ha pasado de largo resulta ligeramente diferente del de una que está detenida o se aproxima. De forma similar, la frecuencia de una fuente de luz que se aleja cambia hacia el rojo. Sin embargo, la razón del movimiento de fuga de las nebulosas no estaba clara, ya que ¿por qué ha de suceder que una fuerza actúe únicamente sobre las nebulosas, y no sobre otras estrellas?
El enigma fue resuelto en 1929 por Edwin Hubble, al que la realización de unas mediciones astronómicas precisas le permitió determinar el alejamiento de las nebulosas. Al igual que en observaciones más recientes de la expansión acelerada realizadas con ayuda de unas supernovas, Hubble aprovechó la identificación de unas candelas estándar cuya intensidad lumínica real, que se percibiría en las cercanías de la estrella, podía deducirse a partir de sus propias características. Dado que la luminosidad observada desde lejos se reduce con la distancia, se puede calcular esta distancia a partir de la diferencia entre la luminosidad real y la observada. En las observaciones de Hubble, esas candelas estándar no fueron supernovas, sino unas cefeidas, es decir, unas estrellas variables en las que Henrietta Leavitt había observado una estrecha relación entre la intensidad lumínica y frecuencia de los pulsos emitidos. Hubble encontró numerosas cefeidas en algunas de las nebulosas conocidas, y así, a partir de la frecuencia de sus pulsos, pudo determinar primero su intensidad lumínica real y luego la distancia a la que estaba la nebulosa, con el resultado, entonces extremadamente sorprendente, de que aquellas nebulosas se encontraban a gran distancia fuera de la Vía Láctea. En consecuencia, pudo afirmar que las nebulosas son difusas únicamente porque están formadas por innumerables estrellas que se encuentran a gran distancia. Las nebulosas no son sino galaxias independientes, por lo que Hubble, mediante sus observaciones, amplió el conocimiento del cosmos mucho más allá de los límites de la Vía Láctea.
Además, el enigma de la velocidad de alejamiento se explicaba por el hecho de que los objetos más lejanos, independientemente de su naturaleza, se desplazan alejándose de nosotros con mayor rapidez que los objetos cercanos. En el aspecto cuantitativo, Hubble halló una relación lineal entre la velocidad de alejamiento y la distancia a la que se encuentran los cuerpos celestes. La poco halagadora conclusión de que somos tan impopulares en el universo que ni siquiera las galaxias soportan nuestra proximidad puede soslayarse fácilmente suponiendo que existe una expansión homogénea de todo el universo en su conjunto, es decir, del propio espacio. Según esto, las galaxias no se mueven separándose de nosotros o encaminándose hacia algún punto, sino que el espacio que hay entre ellas y nosotros se expande: cada segmento de una línea trazada entre nosotros y una galaxia cualquiera se alargará en un tiempo dado multiplicándose por el mismo factor, por lo que la variación de la separación es proporcional a la distancia o lejanía. Así pues, las observaciones concuerdan de una manera cualitativamente fácil con las soluciones cosmológicas de la teoría de la relatividad general, y desde luego sin necesidad de aplicar una constante cosmológica. (En primer lugar, unas observaciones muy precisas realizadas en los últimos años han corroborado la ya descrita aceleración de la expansión a causa de la energía oscura, para la cual se necesita una aportación especial, que se comporte de manera parecida a como funciona el término de una constante cosmológica). Por lo tanto, se puede confiar en la teoría, incluso cuando se aplica a unas distancias cosmológicas tan grandes. Este es el momento en que nació la cosmología moderna.
Sin embargo, las soluciones tenían un grave defecto estético: al retroceder en el tiempo, daban para tiempos finitos unos valores infinitamente altos de la densidad de la materia en el universo en una época en que todo el espacio se había concentrado en un solo punto. En este punto, en la conocida singularidad, dejaban de tener sentido las ecuaciones de Einstein; por lo tanto, el punto queda excluido de la física que la teoría describe. No obstante, se ha intentado a menudo interpretar esta singularidad como un punto de partida del universo, en cierto modo como la prueba científica de una concepción lineal del universo. Pero, si nos basamos solo en la teoría clásica, no están permitidas estas audaces conclusiones; la singularidad muestra claramente que la teoría no se puede aplicar de ningún modo en este punto.
Lo único que puede ser de utilidad en este caso es una ampliación de la teoría que describa de algún modo las soluciones relativas a la expansión, pero sin tocar la singularidad. Solo una teoría así podría mostrar si el punto temporal de la singularidad clásica desempeña el papel de un punto de partida o si el tiempo físico precede a la singularidad, es decir, si se remonta a antes del big bang. Pronto se vio que la teoría cuántica podía considerarse como un componente esencial de una ampliación de la teoría de la relatividad general, pero esto se abordó muy lentamente a causa de las fuertes complicaciones matemáticas. Las primeras versiones de la cosmología cuántica dieron ya la idea de que, con esta perspectiva, podría obtenerse un inicio que no fuera una singularidad. Sin embargo, no se puso en cuestión la naturaleza de la singularidad como borde temporal del espacio-tiempo, y simplemente se intentó disimular en cierto modo el comportamiento singular mediante la indeterminación de la teoría cuántica. Fueron sobre todo Jim Hartle y Stephen Hawking por una parte, y Alex Vilenkin por otra, quienes desarrollaron estas ideas durante la década de 1980, siguiendo distintos modelos que en el siguiente capítulo explicaré con más detalle.
Con independencia de esto, se propuso toda una serie de concepciones, parte de ellas cíclicas, en las que se postulaba un determinado comportamiento de la materia o de la teoría cuántica en la fase del big bang. Durante la crisis económica mundial de la década de 1930, cuando todo hacía pensar que el crecimiento de la economía no podía ser eterno, Richard Tolman fue el primer físico que investigó la posibilidad de los universos cíclicos, es decir, universos que se expandían y luego se colapsaban una y otra vez. Hasta hoy mismo, sus cuestionamientos, principalmente el del papel del crecimiento de la entropía en un universo cíclico, no han dejado de dar pie para nuevas investigaciones. Posteriormente, en 1979, Mario Novello y José Salim, y con independencia de estos V. Melnikov y S. Orlov, propusieron ciertos mecanismos concretos para el cambio repentino de los valles cósmicos (ideas que, por ejemplo, en 1996 llevaron al desarrollo de una concepción completa del universo, en la que la estructura surge en una fase de inflación sin necesidad de una presión negativa). Después se dedujeron otras consecuencias cosmológicas en varios trabajos de Patrick Peter y Nelson Pinto-Neto. Sin embargo, muchas de estas investigaciones se limitaron a los más sencillos universos isotrópicos y no son válidas en general a causa de la necesidad de propiedades especiales. También la teoría de cuerdas ha descubierto unas concepciones demasiado cíclicas, que fueron difundidas por Gabriele Veneziano, así como también por Paul Steinhardt y Neil Turok, sin que hasta ahora hayan sido fundamentadas de manera completa.
Con la llegada de la gravitación cuántica de bucles surgió una nueva posibilidad de abordar este problema. Aunque por ahora no está completa, se dispone aquí de una teoría cuántica de la gravitación que es independiente de hipótesis tales como la isotropía cosmológica. El hallazgo de soluciones concretas se presentaba extraordinariamente difícil, pero la cosmología cuántica de bucles no tardó en ofrecer la posibilidad de deducir consecuencias de la teoría cuántica para modelos cosmológicos. Como ya se ha dicho, esto elimina realmente la singularidad del big bang mediante resultados específicos, por ejemplo el carácter discreto del tiempo, que son típicos de una combinación de teoría de la relatividad general y la teoría cuántica. Por supuesto, la exigencia de eliminar la singularidad no se planteó en los inicios de la gravitación cuántica de bucles, ni tampoco en los de la cosmología cuántica de bucles. Al final resultó una larga serie de construcciones y cálculos matemáticos en cadena, y tuvieron que pasar muchos años de laboriosas investigaciones para que se llegara a ver todo esto con claridad. Dichas construcciones son también una consecuencia de la teoría, que se contempló con independencia de los posibles prejuicios culturales de los investigadores implicados. Como en tantas ocasiones, la incorruptibilidad de las matemáticas tuvo aquí una importancia decisiva.
Los detalles precisos y los aspectos plásticos de lo que puede reemplazar la singularidad clásica se exponen en el apartado dedicado a la cosmología cuántica de bucles. Ahora presentaremos solo algunas de las posibilidades de cómo esto, cuando se investiguen más detenidamente sus detalles, puede desembocar en nuevas concepciones del universo que amplíen el modelo clásico del big bang con una historia previa al mismo. Todavía no está claro cuál de los distintos fenómenos predomina, ni en qué proporción intervienen los diversos efectos cuánticos, algunos de los cuales están siendo investigados por Ghanashyam Date junto con Kinjal Banerjee y Golam Hossain, y otros con la decisiva participación de Aureliano Skirzewski. Por lo tanto, no se dispone aún de una imagen completa, pero ya se están discutiendo diversas posibilidades.
Un modelo del universo requiere la comprensión del comportamiento del cosmos a largo plazo, lo cual no depende solo de la gravitación cuántica en el momento del big bang, sino también del contenido de materia y del valor exacto de la curvatura media. Según la teoría de la relatividad general, esto determina si un universo que se expande alcanzará un punto de expansión máxima y luego se contraerá, o si continuará expandiéndose eternamente. Los cosmólogos tienden a preferir el primer supuesto: por una parte, para huir de la pavorosa idea de un universo que no deja de enfriarse y perder densidad, y además aburre con su monotonía, y por otra parte, porque parece difícil de explicar un universo que al principio tiene un tamaño infinito y se contrae, para luego cambiar bruscamente en una potente fase cuántica y empezar una expansión que no tiene fin. (Véanse los presocráticos para conocer las posibles ventajas filosóficas de esta idea del ápeiron).
No obstante, en un universo que no deja de expandirse, colapsarse y dar cambios bruscos, una y otra vez, con ciclos de duración finita en la infinitud del tiempo, se tiene un mayor margen para responsabilizar a dichos ciclos de la existencia de las condiciones especiales con que nos encontramos. Si se considera la generalidad de los ciclos, se concluye que podrían darse unas características muy diversas y a menudo hostiles a la vida. Sin embargo, es suficiente con que en la infinita totalidad de los ciclos se pudiera siempre llegar a una parte del universo como la nuestra. Si esto fuera posible, tendría que producirse en una cantidad infinita de intentos, y ya no necesitaríamos explicar por qué el universo es tal como lo vemos. En cualquier caso, aquí surge de nuevo el espíritu de Zenón: se abusa de la idea de infinitud para hacer plausible la existencia de un mundo como el nuestro. Esto sería desde luego poco satisfactorio con vistas a una explicación real del universo.
Como ejemplo de modelo fundamentado esencialmente en la sucesión de muchos ciclos, es preciso mencionar el llamado universo emergente, que en principio propusieron George Ellis y Roy Maartens en 2004 basándose en argumentos totalmente clásicos. Según esta teoría, el universo partió de un estado que se parecía al modelo estático construido inicialmente por Einstein. Pero, en comparación con este, tiene unas características ligeramente distintas, en el sentido de que no es del todo independiente del tiempo. En el modelo emergente, después del comienzo en algo parecido al universo estático, se produce una serie de ciclos que son todos ellos de muy corta duración. Pero la materia es de tal índole que en cada ciclo cambian ligeramente las características de un determinado modelo de materia, para adoptar finalmente el patrón de una presión negativa, como es necesario para una fase inflacionaria. Con esta inflación, el ciclo siguiente puede expandirse mucho más que su predecesor, y así concordar en principio mucho mejor con la porción de universo que es visible para nosotros. Para algunas características específicas existen ciertas restricciones, con el fin de que el modelo en principio pueda comprobarse comparándolo con las observaciones.
Sin embargo, con el modelo clásico surgen algunos problemas. Por una parte, Ellis y Maartens tuvieron que evitar de algún modo las singularidades de la teoría de la relatividad general, lo cual solo es posible mediante unas construcciones muy especializadas. Por otra parte, el universo estático es inestable, cosa que hace muy improbable el nacimiento del universo en la proximidad de ese estado. Es como si se echara una bola en una cubeta ondulada, por ejemplo en un cartón de huevos, y se preguntara dónde es más probable que se encuentre dicha bola poco después. Es seguro que no va a estar en una elevación de la cubeta, porque eso le daría una posición inestable, sino en alguna hondonada. También sería muy raro que la bola estuviera cerca de una cima, porque enseguida rodaría hacia abajo. El universo estático de Einstein, a causa de su inestabilidad, se corresponde con una cima, por lo que es muy difícil que el modelo emergente original explique de una manera creíble y precisa las condiciones iniciales, como sería de esperar en cualquier modelo.

3.3. Cosmología cuántica de bucles
Es interesante el hecho de que ambos problemas se pudieran resolver de una manera elegante mediante una combinación con la cosmología cuántica de bucles, tal como demostró George Ellis junto con David Mulryne, Jim Lidsey y Reza Tavakol. Las singularidades se evitan en cualquier caso, de tal modo que se consigue con facilidad un modelo realmente cíclico. Con independencia de esto, lo más sorprendente es que, cuando ya se conoce la manera de evitar la singularidad, aparece un nuevo universo estático cuyo tamaño es mucho menor que el de Einstein, y que resulta estable. Este es un punto de partida ideal para un universo que en principio, hace un tiempo infinitamente largo, comenzó con una forma muy sencilla, para alejarse de ella cada vez más a través de innumerables ciclos. De esta manera se desarrolla una complejidad cada vez más acusada, para encontrarse finalmente en unas condiciones adecuadas para la inflación e iniciar la formación de nuestro rincón del universo. Las soluciones matemáticas están representadas en la figura 34. La tercera aportación de la gravitación cuántica de bucles es que, mediante las fuerzas opuestas a la gravitación atractiva que impulsan la expansión, se facilita la consecución de una inflación.
En la cosmología cuántica de bucles hay otros escenarios, que, sin embargo, no se diferencian esencialmente del que hemos esbozado aquí. Todos tienen en común la naturaleza cíclica del universo; aquí no se realizan planteamientos lineales como los que se daban en versiones más antiguas de la cosmología cuántica. La gravitación cuántica de bucles proporciona siempre un tiempo anterior al big bang, pero no un punto de inicio del universo retrocediendo un tiempo finito hacia el pasado. Por consiguiente, la gravitación cuántica de bucles parece ser claramente parcial con respecto a la pregunta de si los principios físicos favorecen una concepción del universo lineal o cíclica. Pero también aporta algo nuevo al juego, lo cual ha de ser tenido en cuenta en posteriores formulaciones: la falta de memoria cósmica.

34.jpg
Figura 34: Representación de un universo que comienza con ciclos siempre crecientes, para explotar finalmente en una fase de inflación. La posición vertical corresponde a la velocidad de expansión (mitad superior de la imagen) o contracción, y la horizontal al tamaño del universo. Las líneas superiores expresan la probabilidad con la que una situación de una velocidad de cambio y un tamaño dados se ha producido en la historia del universo. El punto de partida se encuentra en medio de la zona cerrada circular, desde la cual los ciclos del universo describen una espiral hacia el exterior. La fase final de inflación se refleja mediante la banda que se extiende hacia la derecha.

Para muchas magnitudes, como su tamaño total o sus velocidades de expansión y contracción, el universo está sometido a un proceso determinista, que, una vez liberado de las singularidades, muestra una historia inequívoca. Sin embargo, cuando se plantea la pregunta de si, mediante observaciones, se pueden obtener a posteriori conocimientos relativos a las características del ciclo del universo precursor, la decepción es total: hay características, como las amplitudes de las fluctuaciones cuánticas, que prácticamente no pueden reconstruirse a partir de observaciones realizadas durante el ciclo siguiente. Aquí es donde entra en juego el nuevo elemento que surge de manera sorprendente en la cosmología cuántica de bucles. Con esto, la concepción del universo no es totalmente cíclica, sino que tiene también una parte lineal, ya que las características imposibles de reconstruir experimentan de algún modo un nuevo comienzo después de cada big bang, aunque otras características lo superan sin verse afectadas por esa falta de memoria. Ciertos detalles de la cosmología cuántica deducidos matemáticamente producen nuevos principios, en este caso una mezcla de modelos cíclicos y lineales, que antes no habían aparecido a pesar de toda la imaginación aplicada al tema.

Se hacía llamar Quman[32], con un deje de ironía que para otras cosas le faltaba, y quizá también con un atisbo de inoportuno agradecimiento. El nombre recién adoptado lo justificaba ella históricamente en la alusión a ciertos mensajes cifrados procedentes de la era humana de su universo precursor. Pero en realidad era un nombre innecesario, porque ella es una forma cuántica colectiva de la vida, basada en interferencias de la función de onda del universo que resultan claramente perceptibles.
Dado el fenómeno de la densidad creciente en un universo en contracción, las características mecánico-cuánticas adquirían cada vez mayor importancia y libraban a la escurridiza Quman de su aislamiento anterior en una fase demasiado clásica. Ahora Quman florecía en la primavera de un nuevo universo; desplegándose de nuevo plenamente correlacionada: abarcando todo y, con el calor de unas elevadas temperaturas, viviendo en un estado eufórico y de loca animación; tanteando sus limitaciones interiores mediante una medición cuántica, y lanzándose hacia el futuro con impetuosos saltos cuánticos.
Su existencia solo se veía amenazada por la decoherencia que corroe constantemente sus limitaciones. Sin embargo, como forma de vida cuántica contemplativa, reducía los efectos de estas limitaciones reproduciéndose mediante la auto observación, para producir así copias de sí misma que le sucedían en el tiempo, pero que no eran del todo idénticas a ella a causa de la falta cuántica de nitidez.
Liberada de cualquier individualismo, y con ello de todo sentido territorial, subsistía con una existencia apacible; su supervivencia en la decoherencia se fundamentaba precisamente en su colectividad. No obstante, en el universo precursor la decoherencia de esta cultura ancestral se había convertido casi en una fatalidad, ya que este universo se había inflado hasta alcanzar un tamaño inusual y había adquirido unos rasgos muy clásicos y extremadamente atenuados, en los que las restricciones de la función de onda solo podían existir en zonas muy reducidas. En aquellos tiempos, Quman no había podido finalmente afrontar la decoherencia, aunque su proceso cuántico y los procesamientos simultáneos se habían realizado mecánicamente como en un ordenador cuántico.
Al final, la única salida que vio fue la de proyectar sus limitaciones, al menos en parte, en aquello que en otros tiempos una forma de vida intermedia, para darse importancia, habría llamado su «conciencia». Sin embargo, también así parecía estar condenada a dormitar eternamente, en un gran universo que no dejaba de expandirse y, en consecuencia, parecía volverse cada vez más clásico. A diferencia de lo que había sucedido con anterioridad, no volvieron a aparecer en ningún momento grandes fluctuaciones cuánticas, como las que en otros tiempos habían producido siempre un nuevo colapso, es decir, un cambio de la expansión a la contracción. Sin embargo, por azar (¿o conscientemente?) se había proyectado en una forma de vida extremadamente agresiva que, en un impulso autodestructivo, la llevaría otra vez a un nuevo colapso. En sus últimos impulsos, con tintes de grandeza, esta forma de vida codificó asimismo sus avances culturales, y así, de manera imperceptible, una parte de su conciencia colectiva quedó cifrada en las fluctuaciones clásicas y cuánticas de las últimas fases de su ciclo.
Como siempre, después del big bang fue muy difícil la reconstrucción frente a la falta de memoria cósmica. Sin embargo, Quman consiguió entrar en su propia limitación mediante una decodificación extraordinariamente rápida, antes de que el universo volviera a expandirse adquiriendo un volumen mayor, y con ello hubiera borrado los últimos vestigios de las antiguas fluctuaciones cuánticas. No obstante, una gran parte de la dramática fase anterior estaba irremediablemente olvidada, y así emprendió Quman un nuevo comienzo en la historia cósmica. Aunque ella no lo recordara, esto siempre había sucedido cuando un ciclo llegaba a ser demasiado clásico y debía rendirse ante la decoherencia. Pero Quman lo sabía de manera instintiva, y lo aceptaba, impertérrita en la esperanza de su eterno retorno…

Capítulo 10
Un solo universo

Este mundo está configurado tal como debe estarlo para poder subsistir a duras penas; pero si fuese de una calidad un poco inferior, no podría seguir existiendo.
ARTHUR SCHOPENHAUER, El mundo como voluntad y representación

Contenido:
  1. El problema de los valores iniciales
  2. La función de onda del universo
    2.1. Un universo – ningún universo
    2.2. Concepciones físicas
    2.3. Valores dinámicos iniciales
  3. ¿Un universo?

La mejor explicación es aquella que se formula de manera unívoca. Cuando algo es unívoco, solo puede ser así y no de otra forma; por lo tanto, se reconocerá claramente como consecuencia de la teoría que lo fundamenta y de los principios de esta. En la cosmología, la explicación unívoca desempeña un papel especial, ya que en definitiva solo podemos observar un universo: aquel en el que nos encontramos. Por decirlo así, se trata de una observación que, aunque fuera muy elemental, habría de explicar también una teoría física que lo abarcara todo. La univocidad de una explicación no es aquí solo un modelo ideal o un ejercicio matemático, sino la necesidad que tienen los cosmólogos de comprenderse a sí mismos.
Hay muchos ejemplos para las argumentaciones de este tipo. Una conocida versión tomada de la filosofía es la afirmación de Leibniz sobre este mundo definiéndolo como el mejor de todos los mundos posibles. Esta es una explicación del universo basada en la univocidad, si se acepta la idea de Leibniz de que la bondad de los mundos posee un máximo unívoco. Schopenhauer dio la vuelta a esta argumentación: nuestro mundo es el peor de todos los posibles. Y él estaba convencido de que podía demostrarlo: si fuera tan solo un poco peor, se habría ido a pique hace mucho tiempo, y en especial también la humanidad que está asentada en él. Como se ve, Schopenhauer ya había previsto los problemas que surgirían en los siglos XX y XXI.

1. El problema de los valores iniciales
Lamentablemente, la univocidad de una explicación no se consigue a cambio de nada. Al igual que en los dos ejemplos filosóficos anteriores, siempre hay necesidad de asumir unas hipótesis que pueden parecer más o menos naturales, pero que han de ser planteadas como algo adicional. En la física, estas hipótesis suelen tener dos formas muy diferentes: hipótesis que son necesarias para formular una teoría, o hipótesis que sirven para seleccionar soluciones dentro de una teoría previamente formulada. Las primeras son mucho más difíciles de analizar, y me ocuparé de ellas en el capítulo siguiente. En cambio, la selección de soluciones es una operación estándar que está estrechamente relacionada con la forma de la mayoría de las ecuaciones matemáticas, tal como estas se aplican en las leyes físicas. Como ya se ha dicho en distintas ocasiones, se trata de ecuaciones diferenciales, o a veces también de relaciones de recurrencia. Expresan la variación de una magnitud cuando nos desplazamos en el espacio o en el tiempo (o en algún otro parámetro abstracto).
Sin embargo, para obtener una solución unívoca no basta con conocer solo sus variaciones; se necesita además un punto inicial fijo del que partan esas variaciones. Este punto inicial fijo puede ser una condición inicial (se establece que la magnitud investigada comienza con un valor determinado en un momento dado) o una condición de frontera (se supone que en el borde de una zona espacial la magnitud toma unos valores establecidos previamente). Dado que en la física relativista el único objeto que existe es el espacio-tiempo, y no el espacio y el tiempo por separado, pueden resumirse los dos tipos de condiciones en uno único. (Sin embargo, la estructura de las ecuaciones diferenciales sugiere una diferencia en el caso relativista. Al contrario de lo que sucedía en el contexto de la flecha del tiempo, esto no desempeña ningún papel en este capítulo).
Las condiciones iniciales o de frontera pueden considerarse como el equivalente teórico de la decisión de quien hace los experimentos con respecto al diseño y la realización de los mismos. Por el contrario, la propia teoría debe adecuarse, al menos aproximadamente, al comportamiento de la naturaleza, a través de la imposición de las leyes naturales. En consecuencia, un experimento es siempre una situación especial dentro de la naturaleza, y esa situación se especifica mediante la organización del experimento (por ejemplo, con un péndulo) y la configuración de partida (por ejemplo, la posición a partir de la cual se va a soltar el péndulo para que oscile libremente). Esta selección se describe teóricamente mediante las condiciones iniciales y de frontera. Por lo tanto, la teoría que se va a utilizar se decide mediante la elección de un fenómeno natural determinado, y las condiciones a que se van a someter sus soluciones se derivan de la realización específica del fenómeno dentro de sus posibilidades generales.
El primer punto, o sea, el fenómeno general, nos lleva a la cosmología, y en última instancia a la gravitación cuántica como teoría necesaria para una descripción del cosmos. Sin embargo, hay una única realización específica del fenómeno: nuestro universo. Por lo tanto, la selección de unas condiciones iniciales o de frontera no sería ya necesaria; en lugar de esto sería de esperar la obtención de una solución unívoca de la teoría sin establecer más condiciones. Ahora el problema es que en la gravitación cuántica, como en otras ramas de la física, nos encontramos con ecuaciones diferenciales o relaciones de recurrencia, es decir, de nuevo ecuaciones relativas a unas variaciones que se producen a partir de un punto inicial fijo que es preciso elegir adicionalmente. Este tipo de ecuaciones tienen diversas aplicaciones en la física; constituyen un método tan potente que no lo iguala casi ninguna otra construcción matemática. Determinan también los fenómenos que se producen en cosmología, lo cual se ha confirmado inequívocamente mediante observaciones, pero requieren, como es habitual, la fijación de un punto de partida para las soluciones, además del que es necesario para las ecuaciones.
¿Sigue siendo utópico el objetivo de explicar la univocidad de nuestro universo? La afirmación de la univocidad de nuestro universo puede estar peligrosamente cerca de ser una tautología, pero tiene pleno sentido querer deducir esto mediante métodos físicos. De hecho, observamos el universo en el detalle de sus cosas pequeñas, pero nunca podemos verlo en su totalidad. Gran parte de la física consiste en realizar extrapolaciones, a veces muy atrevidas. ¿Por qué no intentamos aquí también, a partir de nuestro conocimiento del universo en pequeño, abstraer una teoría que luego se pueda extrapolar a la totalidad del universo y dar como resultado su univocidad? Esta empresa supone un enorme desafío, no solo para la gravitación cuántica, sino para la propia imagen de la física. En el desarrollo de este capítulo expondremos lo poco que se sabe sobre esta cuestión.

2. La función de onda del universo
Por lo pronto, la cosmología cuántica parece una ingenua aplicación de las reglas de la mecánica cuántica a la totalidad del universo, sobre todo cuando se utiliza el principio cosmológico, pero solo se tiene en cuenta su contenido global, y no sus sutiles detalles. En principio la mecánica cuántica se desarrolló para su uso en la física atómica, pero pronto se reveló como un marco mucho más general que abarcaba todos los procesos físicos. La física cuántica no solo explica los espectros de emisión de los átomos, sino también los variados fenómenos de la física del estado sólido, como, por ejemplo, la conductividad eléctrica de los metales. Incluso los objetos astrofísicos, como las enanas blancas y las estrellas de neutrones, solo pueden entenderse con ayuda de la física cuántica. A partir de esto no hay que dar un gran paso para llegar a la aplicación de la teoría cuántica a todo el universo.
Sin embargo, si se observa con más precisión, este paso definitivo tiene algo especial. Aquí, en la frontera más exterior del conocimiento científico, las extrañas características de la función de onda mecánico-cuántica se convierten en un serio problema. La función de onda no puede observarse directamente, pero administra en cierto modo la información que se obtiene mediante mediciones realizadas en el sistema que dicha función describe, con las restricciones que establecen las relaciones de incertidumbre. Por consiguiente, según la interpretación que a lo largo del tiempo ha ido generalizándose, la función de onda describe las características de un sistema cuántico tal como lo hayan preparado los investigadores que realizan el experimento, que solo se disponen a realizar mediciones.
Este enfoque puede aplicarse sin problemas incluso a «grandes» sistemas, como un trozo de metal o toda una estrella de neutrones. Al fin y al cabo, un físico del metal no está dentro del metal, y un astrónomo se encuentra muy lejos de una estrella de neutrones. Sin embargo, un cosmólogo no puede separarse de su objeto de investigación, que es el universo. Al contrario que todos los demás ejemplos de la física cuántica, la cosmología cuántica debe partir siempre de un observador que forma parte él mismo del sistema investigado. No es posible escindir la cosmología cuántica en una función de onda, por un lado, y un observador, por otro, que mide las características de dicha función. Existe una sola función de onda del universo que en principio describe todo, incluidos nosotros como observadores (o teóricos).
Por supuesto es imposible hacer cálculos al respecto de forma totalmente general, y no hay más remedio que realizar simplificaciones extremas y aproximaciones para lograr al menos un acercamiento a esta cuestión. Y en cualquier modelo es inevitable entrar finalmente en la peculiaridad del observador dentro del sistema, es decir, de una función de onda que lo contiene todo, que en cierto modo se mide a sí misma. En ocasiones se encuentra una posible solución consistente en suponer la existencia de un observador superior que, con plenitud de poder, observa todo el universo cuántico y su función de onda al mismo tiempo. Así es posible utilizar, al menos sin dificultades matemáticas, las reglas habituales de la teoría cuántica, pero en definitiva tampoco se logra evitar aquí la cuestión relativa a qué es lo que podemos determinar con respecto a la función de onda del universo como observadores que se encuentran dentro del sistema, y en ningún caso fuera de él.
Estas cuestiones son de tipo general, pero también desempeñan un papel importante en el problema de la univocidad. Y es que el deseo de obtener una solución unívoca parte del hecho de que, como observadores situados dentro del universo, solo podemos ver uno. Si planteáramos esta cuestión en relación con un observador superior, no tendríamos indicio alguno para saber cuántos universos puede ver este observador. Si un hipotético observador superior pudiera abarcar con la vista la totalidad de nuestro universo, ¿por qué no podría ver otro más, o incluso todos los universos posibles? Aunque en algunas investigaciones físicas se presupone a veces la existencia de tal observador, en la mayoría de los casos, como último recurso para evitar (de una manera quizá demasiado fácil) serias dificultades conceptuales, esto no tiene relevancia alguna en relación con las cuestiones físicas. En la física solo desempeña un papel aquello que podemos percibir por nosotros mismos en nuestro propio universo. En la cosmología cuántica no hay modo de soslayar este estado de cosas.

2.1. Un universo – ningún universo
La cuestión de la interpretación de la función de onda es singular en la cosmología cuántica, en comparación con todos los demás sistemas cuánticos. Quizá es que aquí hay también una posibilidad de tratar la cuestión de la univocidad de una manera especial. La cosmología cuántica se basa en el mismo tipo de ecuaciones matemáticas que el resto de la física; unas ecuaciones que, si se desea obtener una solución unívoca, exigen una selección de valores iniciales para un valor dado del tiempo. Si este valor del tiempo pudiera ser, de hecho, el momento inicial absoluto de un universo, o simplemente el comienzo de una fase considerada desde una perspectiva teórica, según parece siempre habría que tomar una decisión.
La primera propuesta de remitir este problema a la cosmología cuántica fue planteada ya por el propio fundador de esta rama de la ciencia, Bryce DeWitt, en 1967. DeWitt intentó enlazar la cuestión de la univocidad con el problema de la singularidad, y propuso que la función de onda del universo para un espacio cuyo volumen tiende a desaparecer tenía que ser cero. Según la teoría de la relatividad general el volumen espacial del universo es cero en la singularidad, y así la condición de DeWitt corresponde a una interpretación de la singularidad como un inicio al que se atribuyen ciertos valores iniciales, como es habitual en la física.
Como condición asociada a una singularidad, este procedimiento era, sin embargo, algo especial: DeWitt intentó en este caso confrontar unos con otros los grandes problemas de la cosmología cuántica (la singularidad clásica y la univocidad). En principio, su condición elimina en cierto modo la singularidad dentro de la cosmología cuántica. Cuando la función de onda desaparece allí, el universo, según la interpretación de la función de onda, nunca presenta un estado de singularidad. Esto sería consecuencia de las condiciones elegidas adicionalmente para la función de onda, en vez de seleccionar alguna presentación física, como la de una fuerza antagonista dentro de la cosmología cuántica de bucles, pero, sin embargo, tendría una amplia repercusión en el caso de aplicarse con éxito. Otras consecuencias independientes se obtendrían a partir de la forma especial de la función de onda como solución de una ecuación diferencial con las condiciones iniciales de DeWitt.
La univocidad de la función de onda sería exactamente una consecuencia adicional que convertiría la evitación de la singularidad mediante la condición de DeWitt en un principio amplio y elegantemente formulado. Pero, por desgracia, aparece una objeción cuando se consideran distintas ecuaciones cosmológicas. A menudo, con la condición de DeWitt surge, de hecho, una función de onda unívoca que describe fácilmente la unicidad del universo. No obstante, en la mayoría de los casos, sobre todo en los que son más realistas y tienen menos simetría, como en los modelos exactamente isotrópicos, esta función de onda unívoca ya no es cero solo en la singularidad, sino en todas partes. En este caso hemos hecho un pan con dos tortas: un universo así no solo evitaría la singularidad, sino cualquier estado geométrico, con lo que no existiría en absoluto. La función de onda indica las probabilidades que tienen los resultados de las mediciones, en este caso la del tamaño de un universo; cuando la función de onda es meramente cero, no existe posibilidad alguna de mediciones y, por lo tanto, no hay universo.
Esta flagrante contradicción con las observaciones más elementales acabó rápidamente con la condición de DeWitt. Posteriormente, en 1991, Heinz-Dieter Conradi y Dieter Zeh emprendieron la tarea de evitar el fracaso de la condición mediante una modificación de las ecuaciones del universo en el caso de volúmenes pequeños, lo cual se esperaba conseguir en forma de correcciones cuánticas a partir de una amplia teoría cuántica de la gravitación. Sin embargo, el asunto resultó demasiado complejo, ya que, sin avances en el desarrollo general de la gravitación cuántica, no se podía hacer mucho más que conjeturar. En el marco de la gravitación cuántica de bucles, en la medida en que disponemos ya de estos medios, volveré en breve sobre esta cuestión.

2.2. Concepciones físicas
Hay dos planteamientos alternativos que nos deparan un nivel de conocimiento más amplio que la condición de DeWitt: la hipótesis del túnel de Alex Vilenkin y la condición de no-límite, o del universo sin borde, de Jim Hartle y Stephen Hawking. Ambas condiciones, por muy diferentes y controvertidas que puedan ser, sitúan el inicio del universo, al igual que la de DeWitt, en el momento de la singularidad clásica. Sin embargo, en estos casos la función de onda es allí distinta de cero, para soslayar el problema de DeWitt de una función de onda que desaparece totalmente.
La condición o hipótesis del túnel de Vilenkin se basa en un efecto de la mecánica cuántica que a su vez hay que atribuir a las propiedades de la función de onda. A menudo una función de onda puede, con sus estribaciones, atravesar barreras, incluso cuando estas son demasiado altas para las partículas clásicas correspondientes a dicha función. Muchos fenómenos físicos se basan en esta posibilidad, como es el caso de algunos tipos de desintegración radiactiva, o también algunos desarrollos tecnológicos como los nuevos tipos de transistores en la microelectrónica, o el microscopio de barrido de efecto túnel. Abusando audazmente de la analogía, Vilenkin propuso en 1983 la idea de que el universo en su totalidad podría haber surgido por primera vez mediante un efecto túnel. En este sentido, nuestro universo sería la estribación de una función de onda que atravesó la barrera del big bang y su singularidad. Ahora bien, ¿desde dónde cruzó nuestro universo el túnel? ¿Y dónde estaba, antes del proceso de atravesar el túnel, la parte principal de la función de onda de cuya estribación se originó nuestro universo? He aquí la respuesta de Vilenkin, que solo es evidente a primera vista: cruzó desde la nada.
Quizá no sea cuestión en general, y especialmente en este caso, de ahondar demasiado en los conceptos de la teoría física, sino que sería preferible entenderlos sencillamente como lo que son: nombres que se circunscriben a unos hechos matemáticos a partir de ciertas analogías. Sobre la nada no se puede pensar, o, mejor dicho, quien piensa en la nada, no piensa en absoluto:

SÓCRATES: De modo que el que ve lo uno ve también el ser.
TEETETO: Parece.
SÓCRATES: Y el que oye lo uno oye también el ser.
TEETETO: Sí.
SÓCRATES: Y el que roza algo roza lo uno y lo que es, puesto que es lo uno.
TEETETO: También eso es así.
SÓCRATES: Y el que enjuicia, ¿no opina sobre algo que es uno?
TEETETO: Necesariamente.
SÓCRATES: Y el que enjuicia lo que es uno, ¿no opina sobre lo que es?
TEETETO: Lo concedo.
SÓCRATES: Pero quien enjuicia lo que no es no se forma ninguna opinión.
TEETETO: Parece que no.
SÓCRATES: Y el que no enjuicia no se forma ninguna clase de opinión.
TEETETO: Está claro, según se ve.
SÓCRATES: Luego es imposible imaginarse al no-ser, tanto referido a algo como en términos absolutos.
PLATÓN, Teeteto, o sobre la ciencia[33]

Por consiguiente, atravesar el túnel desde la nada en sentido literal es algo difícilmente calibrable desde el punto de vista del significado físico. Dejando esto a un lado, el postulado de Vilenkin tiene pleno sentido en el caso de la función de onda del universo según la condición del túnel, a partir de lo cual se obtienen valores iniciales con un volumen del universo que tiende a desaparecer. La función de onda ya no es cero y, por lo tanto, tampoco puede implicar a ninguna función de onda que en general tienda a desaparecer. En cambio, da la velocidad de variación de la función de onda en ese momento, lo cual es suficiente para determinar la función de onda. Con ello se puede intentar establecer al menos unas predicciones aproximadas para el desarrollo posterior del universo en expansión.
De una manera similar, la condición de no-límite de Hartle y Hawking del año 1984 establece unas condiciones iniciales que se definen mediante una concepción física. Dicha concepción es aquí la de un universo que en el pasado (donde se situaría la singularidad en la teoría clásica) estaba cerrado en sí mismo y era redondeado; por consiguiente, no tiene frontera ni límite alguno en el pasado, de ahí el nombre de esta condición. También aquí podemos imaginarnos que la singularidad clásica es sustituida por este espacio-tiempo redondeado, por lo que esta propuesta combina el problema de la singularidad con la cuestión de la univocidad. Por el momento parece problemático el hecho de que la teoría de la relatividad general no permita la posibilidad de un espacio-tiempo como este, cerrado en sí mismo, al estilo de algún tipo de esfera. Esta es la cuestión decisiva para la que Hartle y Hawking propusieron nuevas ecuaciones que se desviaban de lo establecido en la teoría de la relatividad general. Tales desviaciones aparecen solo para un pequeño universo cercano a la singularidad y deberían incluir ciertos efectos de la gravitación cuántica. Como todas las condiciones iniciales mencionadas hasta ahora, esto no es atribuible a una deducción realizada a partir de una teoría unificada del todo, que entonces aún no existía, sino que se basa en generalizaciones obtenidas desde la mecánica cuántica en el marco de la cosmología.

2.3. Valores dinámicos iniciales

Manto: «Aguardo, en tanto el tiempo me rodea».
GOETHE, Fausto

Entretanto, aunque no hay una deducción estricta de la cosmología cuántica a partir de una teoría completa de la gravitación cuántica, sí que existen auténticos indicios de fenómenos importantes. La gravitación cuántica de bucles proporciona de una manera concreta unas ecuaciones que amplían las de la teoría de la relatividad general. Aunque estas ecuaciones no han sido formuladas en su integridad, sí han sido comprobadas teóricamente de múltiples maneras. A lo largo de este proceso han producido distintas correcciones de las ecuaciones clásicas que han de considerarse típicas de estas teorías de la gravitación cuántica. Hemos visto ya sus efectos sobre la eliminación de singularidades tanto en el big bang como en los agujeros negros; ahora lo que nos interesa es la cuestión de la univocidad.
Las ecuaciones de la gravitación cuántica de bucles todavía no se han investigado de una manera totalmente general, y sus efectos pueden observarse más bien en modelos que son distintos entre sí. Según esto, surgen, de una manera realmente automática, ciertas condiciones para la función de onda del universo que matemáticamente son ante todo una mezcla de la condición de DeWitt y de la condición de no-límite de Hartle y Hawking. El problema original de DeWitt no se plantea, ya que mediante correcciones cuánticas, entre otras las importantes fuerzas de repulsión en expansiones menores del universo, se consigue, en última instancia, que las ecuaciones no difieran de las utilizadas por DeWitt. Por consiguiente, la gravitación cuántica de bucles ofrece la posibilidad de seguir de manera sistemática el camino propuesto por Conradi y Zeh. La similitud con la condición de no-límite se pone de manifiesto en el desarrollo posterior de la función de onda por una mayor distancia a la singularidad, aumentando en ambos casos. La condición de túnel, que describe la función de onda como estribación de un universo tunelado, llevaría, en cambio, a una función de onda de otro tipo, ya que esta se debilita al haber una mayor distancia desde dicha estribación hasta la parte de la función que está situada en la «nada». Por lo tanto, de esta manera, es posible diferenciar y concretar propuestas anteriores.
Sin embargo, en contraposición con las condiciones establecidas en teorías anteriores, en la cosmología cuántica de bucles hay dos diferencias decisivas: en primer lugar, la singularidad del big bang no figura como inicio o borde de nuestro universo, sino que es simplemente un punto de tránsito. No obstante, esta fase singular clásica produce efectos en la función de onda y es responsable de sus limitaciones. En segundo lugar, estas restricciones no se imponen ya como condiciones motivadas por la física, sino que resultan de las propias ecuaciones cuantizadas de Einstein. Aunque todavía no está claro cuáles son la forma y la fuerza exactas de las condiciones, es decir, si realmente resulta siempre una función de onda unívoca o quizá una función de onda limitada, desde luego sí que se ofrece aquí la perspectiva de algo totalmente nuevo en el ámbito de la física: un sistema cuya descripción teórica no se divide en leyes dinámicas naturales y condiciones iniciales dependientes de la elección que realiza el físico, sino que en él las condiciones iniciales se deducen en cierto modo de manera dinámica como consecuencia de las leyes. Exactamente, esto sería lo ideal para una cosmología que no solo explicara la evolución del universo en el tiempo, sino también el hecho de que solo existe este universo único.
Al llegar aquí, al nivel más elemental de la función de onda, volvemos de nuevo irremediablemente al problema de la singularidad. A pesar de la existencia de fuerzas antagonistas en el modelo físico que ofrece la gravitación cuántica de bucles, unas fuerzas que pueden evitar que el universo se colapse en una singularidad, no está garantizado un comportamiento regular de la función de onda del universo. Las fuerzas antagonistas construyen una barrera que el universo, en su colapso, no puede atravesar; en lugar de esto, el universo, mientras se está colapsando, se expande mínimamente en un momento dado y se ve lanzado de nuevo a una expansión. Sin embargo, una función de onda mecánico-cuántica rara vez permite que una barrera le afecte, ya que puede atravesarla mediante el efecto túnel. Hasta ahora no hemos prestado atención a este problema, ya que la parte principal de la función de onda sí retrocede al chocar con la barrera. Pero cuando una parte avanza penetrando en la singularidad, es posible que esto eche a pique toda la teoría. Por lo tanto, la cuestión decisiva para un esclarecimiento definitivo del problema de la singularidad en la gravitación cuántica es si la función de onda puede avanzar hasta la singularidad. Y, si la respuesta es afirmativa, ¿significaría esto el final de la gravitación cuántica como descripción total del universo?
En este punto se decide el destino final de la gravitación cuántica entre ser una aceptable ampliación de la teoría de la relatividad general o convertirse en una teoría incompleta o una teoría que ha de completarse de algún modo (pero ¿cómo?). Como ya expuse en 2001, la cosmología cuántica de bucles avanza de la siguiente manera: en principio permite la existencia de un estado en el que el volumen desaparece y la teoría clásica asumiría su singularidad. En consecuencia, trata este problema sin prejuicios y no plantea como condición inicial la ausencia del estado de singularidad, como DeWitt intentó finalmente sin éxito. A continuación, deja que las ecuaciones dinámicas que describen la evolución de la función de onda del universo sean las que decidan qué papel desempeña este estado: el apocalipsis de una singularidad o simplemente un inofensivo punto de tránsito.
En sistemas sencillos que incluyen las condiciones de simetría habituales de la cosmología, resulta relativamente fácil investigar las ecuaciones matemáticas. No se trata de ecuaciones diferenciales, sino de relaciones de recurrencia (como la que aparece en el capítulo 5, dentro del apartado titulado «La utilidad de las matemáticas») que ponen en juego un tiempo discreto en lugar de un tiempo continuo. Mientras una ecuación diferencial muestra en cada posición la dirección que debe seguir una curva de soluciones (véanse las figuras 3 y 4), una relación de recurrencia establece en un intervalo de tiempo fijo los pasos en que varía una solución. El resultado es desconcertante: en este caso, las soluciones de estas ecuaciones no dependen en absoluto del valor de la función de onda en la zona de la singularidad. La función de onda del universo recorre imperturbable su camino antes y después de la singularidad del big bang, sin darse por enterada de la existencia de esta singularidad potencial; y el desarrollo temporal no se interrumpe en ningún momento. La singularidad se queda aislada; permanece tranquila, apartada del recorrido de la función de onda por los mundos, un recorrido anterior y posterior a ella misma, o en torno a ella.
Este desacoplamiento de la singularidad con respecto a la evolución del universo tiene finalmente otra consecuencia: la dinámica de la cosmología cuántica de bucles se elabora mediante un conjunto de ecuaciones matemáticas, una por cada cambio de estado al pasar al siguiente tramo temporal discreto. Cuando se desacopla uno de los estados —la singularidad—, sobra una ecuación, que no tiene aplicación alguna en el proceso de evolución. Sin embargo, es preciso resolverla, y da como resultado exactamente la limitación que se desea para que la función de onda sea unívoca.
De este modo, en la cosmología cuántica de bucles las condiciones iniciales se materializan de una manera dinámica: no son independientes de las ecuaciones dinámicas, de las leyes naturales, sino que pueden deducirse de estas. Nos encontramos aquí con el triunfo definitivo del tiempo discreto, ya que el desacoplamiento de la singularidad y las restricciones que esto conlleva para la función de onda no van a aparecer cuando se produce la aproximación, tan cercana como se quiera, a la singularidad, como en el caso del tiempo continuo de la antigua cosmología cuántica. La evitación definitiva de la singularidad está estrechamente unida a la univocidad, ya que no se produce un desplome de la teoría ni siquiera por el hecho de que la función de onda pueda atravesar mediante el efecto túnel la barrera de las fuerzas antagonistas.

3. ¿Un universo?
¿Qué sucede con la univocidad de la función de onda en aquellas situaciones complejas que no se adecúan exactamente a las simetrías cosmológicas? Una regla completa de validez general para una función de onda del universo que sea unívoca, junto con un poderoso procedimiento matemático que facilite su cálculo, ofrecería con toda seguridad numerosas aplicaciones de las predicciones basadas en ella. El físico Murray Gell-Mann (que recibió en 1969 el premio Nobel de Física por sus aportaciones al modelo de quark de la física de partículas) se expresó con mucho sentido del humor al plantear a Jim Hartle la siguiente pregunta: «Si conoces la función de onda del universo, ¿cómo es que no eres rico?». Hartle hizo gala de sensatez al responder: «A partir de la función de onda del universo se puede calcular la evolución de la cotización bursátil en la Bolsa de Nueva York. La respuesta es que la probabilidad de que la cotización suba es de un 50 por ciento, y la probabilidad de que baje es de un 50 por ciento». Este intercambio de ideas ilustra la peculiaridad de la función de onda teórico-cuántica, la cual, aunque caracteriza plenamente un sistema, ni siquiera con un conocimiento total permitiría predicciones estrictamente deterministas.
Por lo tanto, la física teórica se encuentra todavía un poco lejos de poder infiltrarse en el mercado bursátil, por muy tentadora que pueda resultar la idea de aplicar recursos para investigar también en este sector. Al fin y al cabo, esto no depende del segundo componente de nuestra condición para una aplicabilidad explícita, a saber, unos controles más estrictos sobre la aplicación matemática de una función de onda posiblemente unívoca. Incluso en el caso de que se pudiera demostrar matemáticamente la univocidad, cualquier cálculo concreto sería demasiado complicado, simplemente para obtener, a modo de planteamiento, predicciones aplicables a la vida cotidiana. Sin embargo, las predicciones a gran escala que resultan interesantes para la cosmología entrarían en el ámbito de lo posible, y en este sentido la cuestión de la univocidad es de enorme importancia. En principio, este punto de vista ofrece una posibilidad igualmente tentadora para la comprensión del universo. No obstante, incluso con respecto al esclarecimiento de la univocidad quedan aún muchas preguntas abiertas cuando se abandonan los modelos más sencillos.
Para describir el mundo real, deben realizarse numerosas ampliaciones de los modelos conocidos hasta ahora. Estos modelos son isotrópicos, es decir, iguales en todas las direcciones del espacio, al contrario que el mundo real. La isotropía, cuando existe en cada punto del espacio, se presenta acompañada de homogeneidad. Un universo de este tipo tiene el mismo aspecto en cualquier lugar, precisamente lo contrario de lo que le sucede al mundo real. En la cosmología cuántica de bucles es perfectamente posible formular modelos que contienen anisotropías y falta de homogeneidad. Sin embargo, en este caso nos encontramos con una enorme cantidad de ecuaciones, ya que no solo hay que describir variaciones del tamaño del universo en momentos sucesivos, sino también las variaciones espaciales que se producen al mismo tiempo. Si se expresa esto de manera completa mediante fórmulas, incluso en una notación compacta, los sistemas de ecuaciones ocupan varias páginas, y ni siquiera los ordenadores de que se dispone actualmente consiguen llegar a soluciones numéricas.
En consecuencia, nos vemos abocados a una investigación abstracta independiente de soluciones explícitas, lo cual en física teórica y en matemáticas no es nada extraordinario. Pero la cuestión de la univocidad de las soluciones de estos sistemas de ecuaciones sigue siendo complicada y, por desgracia, está lejos de llegar a aclararse. El desacoplamiento de estados singulares implica de nuevo restricciones para la función de onda; sin embargo, no hay garantías de que esto baste para su univocidad, o quizá, como en el intento inicial de DeWitt, no sea todo miel sobre hojuelas.
Al menos sirve de ayuda el hecho de que tanto el desacoplamiento de los estados singulares como el número de restricciones impuestas a la función de onda son independientes de la forma exacta que adopte la materia en el universo. En vez de esto, no son más que meros efectos de la geometría del espacio-tiempo. Por lo tanto, un análisis de la univocidad al menos no se vería obstaculizado por las preguntas abiertas relativas al contenido material exacto del universo, como la cuestión de la energía oscura o la de la forma de la materia sometida a las altas energías del big bang. Ha de quedar claro que la forma exacta de la función de onda dependería totalmente de la materia, ya que esta condiciona la evolución del universo, tanto como la del espacio-tiempo clásico. Sin embargo, esto no afecta al hecho de que se obtenga una solución unívoca o no.
Una interesante alusión a la plausibilidad de las condiciones iniciales dinámicas es la que existe en forma de comparación de la coherencia entre la cosmología y los agujeros negros. Estos albergan también una singularidad y son descritos en la gravitación cuántica mediante una función de onda. Como en la cosmología, los estados singulares se desacoplan de todo lo demás durante su evolución temporal y ocasionan restricciones en la función de onda. Estas condiciones pueden valorarse de nuevo en el modelo más sencillo de un agujero negro, que no está rodeado de materia alguna y no rota: un agujero negro tal como se describe en la teoría de la relatividad general mediante la solución de Schwarzschild del espacio-tiempo. El exterior de cualquiera de estos agujeros negros, más allá de su horizonte, es totalmente estático: allí no se producen variaciones temporales de ninguna clase. En definitiva, no hay materia que pueda caer en el agujero negro, y el propio agujero negro se encuentra inmóvil en el espacio-tiempo a causa de la falta de rotación: como en la descripción aristotélica de la ausencia de estructura que preconizaba Anaximandro, y que se ha citado en relación con la filosofía presocrática, un agujero negro, dada su simetría de rotación, no tiene razón alguna para moverse o para experimentar cambios y, por consiguiente, tampoco produce variaciones temporales en el espacio-tiempo que lo rodea.
En este caso, las ecuaciones de la gravitación cuántica de bucles no pueden plantearse y analizarse en el espacio exterior, sino solo en el interior del horizonte, tarea que yo emprendí junto con Abhay Ashtekar en 2003. Esta es la base de resultados relativos a la forma de los agujeros negros en una teoría cuántica de la gravitación. Las ecuaciones del interior, así como el diagrama de Penrose que se basa en ellas y puede verse en la figura 26, muestran que la singularidad clásica, tal como aparece en la cosmología, es atravesada y, según los indicios actuales, une de nuevo el interior que hay detrás de la singularidad con el exterior. Al igual que en la cosmología cuántica, a causa del desacoplamiento de los estados singulares, aparecen restricciones en la función de onda del agujero negro. La compatibilidad de estas condiciones que se dan en el interior con el comportamiento estático del exterior constituye una importante prueba de coherencia para la forma del agujero negro en la gravitación cuántica.
Según los innovadores planteamientos que propusieron Daniel Cartin y Gaurav Khanna en 2006, las restricciones implican simplemente que la función de onda posterior a la singularidad, es decir, la de la parte que no es visible desde una perspectiva clásica, constituye una imagen especular exacta de la función de onda anterior a la singularidad, o sea, la de la parte que es visible según la idea clásica. Aunque esto parezca insignificante, sirve para mostrar la coherencia de todos los indicios que existen hasta ahora en relación con el comportamiento de los agujeros negros en la gravitación cuántica: sabemos que la función de onda de la parte interior atraviesa la singularidad, y también que el espacio exterior es estático en el caso de este tipo de agujeros negros. Además, hay indicios de que el espacio interior, tanto antes de la singularidad clásica como después de esta, ha de estar unido con el espacio exterior, por lo que no se produce ramificación alguna que pudiera dar lugar a un universo filial. Si el espacio exterior estático no está sometido a ningún tipo de variación temporal, el espacio interior solo puede estar unido a él en el caso de que también se comporte de la misma manera antes y después de la singularidad (aunque no sea estático como el exterior). Esto es exactamente lo que se exige a las condiciones iniciales dinámicas, y de este modo todos los conocimientos ya comprobados, así como los indicios que aún se han de consolidar, quedan ligados unos con otros de una manera coherente.
Si el agujero negro no se encontrara en un espacio vacío, el espacio-tiempo exterior sería mucho más dinámico y complicado, pero también más interesante. Una comprensión precisa del vínculo entre el interior y el exterior con ayuda de la función de onda, así como de sus limitaciones, sería decisiva para predecir qué sucede después de la evaporación de Hawking de un agujero negro y qué consecuencias astrofísicas podría tener esto. Los análisis de la función de onda, tanto en la cosmología como para los agujeros negros, prometen, por lo tanto, un discernimiento profundo en nuestra comprensión del universo, aunque una función de onda posiblemente unívoca no pueda ser explotada financieramente.

En la era de la humanidad, en el ciclo del universo anterior al momento en que ella empezó a llamarse Quman, las formas de vida que con su consciencia salvaron a Quman de aquel universo demasiado clásico colonizaron el planeta Tierra. Había allí un parásito, el pequeño Leberegel, que contaba entre sus hospedantes tanto a las hormigas como a las vacas. Para pasar de una hormiga a una vaca, el parásito iba primero al cerebro de la hormiga e influía en él de tal manera que esta hospedante se aferraba al extremo superior de una brizna de hierba, mordiéndola. De esta manera quedaba garantizado el paso a una vaca que se comía aquella hierba, y el animal se convertía en el nuevo hospedante.
Quman se había salvado al hospedarse en el cerebro humano, un lugar donde podía afrontar la típica sequía. Desde su cautividad, lo único que podía hacer era esperar. Pero, al igual que el pequeño Leberegel, se preparaba pacientemente el tránsito a un nuevo hospedante, a un nuevo ciclo del universo lleno de frescura cuantizada. Dividido entre innumerables individuos, el progreso era a menudo frustrante, pero se iba realizando lentamente. De la misma manera que el parásito a las hormigas, ella tentaba a su hospedante hasta llevarlo a un comportamiento en apariencia absurdo. Le producía tal ansiedad que el infortunado, de una manera totalmente irracional, llegaba a destruir su propio entorno vital en la Tierra. Ella hacía todo esto con el objetivo de arrastrar a su hospedante al espacio interplanetario. Cuando la Tierra murió, el hombre acababa de conseguir dar el salto a otros planetas y sus lunas. En vez de aprender de los errores anteriores, cosa que nunca hizo, el ser humano se agarró con los dientes al extremo de una brizna de hierba: una vez más había destruido su entorno vital, afectado ya de una aridez extrema, y se veía obligado a colonizar otros sistemas estelares y, finalmente, toda la galaxia. Allí el ser humano aprendió, a falta de otras energías, a explotar y manipular los agujeros negros. De esta manera llegó a influir en todo el universo y lo llevó a la ruina, como si fuera la última brizna de hierba, y hubo un nuevo baño de cuantos para una Quman que otra vez se veía fortalecida.
¿Sucedió todo esto de una manera planificada, como si el ser humano fuera la pelota con la que jugaba una forma de vida mucho más inteligente? Quman no seguía plan alguno, y mucho menos el pequeño Leberegel. Coloniza el universo y soporta todos sus cambios. No conoce inquietud ni preocupación alguna, porque sabe que todo sucede tal como está escrito… en la función de onda del universo.

Capítulo 11
¿Una fórmula universal?

Pues aunque acertara a expresar lo real de la mejor manera, ni él mismo lo sabe; la conjetura, en cambio, les ha sido dada a todos.
JENÓFANES DE COLOFÓN, Fragmento

Contenido:
  1. Principios
  2. ¿Una teoría, una solución?
  3. Las fronteras de la ciencia y lo sublime de la naturaleza

En el capítulo anterior he hablado de la situación de las soluciones cosmológicas unívocas dentro de una teoría dada, es decir, con unas leyes determinadas. Otra cuestión completamente distinta es la univocidad de la ley en sí misma. Dado que una teoría unívoca tendría que describir todo lo que es observable en el universo, se le aplica a menudo la denominación de «fórmula universal».

1. Principios

En sentido estricto, no existe ninguna ciencia que no se base en suposiciones.
La mera idea de que haya algo así es impensable, es un pensamiento paralógico; siempre tiene que existir previamente una filosofía, una «creencia», para que la ciencia, a partir de ella, extraiga una dirección, un sentido, un límite, un método, un derechoa existir.

FRIEDRICH NIETZSCHE, La genealogía de la moral

La cuestión relativa a la univocidad de la teoría es cualitativamente diferente de la cuestión relativa a la univocidad de las soluciones dentro de una teoría dada. Puede ser difícil determinar la univocidad de las soluciones de un sistema de ecuaciones, pero esta determinación se basa en un procedimiento matemático claro. Desde el punto de vista de la física, una solución unívoca, en el caso de existir, posee un significado que es irrefutable si supera la comparación entre las propiedades que se derivan de ella y las observaciones realizadas. En principio es posible comprobar si una solución matemáticamente unívoca es también plausible en el marco de la física. Pero ¿cómo se define la univocidad de una teoría, y cómo se llevarían a cabo las pruebas físicas para comprobar la relevancia de su univocidad?
En todos los aspectos de la univocidad de una teoría hay siempre cierto grado de arbitrariedad. La construcción de las teorías comienza en la mayoría de los casos obedeciendo a una motivación física a partir de principios generales que se desearía ver materializados en una teoría. Por ejemplo, la teoría de la relatividad general apela a los principios que se han materializado con tanto éxito en la teoría de la relatividad especial e intenta hacerlos extensivos también a la fuerza de la gravedad. La teoría de la relatividad general no es la única posibilidad que existe para realizar esto, por lo que no es unívoca como teoría en este ámbito. Sin embargo, entre todas las teorías del mismo tipo es la que mejor ha concordado con las observaciones, o bien, en comparación con otras que han dado una concordancia parecida, resulta la más elegante; por lo tanto, ha sido elegida concretamente en virtud de las pruebas experimentales, y no por una demostración de univocidad meramente matemática. No obstante, sí que hay una posible arbitrariedad en la decisión de seleccionarla, y esto se hace patente en la mención de su elegancia, es decir, un alto grado de economía matemática que se observa, por ejemplo, en el tamaño de las ecuaciones resultantes.
Sin embargo, si los principios elegidos son suficientemente poderosos y precisos, podremos tener a nuestro alcance un tratamiento matemático de la cuestión de la univocidad. Ahora bien, ¿cómo se obtienen esos principios que pueden poner a la fantasía una camisa de fuerza lo bastante fuerte? Del mismo modo que todas las ciencias surgen históricamente a partir de la física teórica, los principios se obtienen, en primer lugar, a partir de analogías o generalizaciones de otras teorías conocidas y ya comprobadas. En la mayoría de los casos se trata de principios cuya forma no es directamente discernible o evidente, sino que surgen en la evolución histórica a partir de una poderosa abstracción. Desde luego, esto facilita su transferencia a teorías que aún están por construir, pero no cambia nada con respecto al desarrollo que se produce gracias a las aportaciones de cada uno de los investigadores.
De esto se deduce, en primer lugar, que los principios, y las teorías construidas a partir de ellos, dependen de la existencia de diversas corrientes tradicionales dentro de la física. En definitiva, la física nunca tiene sus frentes asegurados, en el sentido de que todos los investigadores estén de acuerdo con todos los avances en todo momento. Además, el hecho de que algunos principios adquieran mayor relevancia que otros depende de las preferencias de los investigadores. En este contexto es especialmente fácil que aparezca cierto grado de arbitrariedad, sobre todo si se tiene en cuenta que determinados impulsos no están motivados solo por cuestiones de tipo intelectual, sino que, por desgracia, las motivaciones tienen relación demasiado a menudo con políticas de investigación, o incluso con la vanidad y las diferencias personales.[34] Además, a esto hay que añadir también la inercia: cuando alguien se ha decidido en una ocasión por determinados principios, es difícil a veces prescindir de ellos reconociendo que ya no son válidos o resultan deficientes. Pero la investigación se ha convertido en algo que hay que realizar con rapidez, y un cambio de orientación lleva frecuentemente demasiado tiempo, con el riesgo de que el investigador quede irremediablemente retrasado en la competencia por conseguir publicaciones, fondos para investigar y puestos de trabajo. A menudo lo que se defiende finalmente son los viejos principios, mientras que la auténtica ciencia desaparece del mapa.
Además, esto significa que la univocidad de las teorías siempre está condicionada, ya que los principios en que se basan han de ser aceptados previamente. Aunque se pretenda que una teoría sea unívoca, pueden surgir unas candidatas muy diferentes que, a pesar de tener el mismo objetivo, se basen en principios distintos. Un ejemplo de esto es la gravitación cuántica con la teoría de cuerdas, la gravitación cuántica de bucles y algunas otras alternativas.
Para abordar la cuestión de la univocidad de una teoría, es muy útil disponer de una matematización bien acuñada. Esto permite una formulación muy precisa y una determinación clara de la univocidad. Sin embargo, para llegar a un conocimiento de la naturaleza este procedimiento constituye más bien un inconveniente, ya que las observaciones entran en el proceso rozando solo de una manera extremadamente indirecta los principios planteados por la teoría. Pero una vez que el investigador se ha decidido por partir de unos principios determinados y ha construido una teoría con su correspondiente aparato matemático, no se consulta ya con la naturaleza en el análisis de la univocidad. Incluso en el caso de que resultara, de hecho, una teoría matemáticamente unívoca, ¿qué significaría esto para una naturaleza ignorada durante el proceso? Como se ha dicho en la introducción, a los físicos no les corresponde plantear leyes para la naturaleza, por muy elegantes que puedan ser estas desde un punto de vista matemático.
Si se recurre a las matemáticas, las variaciones permitidas en la formulación son siempre equivalencias. El resultado no significa ni más ni menos que las hipótesis de partida, por muy diferentes que estas puedan parecer. Exagerando un poco, todos los teoremas matemáticos exponen trivialidades. El resultado está ya incluido en las hipótesis, aunque a menudo de una manera muy disimulada. En la revelación de este resultado se ponen de manifiesto tanto la extraordinaria habilidad del matemático como el significado de los resultados matemáticos en numerosas aplicaciones. Sin embargo, esto no vale por sí solo como modelo de la naturaleza. En este caso, no dejan de ser necesarias unas observaciones que consoliden la teoría, tanto si esta se deduce de forma matemáticamente unívoca a partir de unos principios, como si surge de cualquier otra manera. La avanzada matemática de una «fórmula universal» no podría en ningún caso sustituir a esto.

2. ¿Una teoría, una solución?

Te igualas al espíritu que tú concibes.
GOETHE,Fausto

Lo ideal sería una teoría unívoca con una solución unívoca. Si se pudiera calcular la solución, al menos de manera aproximada, se tendría un control total sobre todos y cada uno de los fenómenos naturales. Matemáticamente, esto sería imaginable, con la limitación antes mencionada de que siempre son necesarias unas hipótesis para la univocidad de una teoría. Sin embargo, desde el punto de vista de la física, la situación cambia radicalmente. Aunque resulte sorprendente, la posibilidad de una teoría física unívoca y la de una solución también unívoca no son compatibles entre sí.
Supongamos que tuviéramos una teoría con una solución unívoca. Siempre que dispongamos de suficientes controles aplicables a la forma de la solución, podríamos comprobar esta teoría de manera directa mediante la comparación de esa solución unívoca con las observaciones correspondientes; la teoría y su solución son, por lo tanto, científicamente comprobables. Ahora bien, el número de observaciones es siempre finito, a pesar de que en la física moderna la cantidad de datos haya llegado a ser muy grande. No obstante, a partir de una solución podemos deducir tantas propiedades como queramos, sin límite superior alguno. Por consiguiente, siempre pueden concebirse nuevas pruebas de la teoría que aún no hayan sido realizadas para un valor determinado del tiempo, y para las cuales en un momento dado no sea suficiente la exactitud de la medición. Es posible que nunca se llegue a probar plenamente la teoría; como mucho, puede suceder que, en caso de no superar una prueba, dicha teoría se falsifique, lo cual es un procedimiento muy conocido en las ciencias de la naturaleza, que ahora adquiere un nuevo significado en el contexto de la univocidad de la teoría o de sus soluciones.
Puesto que nunca podemos probar de manera completa la solución unívoca de una teoría, siempre nos queda la posibilidad de modificar ligeramente dicha teoría, por ejemplo, eligiendo otros valores para los parámetros, o cambiando los principios en que se basa. Si se hace esto con las debidas precauciones, se puede mantener la univocidad de la solución y hacer que concuerde con todas las pruebas experimentales realizadas. A medida que sigan produciéndose avances de la física, en el futuro se realizará por supuesto alguna observación que no concuerde con todas las soluciones de las teorías consideradas como posibles hasta ese momento. Si cada una de las teorías consideradas tiene una solución unívoca, con una solución se falsifica inmediatamente toda una teoría. De esta manera, al pasar el tiempo será cada vez menor el margen de las diferencias entre las teorías acertadas, aunque nunca quedará limitado a una sola posibilidad. Por consiguiente, si se tuviera una teoría con una solución matemática unívoca, esta teoría, entendida en sentido físico, no podría ser unívoca.
La inversión lógica de esta afirmación nos dice que una teoría unívoca no puede tener ninguna solución unívoca, con lo cual es evidente que hay que tener en cuenta las sutiles diferencias existentes entre la univocidad matemática y la física. Es interesante el hecho de que los desarrollos más recientes reflejan esto en parte, y sorprendentemente parecen confirmarlo para una teoría, la teoría de cuerdas, cuya univocidad matemática se ha reconocido. Al buscar soluciones de esta teoría, que podrían explicar incluso algunas propiedades sencillas de las partículas elementales conocidas de manera experimental, se ha abierto todo un panorama de soluciones ligeramente diferentes: una gran cantidad de soluciones de una magnitud inimaginable, cuyo número supera el de los protones que existen en todo el universo. Cada una de estas soluciones es compatible con todos los experimentos realizados hasta ahora.
Esto nos hace recordar un precedente que ofrece la filosofía, en el que la moral sustituye a la gravitación cuántica. A lo largo de los siglos, algunos filósofos habían intentado construir una teoría unívoca de la moral que estuviera fundamentada en principios razonables. El ejemplo más conocido es el imperativo categórico de Kant como principio general del que pudieran derivarse las reglas de comportamiento. Aquí nos encontramos con el mismo problema que aparece en la teoría de cuerdas: los magníficos principios de la teoría permiten hallar innumerables soluciones, pero no ayudan realmente a seleccionar una cantidad que resulte manejable. Nietzsche es quien lo ha reconocido de una manera más clara:
se le abre una nueva e inmensa perspectiva, una posibilidad que se apodera de él como un vértigo, le surgen inseguridades, suspicacias, temores de todo tipo, se tambalea la fe en la moral, en cualquier clase de moral. Finalmente, un nuevo desafío se pone de manifiesto: necesitamos una críticade los valores morales, es el valor de estos valores en sí mismo lo que se ha de poner en cuestión…[35]
Sin embargo, en el caso de los físicos el procedimiento que se ha de seguir en una situación como esta es distinto del que pueden aplicar los teóricos de la moral. Mientras que muchos físicos teóricos siguen esperando que futuros desarrollos de la teoría desemboquen por fin alguna vez en más limitaciones de las soluciones y reduzcan considerablemente la magnitud de dichas soluciones, otros hacen de la necesidad virtud: declaran que la investigación de la enorme cantidad de soluciones es una nueva disciplina. Dado que aquí no pueden obtenerse predicciones físicas a partir de una solución determinada, se recurre a argumentos de probabilidad. Si con cierta propiedad o característica puede hallarse un número suficiente de soluciones, esta propiedad se recomienda también para nuestro universo. Por consiguiente, se toma una hipótesis más, no para la teoría en sí misma, sino para sus aplicaciones o interpretaciones, según las cuales nuestro universo ha de ser típico entre todos los universos matemáticos posibles. Esto vuelve a ser una hipótesis física no comprobable, ya que, al disponer solo de nuestro universo, ¿con qué podemos comparar sus características? Por otra parte, muchos de los argumentos basados en la probabilidad que se aplican al enorme número total de soluciones se parecen demasiado a un acto de desesperación zenónica: en vez de contar, como es habitual, con el caso concreto del universo que conocemos y explotamos, se introduce aquí una ingente cantidad de universos posibles. Los problemas de nuestro universo desaparecen en el mar ilimitado de la utopía, pero sin llegar a resolverse, y desde luego solo por lo que respecta a su descripción teórica.

3. Las fronteras de la ciencia y lo sublime de la naturaleza

Esta sublime ilusión metafísica le ha sido añadida como instinto a la ciencia, a la que conduce una y otra vez hacia aquellos límites en los que ha de transmutarse en arte: un arte en el cual realmente este mecanismo tiene puesta la mirada.
FRIEDRICH NIETZSCHE, El nacimiento de la tragedia

La idea (¿o la utopía?) de la fórmula universal es ya muy antigua y constituía a menudo el trasfondo de sociedades secretas como las de los pitagóricos o los rosacruces. Hizo por primera vez su entrada en la ciencia cuando esta, a causa de la opacidad de la materia, quiso adoptar de nuevo el aspecto de una sociedad secreta. En parte, las afirmaciones fundamentales de algunas teorías toman la forma de una tupida red de conjeturas que encajan unas con otras como en un engranaje (pero no están demostradas), y a través de la cual incluso para los iniciados es difícil ver algo. Es precisamente en estos casos donde existe un considerable riesgo de que toda la construcción se derrumbe como un castillo de naipes si se da la circunstancia de que alguien intente seriamente realizar una comprobación.
Según las ideas de los pitagóricos, los números enteros, no fraccionarios, debían asumir el papel de las magnitudes elementales. Desde luego, esta no es una fórmula universal, pero sí una idea directriz que dominó reflexiones posteriores. Si esta hipótesis fuera cierta, en el universo todo podría expresarse mediante números enteros o relaciones de proporción entre estos, es decir, fracciones. Partiendo de esto, los pitagóricos desarrollaron unos resultados matemáticos impresionantes, aunque desde un punto de vista histórico no es segura la atribución precisa de algunos logros (como el «teorema de Pitágoras»). A pesar de todo, la teoría de los pitagóricos contenía un error fundamental: no todo puede expresarse como una relación entre números enteros. Por ejemplo, en un cuadrado cuyo lado mide un metro la diagonal tiene una longitud en metros igual a la raíz cuadrada de dos, que no es una relación entre números enteros: se trata de un número irracional. Esto ya se sabía en la época de los pitagóricos: fue un impacto del que su escuela nunca se recuperaría a pesar de sus supuestos intentos de mantener en secreto los resultados.
Las hipótesis y las sospechas no probadas desempeñan un papel importante en las ciencias, ya que, cuando tienen suficiente trascendencia, estimulan investigaciones posteriores. Incluso cuando finalmente resultan erróneas, contribuyen de una manera decisiva al avance del conocimiento. Una contribución magistral nada despreciable es, por ejemplo, demostrar la irracionalidad de la raíz cuadrada de dos, o investigar primero la posibilidad de expresarla como número fraccionario. Precisamente el énfasis de los principios sólidos impulsa a menudo a los científicos críticos a refutarlos. Esto no tiene nada que ver con posibles suspicacias (al menos en la mayoría de los casos), sino que se fundamenta en el deseo de garantizar al máximo la validez de estos principios. Por ello tiene que haber suficiente apertura en las distintas escuelas, como en la teoría de la gravitación cuántica, de modo que también se escuche a los que no pertenecen a ellas y se les preste atención. Los pitagóricos no habían superado esta prueba del carácter científico de sus teorías y, en cambio, habían intentado conservar mediante el secretismo su antiguo estilo, ya superado. La revisión de algunos principios, como reacción a los nuevos conocimientos sobre la raíz cuadrada de dos, redujo quizá un poco su autoridad, aunque también permitió que la escuela continuara existiendo, basándose en la parte correcta de sus teorías.
En la misma época de los presocráticos estuvo vigente una tradición cosmológica y filosófica completamente distinta, basada en las confrontaciones públicas entre escuelas de menor importancia, como las de los filósofos mencionados en el capítulo relativo a la cosmogonía. En este caso predominaba como criterio el racionalismo crítico: las teorías se desarrollaban de una manera racional y eran sometidas a consideraciones críticas. De esta competición, surgió una larga serie de conocimientos y conceptos cosmológicos del universo sumamente innovadores. Asimismo, en cuanto a la calidad de conocimientos ulteriores, como los astronómicos de Parménides, estos filósofos en absoluto les iban a la zaga a los pitagóricos.
Si se observa con detenimiento, estas tendencias tan diferentes pueden encontrarse también en la ciencia moderna, según la personalidad de los investigadores implicados. Si se desea ser objetivo, no hay que menospreciar los componentes demasiado humanos de la ciencia. Nuestra percepción, y también su posterior elaboración, surgen en principio adaptadas evolutivamente a los condicionantes existentes en la Tierra, y se «abusa» de ellas para intentar comprender cualquier aspecto del universo, tanto a pequeña como a gran escala. La inteligencia del ser humano ha alcanzado éxitos inesperados en los que las matemáticas han desempeñado un papel decisivo como herramienta de orden. Pero ¿podemos estar seguros de que esta vía no es errónea, o de que nuestros sentidos, orientados a veces hacia fines extraños, no han pasado por alto aspectos esenciales del universo?
La ciencia nunca puede descartar la posibilidad de que se haya emprendido un camino erróneo, ni siquiera reducir su probabilidad. La prueba de esto es la multiplicidad de tendencias del racionalismo crítico, como ya se ha puesto de manifiesto en los presocráticos: no es bueno que la totalidad de los científicos de una rama determinada, como, por ejemplo, la gravitación cuántica, trabajen sin crítica alguna en el mismo proceso. Es preciso no solo permitir distintos planteamientos, sino apoyarlos de manera activa, especialmente en aquellos casos en que aún no se dispone de observaciones que puedan confirmar la validez del camino emprendido. La formación de alianzas de científicos, ya sean públicas o secretas, es con toda seguridad inconveniente, ya que presionarían con suma facilidad a los que investigan de manera individual. Al final del recorrido de la ciencia se encuentra la verdad, o al menos eso es lo que se espera. Existe una buena garantía de que esto será así, gracias a las observaciones y comprobaciones que se realizan, en última instancia, en la propia naturaleza, ya que esta es insobornable (aunque una y otra vez haya intentos de soborno). Por lo tanto, si se le da una oportunidad, siempre triunfa la verdad.
Por desgracia, en el panorama actual de la investigación se produce con demasiada facilidad una vinculación excesivamente fuerte a una o varias líneas: si una determinada línea de investigación, ya sea por casualidad o por modas que surgen, alcanza una posición muy influyente, esta posición no tardará en hacerse aún más fuerte gracias a la obtención de fondos y a la influencia que ejerce sobre la nueva contratación para cubrir puestos de trabajo. Las zonas marginales de la investigación no poseen garantía alguna y, por consiguiente, cuentan con pocos efectivos. Unas ligeras oscilaciones en la relación de fuerzas entre distintas tendencias pueden tener efectos de amplio alcance, pero en las ramas más importantes de la ciencia y dentro de un campo ya establecido esto se nivela con facilidad. Desde el punto de vista de la política de investigación, a cualquier sector floreciente le interesa reprimir la competencia de las tendencias alternativas. Si la presión en este sentido es demasiado fuerte, la única posibilidad de contrarrestarla está en la creación de organismos independientes que acaben con el nepotismo.
Aunque los avances de la ciencia puedan resultar embriagadores, siempre se debe ser consciente de los límites de esta, que en ningún sitio son tan evidentes como en las primeras líneas de la investigación. Hemos visto ejemplos de esto: el amplio panorama de soluciones de una teoría de cuerdas que se vende como unívoca, o la posibilidad de falta de memoria cósmica que surge en la cosmología cuántica de bucles, a pesar de la extensión de esta teoría a tiempos anteriores al big bang. Quizá puedan superarse estas limitaciones mediante una metodología más afinada, pero hasta que esto no suceda han de tomarse en serio.
Para la humanidad es un privilegio inmerecido haber llegado a una comprensión tan amplia de la naturaleza. Las limitaciones no menoscaban en absoluto este logro, sino que precisamente confirman la idea que Kant definió como lo sublime de la naturaleza. Partiendo de la naturaleza humana, que él caracterizó en su Crítica de la razón práctica de la siguiente manera:

Esta idea de la personalidad, que inspira respeto y que nos pone a la vista lo sublime de nuestra naturaleza (por su destinación), al hacernos observar al mismo tiempo las faltas de conformidad de nuestra conducta respecto de ella y abatiendo así la vanidad, es natural y fácilmente perceptible aun para la razón humana más ordinaria.[36]
Kant hace al final de esta obra una extrapolación a toda la naturaleza:
La primera visión de una innumerable multitud de mundos aniquila, por así decir, mi importancia como criatura animal (solo un punto en el universo) que debe devolver al planeta la materia de donde salió después de haber estado provisto por breve tiempo de energía vital (no se sabe cómo). […] Pero la admiración y el respeto, si bien pueden impulsarnos a la investigación, no pueden suplir su deficiencia. ¿Qué hacer, pues, para emprenderla de modo útil y apropiado a la sublimidad del objeto? Los ejemplos, en este caso, pueden servir de advertencia, pero también de modelo. […] Prevenir, por una parte, el extravío de un juicio todavía verde, inexperto, y por otra (lo que es mucho más necesario), las exaltaciones geniales que, como suele suceder con los adeptos a la piedra filosofal, sin la menor investigación metódica y sin conocimiento de la naturaleza, prometen tesoros soñados y desperdician los verdaderos.

Kant intenta también fundamentar sobre esto la posibilidad de una enseñanza moral en todos los sentidos. En el caso de la cosmología, basta con valorar correctamente el alcance del conocimiento científico en la totalidad del universo y apreciar este conocimiento en un marco de amplitud adecuada, pero en ningún caso yendo más allá de él. A menudo el éxito ciega, tanto en nuestros días como antes de la aparición de la teoría de la relatividad general y de la mecánica cuántica:
Hybris es hoy nuestra posición general frente a la naturaleza, nuestro forzamiento de la naturaleza con ayuda de las máquinas y de la tan despreocupada inventiva de los técnicos y los ingenieros. Hybris es nuestra posición frente a Dios, es decir, frente a una supuesta araña ideológica y ética que aparece tras la gran tela de araña que es la trampa de la causalidad.[37]
El reconocimiento de la sublimidad de la naturaleza exige también que tomemos conciencia de que nuestra descripción del universo es incompleta.
¿Qué sucede con esto en la gravitación cuántica? La teoría de cuerdas impresiona por la magia de su formulación matemática, que quizá es unívoca, pero el prolijo e intrincado panorama de sus soluciones nos deja un regusto amargo, algo así como el olor a azufre que delata a Mefistófeles. Además, la dinámica de la gravitación cuántica de bucles es tan complicada que ha ahuyentado a algunos investigadores cuando estos la han visto por primera vez, como si se les hubiera aparecido el propio Fausto. Quizá vislumbremos en estas fórmulas la auténtica naturaleza del universo, pero no lo sabemos, y posiblemente nunca lleguemos a saberlo con seguridad.
En este contexto se habla tan a menudo del final de la física en el sentido positivo de llegar a un supuesto conocimiento completo, como en el sentido negativo de un irremediable alejamiento de la realidad. En cualquier caso, tendríamos que pensar en la enorme distancia que ha recorrido la física desde sus inicios hasta la instantánea actual. Se añadirán nuevos conocimientos y se eliminarán los erróneos. Este es el objetivo de la ciencia; pero no se trata de dominar completamente la naturaleza, aunque se entienda la ciencia «solo» en forma de leyes naturales permanentemente válidas, en vez de como modos de influir de manera directa. Al mismo tiempo se tiene en cuenta la incompletitud de la descripción, ya que es inevitable. La incompletitud de la comprensión no reduce esa admiración por la naturaleza que ha inducido a la mayoría de los científicos a seguir su carrera, y ha impulsado a los no científicos a interesarse por los logros científicos.
En la gravitación cuántica se perfilan unas impresionantes posibilidades para un futuro próximo. Los avances teóricos progresan de manera constante, y las investigaciones de los últimos años han producido algunos logros sorprendentes. Esto genera la esperanza de que surja un análisis matemático que ponga los fundamentos para explicar fenómenos nuevos de manera fiable. La cosmología seguirá haciéndose más precisa gracias a una serie de observaciones que no dejan de avanzar, realizadas no solo mediante satélites, sino también de otras maneras. Podemos mirar cada vez con mayor precisión hacia épocas cada vez más tempranas del universo y conseguir finalmente mediciones de distintas manifestaciones de la gravitación cuántica.
¿Hasta dónde podremos retroceder en el tiempo? ¿Podremos llegar a ver alguna vez la forma que tenía el universo antes del big bang, satisfaciendo los requisitos científicos de precisión? Estas preguntas todavía no han encontrado respuesta. Sin embargo, hay numerosos indicios y modelos matemáticos para intentar averiguar lo que pudo suceder, y los distintos resultados obtenidos en el marco de la gravitación cuántica han permitido conocer diversos fenómenos que son importantes en relación con el big bang. No obstante, para llevar a cabo una extrapolación fiable serían necesarios unos parámetros mucho más precisos que los que pueden obtenerse con la exactitud actual de las mediciones.[38] Ahora bien, esto no significa que sea imposible responder a las cuestiones relativas a la prehistoria completa del universo. Tanto la cosmología como las investigaciones teóricas avanzan actualmente desarrollando una gran actividad y nos conducirán a descubrimientos insospechados. Quizá veamos entre estos hallazgos algunos datos sobre el universo anterior al big bang que estén garantizados experimentalmente.

Fuentes adicionales

Libros

Páginas de internet

Artículos sobre aspectos generales


Notas:
[1] Rudolf Carnap, Introduction to the Philosophy of Science, Nueva York, 1995
[2] Sin embargo, dicha convertibilidad tiene consecuencias en la vida cotidiana, porque sin ella sería menor la carga de radiación sobre la superficie terrestre: los muones que van llegando sucesivamente se desintegrarían a gran altura al entrar en la atmósfera, en vez de formar parte de la radiación cósmica que llega al suelo.
[3] Su origen, sobre todo el de las más energéticas, no está del todo claro, aunque parece que podrían proceder de galaxias activas que emiten radiaciones desde el exterior de la Vía Láctea.
[4] Estos razonamientos van quizá ligados a segundas intenciones, tales como la idea de que uno se puede ahorrar el esfuerzo de estudiar una teoría complicada que luego rara vez figura en los programas de estudios de las universidades.
[5] Friedrich Nietzsche, La genealogía de la moral.
[6] Un ejemplo exagerado que se ha difundido ampliamente, aunque en una versión menos radical, es la declaración del físico Frank Tipler realizada en un programa del canal estadounidense CBS11 el 9 de mayo de 2007: «Dios es la singularidad cosmológica. No estoy blasfemando; me limito a seguir la antigua tradición cuando digo que la ciencia aporta una prueba experimental a la doctrina religiosa, y que así llegamos a descubrir que Dios existe».
[7] Este es un problema serio para el procedimiento del «rayo tractor», que hizo famoso la serie de televisión Star Trek, y en el que un objeto o una persona pueden ser medidos, destruidos y formados de nuevo con un aspecto idéntico en otro lugar. Sin ir más lejos, el primer paso, el de la medición completa, es imposible a causa de la relación de indeterminación; en cambio, el segundo, el de la destrucción, parece mucho más fácil. Según los creadores de la serie, hay que enfrentarse a él con un «compensador de Heisenberg», que soslaya la relación de incertidumbre. Lamentablemente hay poca información sobre este asunto: al preguntar cómo funciona el compensador de Heisenberg, lo único que se recibió como respuesta fue la de un director técnico: «Gracias a la demanda funciona muy bien».
[8] Friedrich Nietzsche, La gaya ciencia.
[9] 100 Years of Relativity-Space-Time Structure: Einstein and Beyond, recopilación de Abhay Ashtekar, Singapur, 2005.
[10] Existe incluso una «teoría» tan misteriosa que ni siquiera se conoce su nombre, salvo por las iniciales de esta. A menudo, esta letra se considera, de hecho, un parámetro variable libre que indica «mágico» o «misterioso», pero en ocasiones también representa desde palabras tales como «membrana» hasta una imagen en espejo de la primera letra del apellido de su creador.
[11] Johann W. Goethe, Fausto I, traducción de José María Valverde, Planeta, Barcelona, 1984. (N. de la T.)
[12] No solo en la física se habla de teorías en este sentido, sino también en otras ciencias. Un conocido ejemplo es, en el campo de la biología, la teoría de la evolución, que, basándose en principios tales como la selección y la mutación, puede explicar la enorme variedad de las especies que viven sobre la Tierra, así como otros muchos detalles concretos.
[13] Esto se explica, por ejemplo, en Warped Passages: Unraveling the Mysteries of the Universe's Hidden Dimensions, de Lisa Randall, Harper Collins, Nueva York, 2005.
[14] Se puede participar en la evaluación de datos con ayuda del programa Einstein@Home (http://einstein.phys.uwm.edu/). Se trata de un protector de pantalla que aprovecha las pausas del ordenador para realizar un análisis de los datos obtenidos en observaciones. Actualmente lo utilizan unos 75 000 usuarios de ordenadores de varios países, lo cual aporta una ayuda con los cálculos que los investigadores de la gravitación agradecen enormemente.
[15] Friedrich Schiller, Was heisst una zu welchem Ende studiert man Universalgeschichte? (¿Qué significa y por qué se estudia la historia universal?), en Der Teutsche Merkur, 1789, pp. 127-128.
[16] No todas las descripciones del universo siguen el enfoque top-down. Como veremos más adelante en relación con el carácter unívoco de las soluciones (capítulo 10, Valores dinámicos iniciales), la cosmología cuántica de bucles no puede, por ejemplo, ofrecernos las condiciones fundamentales para la forma de sus soluciones en el punto del big bang si no conocemos previamente la configuración actual del universo. Así pues, se vislumbra una mayor capacidad de explicación, pero también un desafío mayor: sobre la configuración actual del universo se formulan predicciones que aún han de demostrarse mediante observaciones.
[17] El universo observable ocupaba en aquel momento solo una mil millonésima de su volumen actual, aproximadamente
[18] Penzias y Wilson no habían desarrollado sus antenas de microondas con el fin de realizar mediciones cosmológicas; su invento se relacionó posteriormente con la cosmología. Con independencia de esto, otros investigadores habían planificado experimentos parecidos, pero Penzias y Wilson se les adelantaron. Entre estos investigadores figuraba también David Wilkinson, nombre con el que nos encontraremos más adelante en relación con el satélite WMAP, que proporcionó los datos más precisos de la época sobre la radiación cósmica de fondo.
[19] Reines y Cowan barajaron durante algún tiempo la idea de montar un detector en las proximidades de una bomba atómica a punto de explotar.
[20] Del mismo modo, a la aceleración actual podríamos denominarla inflación en vez de energía oscura. Sin embargo, dado que al parecer se trata de fenómenos distintos, habría que tratarlos conceptualmente de manera diferente. Y como desde un punto de vista histórico se investigó primero la expansión acelerada en el universo primitivo, el concepto «inflación» quedó acuñado para este fenómeno.
[21] Queda sin resolver el problema relativo a la razón por la cual actualmente no existen partes iguales de materia y antimateria. Hay que pensar que ambos componentes han sido separados el uno del otro o han surgido en cantidades diferentes a causa de alguna asimetría. Por ahora ninguna de estas posibilidades puede justificarse plenamente mediante procesos físicos. En breve volveré a tratar esta cuestión.
[22] Fueron descubiertos por primera vez por los satélites Vela del ejército estadounidense, que en realidad tenían como misión rastrear las posibles explosiones atómicas llevadas a cabo por los soviéticos en el espacio.
[23] Sin embargo, este movimiento no tiene lugar en un ambiente rígido. Una filmación relativa a este asunto puede verse en http://www.mpe.mpg.de/ir/GC/index.php
[24] El universo observable ocupaba en aquel momento solo una mil millonésima de su volumen actual, aproximadamente.
[25] Penzias y Wilson no habían desarrollado sus antenas de microondas con el fin de realizar mediciones cosmológicas; su invento se relacionó posteriormente con la cosmología. Con independencia de esto, otros investigadores habían planificado experimentos parecidos, pero Penzias y Wilson se les adelantaron. Entre estos investigadores figuraba también David Wilkinson, nombre con el que nos encontraremos más adelante en relación con el satélite WMAP, que proporcionó los datos más precisos de la época sobre la radiación cósmica de fondo.
[26] Reines y Cowan barajaron durante algún tiempo la idea de montar un detector en las proximidades de una bomba atómica a punto de explotar.
[27] Del mismo modo, a la aceleración actual podríamos denominarla inflación en vez de energía oscura. Sin embargo, dado que al parecer se trata de fenómenos distintos, habría que tratarlos conceptualmente de manera diferente. Y como desde un punto de vista histórico se investigó primero la expansión acelerada en el universo primitivo, el concepto «inflación» quedó acuñado para este fenómeno.
[28] Queda sin resolver el problema relativo a la razón por la cual actualmente no existen partes iguales de materia y antimateria. Hay que pensar que ambos componentes han sido separados el uno del otro o han surgido en cantidades diferentes a causa de alguna asimetría. Por ahora ninguna de estas posibilidades puede justificarse plenamente mediante procesos físicos. En breve volveré a tratar esta cuestión.
[29] Fueron descubiertos por primera vez por los satélites Vela del ejército estadounidense, que en realidad tenían como misión rastrear las posibles explosiones atómicas llevadas a cabo por los soviéticos en el espacio.
[30] Sin embargo, este movimiento no tiene lugar en un ambiente rígido. Una filmación relativa a este asunto puede verse en http://www.mpe.mpg.de/ir/GC/index.php
[31] La aplicación de este principio es más realista, pero también más difícil que la del tiempo matemático ideal. Peter Bergmann hizo los primeros intentos en este sentido durante la década de 1960 en el marco de la teoría de la relatividad general; sin embargo, todavía se está buscando la descripción teórica, a la cual en los últimos tiempos han hecho aportaciones, por ejemplo, Carlo Rovelli y, continuando la construcción de la teoría, también Bianca Dittrich. Asimismo, Julian Barbour se enfrenta una y otra vez a estos interrogantes.
[32] Es interesante observar que en la representación habitual el dios aparece con un colmillo entero y el otro roto, como en la figura 29, lo cual simboliza la combinación de perfección y desorden que existe en el mundo real; véase al respecto el último capítulo de este libro.
[33] Especialmente en este punto conviene recordar una vez más la nota 2 del capítulo 6.
[34] Platón, Teeteto o sobre la ciencia, edición y traducción de Manuel Balasch, Anthropos, Barcelona, 1990. (N. de la T)
[35] «Lo que nos incita a mirar a todos los filósofos con una mirada a medias desconfiada y a medias sarcástica no es el hecho de darnos cuenta una y otra vez de que son muy inocentes —de que se equivocan y se extravían con mucha frecuencia y con gran facilidad, en suma, de su infantilismo y su puerilidad—, sino el hecho de que no se comporten con suficiente honestidad: siendo así que todos ellos levantan un ruido grande y virtuoso tan pronto como se toca, aunque solo sea de lejos, el problema de la veracidad. Todos ellos simulan haber descubierto y alcanzado sus opiniones propias mediante el autodesarrollo de una dialéctica fría, pura, divinamente despreocupada (a diferencia de los místicos de toda condición, que son más honestos que ellos y más torpes —los místicos hablan de "inspiración"): siendo así que, en el fondo, es una tesis adoptada de antemano, una ocurrencia, una "idea brillante", casi siempre un deseo personal que ellos han convertido en abstracto y han pasado por la criba, y que defienden con razones buscadas posteriormente; todos ellos son abogados que no quieren llamarse así, y en la mayoría de los casos son incluso astutos defensores de sus prejuicios, a los que bautizan con el nombre de "verdades", y están muy lejos de la valentía de la conciencia, una conciencia que precisamente se confiesa a sí misma estar muy alejada del buen gusto de ser valiente, y lo da a entender, bien para poner en guardia a un enemigo o amigo, bien por petulancia y por burlarse de sí misma», Friedrich Nietzsche, Más allá del bien y del mal. Afortunadamente, en la física existe una conciencia de la observación experimental que puede ofrecer contención a la expansión de los deseos personales.
[36] Friedrich Nietzsche, La genealogía de la moral.
[37] Esta cita y las siguientes están tomadas de Immanuel Kant, Crítica de la razón práctica, traducción de J. Rovira Armengol, Losada, Buenos Aires, 2003. (N. de la T.)
[38] Friedrich Nietzsche, La genealogía de la moral.