Grandes cuestiones física - Michael Brooks

Introducción

La belleza de la física queda resumida en un simple hecho: un niño puede plantear preguntas que ningún profesor puede contestar.
De hecho, descubrir las «grandes cuestiones» de la física es algo así como buscar paja en un pajar.
Cuando se trata de la física, parece que no existen preguntas pequeñas.
Una cuestión o experimento aparentemente insignificantes conducen a menudo a profundos descubrimientos.
Por ejemplo, sólo hay un paso desde preguntar si las leyes de la física pueden cambiar alguna vez, o pueden violarse, hasta plantearse si acaso queda espacio para un creador.
Y tampoco se detiene ahí la cosa.
La física nos dice que un creador no tiene por qué ser divino; podría ser que viviéramos anidados dentro de un número infinito de universos, cada uno de ellos creado por una especie sólo ligeramente más inteligente que su mayor creación.
Incluso podemos estar destinados a convertirnos en creadores de un universo.
Con temas tan grandes a mano, no sorprende que los científicos más icónicos de nuestra generación se hayan enfrascado en la física.
Albert Einstein se convirtió en una celebridad casi de la noche a la mañana cuando su teoría de la relatividad cambió nuestra concepción del universo.
Cosmos, el programa de Carl Sagan para la televisión, sigue siendo la serie de mayor audiencia en la televisión pública.
La fría valoración que hizo Richard Feynman de la física subyacente al desastre del transbordador Challenger reveló cuán poderoso puede ser un buen conocimiento del tema.
El trabajo de Stephen Hawking, expuesto en su éxito de ventas Breve historia del tiempo, generó un ansia de conocimientos científicos en personas que nunca habían pensado en la ciencia.
Sólo los descubridores del ADN, quizá, pueden situarse junto a estos gigantes.
Y aún así, hay que decirlo, la gente tiende también a espantarse ante la física.
Si en una conversación casual menciono que soy físico de profesión, dicha declaración se encuentra con una extraña mezcla de admiración y de desconcierto.
Al tiempo que expresan admiración hacia alguien que intenta comprender el universo, muchos parecen considerar también que el tema se halla por completo más allá de sus posibilidades.
«¡Oh! —dicen—, nunca entendí la física.» Si el lector se reconoce en esa afirmación, entonces espero que este libro cambie su perspectiva.
Quizá el secreto mejor guardado de la física es que hay demasiadas cosas para que alguien las comprenda.
Sin embargo, esto no es un problema: ésta es la raíz de su fascinación.
La física tiene tanto que explorar que, una vez ha captado nuestra imaginación, es difícil apartarnos de ella.
El reloj de pared se convierte en un fastidioso recordatorio de la esquiva naturaleza del tiempo.
La luz solar es el resultado de una hermosa e intrincada danza de partículas conocida como fusión nuclear.
Cuando sobre el suelo caen gotas de lluvia, podemos preguntarnos un simple «¿por qué?».
Explorar la respuesta nos tendrá ocupados durante la tormenta más larga.
La manera en que un girasol crece habla de la conservación de la energía y de cómo la naturaleza de la luz ha modelado la vida en la Tierra.
Si vamos un paso más allá y preguntamos qué es la luz, estaremos escudriñando algo que generalmente se considera que es el misterio más profundo de la naturaleza.
Este libro pretende mostrar que preguntas sencillas conducen a algunos de los descubrimientos más profundos que ha hecho la humanidad.
Comprende la física que seguramente el lector no aprendió en clase: el meollo real del asunto; sus implicaciones; lo que comprendemos del universo...
y lo que no.
Carl Sagan dijo una vez: «En algún lugar hay algo increíble a la espera de ser descubierto».
Tengo la esperanza de que dicho proceso pueda empezar aquí.

Capítulo 1
¿Cuál es el sentido de la física?
Preguntas imposibles, recompensas inesperadas y la búsqueda inacabable para comprender

La pregunta ha estado rebotando durante décadas por las aulas de las escuelas. La respuesta que generalmente se proporciona suele empezar con un cuento apócrifo en el que intervienen el legendario filósofo griego Arquímedes y la corona del rey Hierón.

Hierón había accedido al trono de la ciudad siciliana de Siracusa. Dio a un artesano una determinada cantidad de oro para que le moldeara una corona; cuando la corona llegó, también lo hizo un rumor de que el artesano había sustituido algo del oro por plata. Hierón encargó a Arquímedes, que entonces tenía poco más de veinte años, que descubriera la verdad.
La historia, tal como la relata el escritor romano Marco Vitruvio Folión, dice que Arquímedes se dio cuenta de cómo resolver el problema cuando advirtió el volumen de agua que su cuerpo desplazaba en una bañera. La plata, al ser menos densa que el oro, desplazaría menos agua. Arquímedes realizó una serie de experimentos que implicaban sumergir fragmentos de plata y oro que pesaban lo mismo que la corona para ver cuánta agua desplazaba cada uno. Esto le permitió decir si había plata en la corona. En su alegría, Arquímedes salió desnudo a la calle, gritando: «¡Eureka!» («¡Lo encontré!»).
¿Es éste el sentido de la física, dar respuesta a preguntas que aparentemente no la tienen? Ahora podemos observar nuestro entorno a través de una extraordinaria gama de escalas. Allí donde antaño pensábamos que la materia era indivisible, nos hemos hecho cada vez más pequeños, hasta el nivel del átomo, y más allá todavía, hasta las partículas más fundamentales, y en último término hasta una concepción en la que la materia se halla realmente compuesta por fluctuaciones en la energía del espacio vacío (véase ¿Son los sólidos realmente sólidos?). El cielo fue antaño el límite de nuestra visión; ahora sabemos que el universo es tan vasto que a la luz le tomaría cerca de 28.000 millones de años atravesarlo (véase ¿Soy único?). Y, no debe olvidarse, comprender que la luz tiene una velocidad definida y constante es asimismo un triunfo de la física logrado a costa de mucho esfuerzo (véase ¿Podemos viajar a través del tiempo?).

«No sé qué le puedo parecer al mundo —escribió—, pero a mí me parec que sólo he sido como un niño jugando en la playa y divirtiéndome al encontrar de vez en cuando un guijarro más liso o una concha más bonita de lo normal, mientras que el gran océano de la verdad se hallaba ante mí, sin descubrir.»

Sabemos mucho de la historia del universo, la naturaleza de la materia y la estructura de nuestro planeta, pero quizá la mayor lección que hemos aprendido es que, cada vez que pensamos que hemos explicado la naturaleza, nos sorprende de nuevo, revelando lo poco que realmente sabemos. Probablemente, Isaac Newton fue quien mejor lo dijo en sus memorias: «No sé qué le puedo parecer al mundo —escribió—, pero a mí me parece que sólo he sido como un niño jugando en la playa y divirtiéndome al encontrar de vez en cuando un guijarro más liso o una concha más bonita de lo normal, mientras que el gran océano de la verdad se hallaba ante mí, sin descubrir».

Una alternativa a la superstición
Si hay un aspecto de los logros de la física que Newton apreciaba quizá menos que la mayoría, era la capacidad de la materia de cortar a través del misticismo y la superstición. Newton era un gran alquimista y un erudito de la Biblia; consideraba que sus escritos sobre el libro de Daniel del Viejo Testamento constituían la mayor de sus obras. Siempre que la física amenazaba con poner en duda asuntos espirituales, Newton reculaba. «Yo he estudiado estas cosas; vosotros no», era su réplica constante a las críticas que los astrónomos hacían a la religión. Newton dejó margen para la obra de Dios en el funcionamiento de su «universo como gran mecanismo de relojería», pero el desarrollo de la física pronto desplazó a la mano divina. Cuando el emperador Napoleón le preguntó a Pierre-Simon Laplace acerca de su tratado sobre la mecánica celeste, que acababa de publicar, le hizo notar la ausencia de Dios en el mecanismo. Laplace replicó: «No tengo necesidad de tal hipótesis». El objetivo de la física, en muchos aspectos, es encontrar qué hay en el universo que sea explicable por un conjunto de leyes, y cuanto más simples sean dichas leyes, mejor.
Hasta aproximadamente el año 600 a.C., las civilizaciones desarrollaron tecnologías pero pensaron poco acerca de cómo explicarse el mundo: esto se dejaba para los profetas y los sabios. Y entonces aparecieron los milesios. La ciudad de Mileto, en la costa occidental de la actual Turquía, era la sede de un modo de pensar que los científicos de hoy en día reconocerían como un ansia de comprensión real y de primera mano. En lugar de tener los secretos del universo enmascarados por preocupaciones religiosas y místicas, los milesios buscaban leyes que explicaran los fenómenos de la naturaleza, y produjeron teorías sobre las causas de los terremotos, de los rayos y de la estructura del universo, entre otras cosas.
Los milesios debatían abiertamente dichas teorías, consideraban cómo podían comprobarse y aceptaban los resultados de los experimentos como árbitro de la verdad. Se atribuye a Anaxímenes de Mileto el haber realizado el primer experimento científico del mundo. Sus observaciones acerca de como la temperatura del aliento exhalado parece variar en función de si los labios se hallan fruncidos o completamente abiertos, le llevaron a la conclusión de que la compresión causa el enfriamiento y la expansión el caldeamiento.
El hecho de que Anaxímenes estuviera exactamente equivocado aquí es otra lección en el sentido de la física. Nos enseña que no podemos estar nunca seguros de nada que sea «sabiduría o creencia popular»; a menudo se comprueba que las teorías aceptadas, e incluso los «hechos» acerca de cómo funcionan las cosas en el universo, son erróneos y son suplantados por nuevas ideas. También éstas se hallan abiertas a la falsación. La física es un proceso de comprobarlo todo... especialmente aquellas cosas que más deseamos que sean ciertas.

Proporcionar las leyes por las que funciona la sociedad

James Wilson, que desempeñó un papel importante en la elaboración de la Constitución estadounidense y se convirtió en uno de los seis jueces originales del tribunal supremo de George Washington, se tomó a pecho las ideas de la física. Cuando definía el papel del gobierno en sus Lecciones de Derecho dijo: «Cada parte influye y es influida, sostiene y es sostenida, regula y es regulada por el resto... Hay una necesidad de movimiento en los asuntos humanos; y estos poderes se ven obligados a moverse, aunque sea conjuntamente».
La declaración de Wilson es digna de Isaac Newton: invoca las mismas leyes de la interacción que permitieron a Newton deducir cómo funcionaba el sistema solar. Lo que es más, la conexión entre Newton y la teoría política no es difícil de reseguir. Newton estuvo inspirado por Copérnico, quien reconoció la obra de Aristarco de Samos, que vivió en Grecia entre 310 y 230 a.C. Aristarco estuvo inspirado, a su vez, por Platón, el filósofo, aristócrata y político griego. Se considera que la mayor contribución de Platón a la civilización es su República, un examen de la mejor manera de gobernar una sociedad. Pero Platón también era un astrónomo distinguido: por ejemplo, fue la primera persona que reconoció que las anomalías en el movimiento de los planetas podían resolverse encontrando alguna combinación de movimientos circulares.
Platón pensaba que la física era un adiestramiento excelente para un político. Los caudillos han de aprender ciencias físicas tales como la astronomía, declaró una vez Platón; no porque ayuden en la observación de las estrellas o la navegación, sino porque proporcionan una educación en las técnicas de pensamiento abstracto que son esenciales para el liderazgo. Las mismas habilidades son muy valoradas hoy en día: los físicos de profesión tienen mucha demanda fuera de las paredes del laboratorio: en las finanzas, en los negocios y en el gobierno.

Es por esta razón que la física se halla relativamente desprovista de «santos científicos». No es tanto una disciplina de ideas como una disciplina de consensos a los que se ha llegado mediante el acopio de pruebas experimentales. A quienes no aceptan los resultados de los experimentos (y no aportan buenas razones de por qué otros debieran unírseles en el lado «equivocado» de la valla) se tiende a despacharlos sumariamente.

Más que la suma de las partes
Los físicos Albert Einstein y Richard Feynman proporcionan una ilustración adecuada de la manera en que la física es mayor que cualquier físico. Aunque en la actualidad es venerado como un ídolo público, Einstein no murió siendo un héroe para otros físicos. Por el contrario, se recuerdan los últimos años de su vida con un regusto de pesadumbre por su última investigación. La obra mejor conocida de Einstein la realizó al principio de su carrera. Hizo una contribución fundamental a la teoría cuántica con el descubrimiento experimental del fotón, el cuanto de energía (véase ¿Qué es la luz?).
Esto echó por tierra la teoría, de varios siglos de antigüedad, de que la luz tenía que ser una onda. Después, su teoría de la relatividad especial cambió nuestra idea del tiempo. Su dilucidación de la idea de que masa y energía son intercambiables (véase ¿Por qué E = mc2?) fue una revelación sobre las características fundamentales de la materia. La teoría de la relatividad general reescribió la obra gravitatoria de Newton después de casi cuatro siglos de aceptación (véase ¿Por qué cae una manzana?).
Pero, después de esto, las ideas de Einstein fueron cada vez más irrelevantes para los físicos. La revolución cuántica cambió la faz del asunto, pero Einstein se resistió a aceptar la teoría cuántica como una manera útil de describir el universo. Pasó sus últimos años trabajando, en vano, en una teoría que tenía que unir el electromagnetismo y la relatividad y hacer de la teoría cuántica una innovación innecesaria. El número de físicos que trabajaban con él y lo apoyaban fue disminuyendo a lo largo de su vida.
Richard Feynman es quizá el segundo físico más famoso después de Einstein. Fue un gran divulgador de la física, un pensador grande e innovador y (lo más importante de todo) sigue siendo un gran héroe para los que trabajan en el campo. Feynman no alcanzó nunca las vertiginosas alturas de los logros de Einstein, pero hizo más que muchos, contribuyendo a la creación de la electrodinámica cuántica, o QED, una teoría que describe las interacciones de la luz y la materia (véase ¿Qué es la luz?). Generalmente se la considera como la más exitosa de las teorías de la física.
Una de las mayores virtudes de Feynman como físico fue su capacidad de escuchar las convicciones de sus iguales, inclinarse ante la ley de la evidencia y admitir que siempre estaba trabajando desde una posición de ignorancia. Es famosa su frase: «El primer principio es que no has de engañarte a ti mismo... y uno es la persona más fácil de engañarse».
Su renuencia a engañarse se resume en su evaluación de la teoría que se convirtió en la ruina de Einstein. «Pienso que puedo decir con seguridad que nadie entiende la mecánica cuántica —escribió en El carácter de la ley física—. No sigáis diciéndoos, si podéis evitarlo, "Pero ¿cómo puede ser así?", porque os meteréis... en un callejón sin salida del que todavía nadie ha escapado. Nadie sabe cómo puede ser así.»

«El primer principio es que no has de engañarte a ti mismo... y uno es la persona más fácil de engañarse.»

Esta es la razón por la que el Einstein mayor no es reverenciado por los físicos, y Feynman lo es.

Mientras que Einstein se metió en un callejón sin salida, Feynman admitió su comprensión limitada y siguió a otros cuando éstos hacían incursiones en nuevos territorios. Éste es otro componente del sentido de la física: progreso al construir sobre los logros de otros. Tal como Newton lo planteó: «Si he podido ver más lejos es sólo porque iba a hombros de gigantes».

«Si he podido ver más lejos es sólo porque iba a hombros de gigantes.»
Gracias a la teoría cuántica, la física ha dado incluso el paso extraordinario de definir algunos límites para sí misma. El principio de incertidumbre de Heisenberg (véase ¿Acaso todo es, en último término, aleatorio?) establece en piedra el hecho de que hay límites a lo que la física puede decirnos acerca de un sistema.

Una disciplina humilde
Cuando examinamos las ecuaciones que rigen el movimiento de un electrón, pongamos por caso, podemos ver cómo nos dicen su momento o su velocidad. Sin embargo, no hay manera alguna en que nos puedan decir, con precisión, a la vez el momento y la velocidad. Ambos sólo pueden encontrarse con una precisión finita.
Werner Heisenberg vio el lado práctico de ello: existen límites a lo que nuestros experimentos pueden revelar. Si hacemos saltar un fotón de luz de un electrón, podremos inferir su posición, pero el fotón también habrá comunicado un cierto momento al electrón. Así, el acto de determinar la posición del electrón crea una incertidumbre en el valor de su momento. Y al revés, una medición del momento creará siempre una incertidumbre en la posición de una partícula. Y consideremos la teoría o el experimento, hay limitaciones estrictas a lo que podemos descubrir. La física, en muchos aspectos, es una disciplina humilde. Pero hay mucho ante lo que mostrarse humilde, como atestiguarán los físicos que hubo detrás de la bomba atómica.
Si hubiéramos planteado la pregunta «¿Cuál es el sentido de la física?» a los gobiernos occidentales después de la segunda guerra mundial, nos hubiéramos encontrado con la incredulidad de que siquiera hubiéramos tenido que preguntar. La física lo era todo, como la guerra había demostrado. La física nos había dado fantásticas innovaciones tecnológicas: el radar, los ordenadores, la bomba atómica y, desde luego, los televisores y los hornos de microondas. La física se afanaba en ser la impulsora de las economías y la protectora de las naciones. Sin embargo, si hubiéramos planteado la misma pregunta a los físicos, podríamos haber obtenido una respuesta algo más mitigada.
Inmediatamente después de la primera prueba de la bomba atómica en Nuevo México, Kenneth Bainbridge, un físico de Harvard, se volvió hacia Robert Oppenheimer, el jefe del proyecto. «Ahora todos somos hijos de puta», le dijo. Oppenheimer se las había con sus propias emociones en conflicto: décadas más tarde reconoció que todos sabían en aquel momento que el mundo nunca volvería a ser el mismo. Y, sin embargo, dijo Oppenheimer, si se encontrara en la misma situación volvería a hacerlo. «Si eres un científico, no puedes detener una cosa de este tipo dijo en su discurso de jubilación, en 1945. Si eres un científico, crees que es bueno descubrir cómo funciona el mundo... que es bueno traspasar a la humanidad en general el mayor poder posible para controlar el mundo.»

El mundo en el bolsillo
¿Es éste el objetivo de la física, obtener el control sobre el mundo? Es cierto que la física (o, al menos, las aplicaciones industriales de la física) ha creado el mundo moderno. Si nuestra época puede definirse por una cosa, probablemente es la revolución de la microelectrónica: televisión, informática, internet y comunicaciones móviles, para no mencionar más que algunos aspectos. Iodo ello se construyó sobre las espaldas de la física. Para ser más específico, se construyó sobre las espaldas de la tecnología del silicio. Durante la segunda guerra mundial, los que desarrollaron el radar trabajaron para crear cristales cada vez más puros de silicio y germanio para el equipo. Los físicos (por encima de todo los que trabajaban para los Laboratorios Bell, en los Estados Unidos) continuaron dicho desarrollo después de la guerra aprendiendo cómo convertirlos en «semiconductores» e incorporándolos a tecnologías que previamente habían necesitado amplificadores de válvulas ineficientes y voluminosas. Hacia 1952, los primeros productos electrónicos basados en el silicio llegaron al mercado: dispositivos de baja potencia y muy portátiles, como audífonos y radios de bolsillo. Un año después apareció el primer ordenador que funcionaba mediante transistores. Poco tiempo después, la gente empezó a referirse a la concentración de compañías de electrónica en una pequeña área de California del norte como Silicon Valley.
No es difícil ver el impacto de la física en nuestra vida. Los láseres proporcionan un ejemplo específico. Los láseres surgieron asimismo de los Laboratorios Bell y derivaron de la investigación en la tecnología del radar durante la época de la guerra. Desde su invención en 1957, se han hecho omnipresentes en nuestra vida cotidiana. Reproductores de CD y DVD, sistemas de comunicaciones mediante fibra óptica como la red telefónica, escáneres de comprobación de los supermercados, cirugía ocular e impresoras láser son sólo algunas de las aplicaciones.
Así pues, ¿es acaso el desarrollo de la tecnología el objetivo de la física? En absoluto. Las revoluciones tecnológicas del siglo XX se produjeron como un resultado, en último término, del descubrimiento (o la invención, si el lector lo prefiere) de la teoría cuántica. Esta fue el resultado de intentar desenmarañar cosas que nadie comprendía, como por qué el espectro de la radiación emitido por un horno a 100 grados Celsius era el mismo que el espectro de radiación emitido por cualquier otra cosa a 100 grados Celsius, y no de intentar inventar específicamente nuevos dispositivos.
En esencia, nuestras tecnologías electrónicas modernas proceden de la teoría cuántica, que procedía de la termodinámica, el estudio del calor. Éste surgió del estudio de los gases, y así sucesivamente. La física es una reacción en cadena que se automantiene: cada descubrimiento provoca otro conjunto de preguntas, que provocan nuevos descubrimientos. Tal como dijo una vez George Bernard Shaw, «la ciencia nunca resuelve un problema sin crear otros diez».

Una historia de nunca acabar
No se ve un final a las preguntas. A los físicos les gustaba decir que su trabajo ya estaba hecho. En 1894, el físico americano Albert Michelson anunciaba que «Las leyes fundamentales y los hechos más importantes de la ciencia física se han descubierto ya, y éstos están en la actualidad establecidos de manera tan firme que la posibilidad de que alguna vez se vean suplantados como consecuencia de nuevos descubrimientos es enormemente remota». Durante la década siguiente, tuvimos las revoluciones gemelas de la relatividad y de la teoría cuántica.
En 1888, el astrónomo Simón Newcomb había anunciado el fin de la astronomía: en los cielos quedaban pocas cosas por descubrir, sugirió. Newcomb también estaba equivocado. Probablemente, nuestra concepción del cosmos ha cambiado de manera más radical desde la época de Newcomb que lo que hizo a lo largo de los miles de años de descubrimiento científico que tuvieron lugar antes de su nacimiento. Aunque los principales descubrimientos del último siglo nos demostraron de dónde venimos, subrayando toda la historia del universo, de nuestra concepción del mundo ha desaparecido la arrogancia; con el descubrimiento de que la mayor parte del universo se encuentra en una forma desconocida para la ciencia, los físicos aprecian ahora que han de habérselas con sólo un minúsculo porcentaje del universo.
Existe, hay que decirlo, un final a la vista: la teoría del todo. Si la física se inició con la búsqueda por parte de los milesios de las leyes que rigen los fenómenos naturales, llegará (teóricamente) a su final con el descubrimiento de una sola ley: la descripción última del universo. Dicha «teoría del todo» reducirá todas las partículas, las fuerzas que rigen sus interacciones y el espacio y el tiempo en el que su existencia se desarrolla, a una única descripción unificada (véase ¿Trata realmente de cuerdas la teoría de cuerdas?).
Por el momento, estamos lejos de conseguir ese objetivo, pero aquí, quizá, hemos encontrado la verdadera finalidad y la esencia de la física: descubrir la magnitud de nuestra ignorancia, y hacer lo que podamos para reducirla. A veces, como ocurrió con la bomba atómica, hay que pagar un precio por este viaje de descubrimiento. A veces, como con el desarrollo de la mecánica cuántica, obtenemos unas enormes recompensas prácticas de ello. Pero la mayor parte del tiempo, nos dirán los físicos, la física trata simplemente de la emoción del descubrimiento; y después, de descubrir que nuestros descubrimientos han hecho que el mundo sea más interesante, no menos. Tal como dijo el poeta John Dryden, «La alegría de observar y comprender es el más bello regalo de la naturaleza».


Capítulo 2
¿Qué es el tiempo?
Progreso, desorden y los relojes elásticos de Einstein

En lo profundo de nuestro cerebro hay un grumo de tejido denominado striatum. Este surtido de neuronas es, hasta donde sabemos, el único lugar en el que reside el tiempo. Acumula el primer registro de los momentos de nuestra vida y provoca la sensación de que nuestra infancia fue un variado y confuso conjunto de momentos importantes y fascinantes, mientras que la vida adulta se mueve con demasiada precipitación para poder apreciarla adecuadamente.

Pero no deberíamos conceder demasiada importancia a estos sentimientos. El don del striatum es en realidad crear una impresión (quizá incluso una ilusión) del paso del tiempo. El problema es que su medida del tiempo depende de lo que ocurre en nuestra mente consciente. Cada vez que realizamos una tarea consciente, como poner la tetera en el fuego, los diversos circuitos eléctricos en nuestro cerebro se activan al unísono. El núcleo estriado registra esta emisión simultánea de señales y empieza a anotar los patrones subsiguientes de señales eléctricas procedentes de áreas tales como la corteza frontal. Nuestra noción de cuánto tiempo ha pasado antes de que el agua de la tetera rompa a hervir no es otra cosa que una medida de las señales eléctricas acumuladas.
Esto no es tan malo en casa, donde podemos calibrarlo con una mirada al reloj de la cocina. Pero tan pronto como se nos niega el acceso a relojes, las cosas se ponen feas. Cuando, en los primeros años de la década de los sesenta, el geólogo francés Michel Siffre se quitó el reloj y descendió a una cueva oscura durante sesenta días, su percepción del paso del tiempo se deshilachó. Al final del experimento, lo que Siffre pensaba que era una hora eran a menudo cuatro o cinco. Drogas tales como el valium, la cafeína o el LSD desbaratarán de manera parecida nuestro sentido del tiempo. Y lo mismo hará nuestra memoria.
Solemos pensar que las épocas atareadas hacen que la vida pase volando, pero los experimentos demuestran que esto sólo es cierto mientras estamos ocupados. Después, cuando reflexionamos sobre nuestra existencia, nuestros períodos atareados parecerán mucho más extensos. Esta es la razón por la que nuestra infancia parece ahora que haya sido una serie de veranos largos y dorados; la vida era emocionante cuando teníamos tanto que experimentar, y nuestro cerebro piensa que estos niveles elevados de emisión de señales deben corresponder a períodos enormes de tiempo. Así pues, nuestra comprensión del paso del tiempo es tan precaria ionio siempre podemos haber sospechado. Pero resulta que nuestros problemas con la percepción del tiempo no son nada en comparación con nuestros problemas con la noción del propio tiempo.

Tiempo universal
El lector podría pensar que, a estas alturas, ya deberíamos tener una idea de lo que es el tiempo. Después de todo, el tiempo es un concepto que se entiende de manera universal: todas las culturas humanas lo conocen, hablan de él, lo sienten. Y hemos estado pensando en lo que significa durante milenios. En 350 a.C, Aristóteles, por ejemplo, escribió una obra llamada Física que incluía uno de los primeros intentos de tratar de resolver la noción del tiempo.

«En primer lugar, ¿pertenece a la clase de cosas que existen o a la de cosas que no existen?»

La obra de Aristóteles sobre el tiempo empieza con una pregunta: «En primer lugar —dice—, ¿pertenece a la clase de cosas que existen o a la de cosas que no existen?». Hoy en día, en el segundo milenio d.C., ésta sigue siendo una cuestión abierta. Si nuestra mente se engaña por el paso del tiempo, ello puede ser porque el propio tiempo es una ilusión. Desde los griegos a la física moderna actual, la principal conclusión acerca del tiempo ha permanecido constante: trata, por lo menos, del cambio. A lo largo del tiempo, una cosa cambia en otra.
Pero mientras que los compañeros griegos de Aristóteles estaban obsesionados con el círculo como concepto más fundamental del universo, lo que significaba que el tiempo tenía que fluir en ciclos, la física moderna se centra en procesos lineales: desde un principio hasta un final, del Big Bang al cierre cósmico. Con el tiempo, esto se traduce en un sentido abrumador de la flecha del tiempo: en nuestra concepción moderna del universo, el tiempo se mueve irreversiblemente hacia delante. Los huevos se cascan y no pueden recomponerse. Los relojes avanzan y no marchan espontáneamente en sentido contrario.
Este proceso de cambio, en el que los sistemas se mueven irresistiblemente hacia el desorden, se conoce como la flecha termodinámica del tiempo. Surge de una de las leyes más fundamentales de la física: la segunda ley de la termodinámica. Esta afirma que, en su conjunto, el universo se halla atrapado en un proceso de desenredar el orden. La entropía, una medida del desorden de un sistema, siempre va en aumento.

Orden y desorden
La flecha del tiempo podría surgir de varios orígenes diferentes. Por ejemplo, la «flecha cosmológica del tiempo» cita la creación del universo como un movimiento que se aleja de un estado especial de baja entropía en lo que todo estaba pulcramente ordenado. Es algo así como dar un cubo de Rubik completamente resuelto a un niño curioso; a medida que pasa el tiempo, el universo se desplaza a un estado cada vez más desordenado, de la misma manera que el orden perfecto de las caras del cubo de Rubik darán paso a una mezcolanza desordenada de colores. Mientras que algunas cosas, como las galaxias, aparecen ordenadas, con estructuras que a menudo son intrincadamente hermosas, el orden del universo en su conjunto se reduce. El final llegará cuando ya no haya más desorden que crear; o, como dijo lord Kelvin, cuando el universo haya alcanzado «un estado de reposo y muerte universales».
Nuestra flecha del tiempo familiar podría resultar igualmente de la teoría cuántica. En una escuela de pensamiento (probablemente la más popular), los sistemas cuánticos experimentan un «colapso» irreversible cuando son medidos. Esto proviene de la notable capacidad de un objeto cuántico como un átomo de existir en dos estados completamente diferentes a la vez. Por ejemplo, podría estar girando al mismo tiempo en el sentido de las agujas del reloj y en el sentido contrario a las agujas del reloj. Sin embargo, cuando se efectúa la medición, dicho doble estado se ve obligado a convertirse en uno u otro: se encontrará que el átomo medido gira en el sentido de las agujas del reloj o en el sentido contrario, y no retornará espontáneamente al estado en que giraba en ambos sentidos.
Sin embargo, hay un problema con estas descripciones de la flecha del tiempo. No nos conducen a ninguna parte porque requieren el concepto de cambio. Y el cambio, tal como señaló Aristóteles, es un marcador del paso del tiempo. Mediante consideraciones de la flecha del tiempo no hemos avanzado nada en la definición del tiempo. Todo lo que tenemos es una supuesta explicación para la dirección que parece que toma. E incluso esto ha sido socavado. La flecha del tiempo podría ser parte de nuestra experiencia individual, pero no tenemos razones para creer que esto la hace real. Peor todavía, tenemos buenas razones para creer que no lo es.

Un alargamiento del tiempo
Hemos de agradecer a Albert Einstein esta intuición turbadora: reside en el núcleo mismo de su teoría especial de la relatividad. Einstein era comparativamente poco conocido cuando publicó sus ideas en 1905. La relatividad especial fue una obra revolucionaria, que de un solo plumazo despachó el concepto popular, y duradero, del éter, una especie de fluido fantasmagórico que llena todo el espacio y proporciona un fondo a través del cual los campos electromagnéticos, como la luz, pueden desplazarse.
Llegados a este punto, vale la pena mencionar que, tal como dijo una vez el malogrado Carl Sagan, mientras que las teorías extraordinarias requieren pruebas extraordinarias, la relatividad especial es una de las pocas de dichas teorías en las que se han encontrado pruebas extraordinarias que la respaldan. Lo que el lector va a leer ahora puede parecer absurdo, pero tenemos todas las razones para tomárnoslo en serio.
El punto central de la relatividad especial es que las leyes de la física funcionan igual para todos, con independencia de cómo se estén desplazando por el universo. La consecuencia más importante de ello es que la velocidad de la luz es una constante, conocida universalmente como c.
Si el lector fuera a medir la velocidad de la luz emitida por los faros de un vehículo que se desplazara hacia él a 100 kilómetros por hora, la velocidad de la luz sería c, no c más 100 kilómetros por hora.
La velocidad de la luz no cambia en función del movimiento relativo del emisor y el observador. La conclusión extraordinaria de la constancia de c es que, cuando las condiciones lo requieren, todo lo demás cambia... incluido el tiempo.

01.jpg
La velocidad constante de la luz. La velocidad de la luz c, es constante con independencia de si la fuente de luz se mueve o permanece estacionaria

El paso del tiempo es un asunto tan flexible en el mundo físico real como lo es dentro de nuestra mente.
Imaginemos una escena en la que el lector se halla situado a 100 metros de un cruce controlado por semáforos. El lector está equipado con un cronómetro asombrosamente preciso, una regla y reflejos rapidísimos. El semáforo rojo se enciende y el lector puede medir el tiempo que tarda el primer pulso de luz roja en viajar a lo largo de la regla del lector. En este momento, un coche pasa junto a éste, desplazándose hacia el cruce a 100 kilómetros por hora. El pasajero del asiento delantero tiene las mismas habilidades y equipo que el lector, y realiza la misma medición: el tiempo que tarda la luz en desplazarse a lo largo de la regla.
Ambos, el pasajero y el lector, han medido la velocidad de la luz, y Einstein insiste en que ambos han de obtener el mismo resultado.
Pero, cuando el coche pasó junto al lector en dirección al semáforo, la regla que se hallaba en su interior también se movió en relación al lector. Para cuando la luz alcanzó el extremo de la regla en el coche, el extremo posterior de ésta se hallaba más cerca del semáforo, de modo que la luz tuvo que viajar una menor distancia en comparación con la regla del lector. El pasajero del coche tuvo que medir la luz como algo más rápido, que recorrió un metro en menos tiempo. ¿Cómo puede ser, entonces, que ambos obtuvieran el mismo resultado? La respuesta tiene que ver con el paso del tiempo en situaciones distintas. En comparación con el reloj del lector, el reloj en el coche que se desplaza se mueve más lentamente. Así, aunque la luz tenía aparentemente menos distancia que recorrer, la medición del tiempo en el coche fue más extensa que la del lector, lo que compensó el efecto.

02.jpg
Dilatación del tiempo

Esto no es un juego de manos en el que una combinación de ilusiones hace que obtengamos el resultado correcto. El efecto, conocido como dilatación del tiempo, sólo se torna claramente perceptible cuando el reloj se mueve a velocidades cercanas a la de la luz, pero sigue siendo cierto que un reloj que se desplaza en relación con nosotros irá realmente más lento que un reloj que tengamos en la mano. Y la palabra «reloj» se refiere a cualquier cosa que pueda marcar el paso del tiempo. Si esta afirmación se diseca, se verá que surgen todo tipo de implicaciones inquietantes.

Parientes que envejecen
Empecemos con algo que es casi tan concebible. Tomemos un borujo de polonio, un material radiactivo descubierto por Pierre y Marie Curie hace unos 100 años. Una forma de polonio, el polonio-209, tiene una media de vida de unos 100 años; es decir, al cabo de un siglo, la mitad de sus átomos habrán emitido una explosión de radiación y se habrán transmutado en átomos más estables.
Si los Curie hubieran tomado dos borujos idénticos de este material cuando lo descubrieron, y hubieran dejado uno en su laboratorio de París mientras enviaban al otro en un viaje de ida y vuelta al espacio a 0,99 de la velocidad de la luz, y que hubiera retornado a la Tierra en la actualidad, observaríamos algo notable sobre la cantidad de radiación que ambos fragmentos emitían. El fragmento que permaneció en París habría perdido la mitad de sus átomos de polonio radiactivo durante dicho siglo. Lo sorprendente es que su gemelo, el borujo que fue enviado en un cohete al espacio mientras en la Tierra pasaban 100 años, sólo habría perdido el 10 %.
Ello se debe a que el movimiento con relación a la Tierra a 0,99 de la velocidad de la luz (dejando de lado aspectos prácticos tales como la aceleración, la deceleración y el dar la vuelta) hace que el tiempo sea más lento para este pedazo. Su «reloj», medido por la tasa a la que sus átomos experimentan la desintegración radiactiva, se mueve sólo al 14 % de la velocidad de su gemelo, que nunca abandonó el planeta. Esta es la razón por la que tantos de sus átomos radiactivos permanecen intactos. Quizá esto sea muy difícil de creer; pero veamos ahora algo realmente inconcebible.
Hagamos que Pierre y Marie Curie guarden los dos pedazos de polonio. Pierre acompañará a un fragmento en aquel viaje de ida y vuelta por el espacio, mientras que Marie se quedará en París con su fragmento. El cuerpo de los científicos también tiene un reloj interno: al igual que pasa con el polonio, sus átomos cambian con el paso del tiempo, creando un latido del corazón, por ejemplo, y células que se detienen después de realizar un determinado número de divisiones (fenómeno que los biólogos creen que está en la base del envejecimiento y la muerte).
Mientras no tenemos en cuenta los efectos seguramente catastróficos de la radiación, los átomos (y por lo tanto las células y los latidos) del cuerpo de Pierre irán más lentos en comparación con los de Marie, del mismo modo que la desintegración radiactiva del polonio va más lenta que en la Tierra. Cuando Pierre retorne, 100 años terrestres más tarde, Marie ya hará tiempo que habrá muerto, pero el cuerpo de Pierre sólo ha envejecido 14 años. Una conclusión inmediatamente obvia de esto es que, si se tienen los recursos adecuados, el viaje en el tiempo hacia el futuro es completamente posible. Pero sólo hay un paso desde este punto hasta la asombrosa revelación de que la teoría de la relatividad especial de Einstein elimina en todo caso la idea de algún futuro común. Y tampoco hay un presente ni un pasado comunes.

En busca del tiempo perdido
El lector puede afirmar, mientras se halla mirando el semáforo, que vio dos acontecimientos que tenían lugar simultáneamente. Pero, como hemos visto, el pasajero del coche tiene un reloj que marcha a una velocidad diferente. La información que lector y pasajero obtienen a propósito de la temporización de estos dos acontecimientos bien pudiera ser muy distinta. Peor aún, el lector podría ver dos acontecimientos, A y B, que ocurrieran en momentos distintos, B después de A. Sin embargo, en función de cómo se desplazara el amigo relativo del lector, éste podría ver que A sigue a B. Esto es potencialmente catastrófico: si el lector piensa que A causó B, ¿cómo puede explicarse esto a alguien que vio que B ocurría primero?
Pasado, presente, futuro, simultaneidad, causa y efecto... nada es universal. Cuando se trata del tiempo y de los procesos que gobierna, el lector y su núcleo estriado no pueden contar con nadie. Sin embargo, existe una respuesta sencilla a toda esta confusión, y es una respuesta que resulta atractiva a muchos físicos y filósofos. Podríamos eliminar la idea misma de que el tiempo existe.
Es una argumentación que se remonta al siglo XVII. Newton, cuya fe cristiana requería que espacio y tiempo reflejaran el carácter de Dios, consideraba que el tiempo era una entidad real, un absoluto que se mueve con independencia de todo lo que hay en el universo. Pero Gottfried Leibniz, su gran rival, creía que el tiempo era un artefacto humano. Todo lo que podemos hacer, decía Leibniz, es describir la manera en que las posiciones de los objetos en el espacio se relacionan entre sí, y cómo evoluciona dicha relación. Es útil que el péndulo de un reloj oscile a uno y otro lado y que las agujas del reloj circulen alrededor del dial en respuesta, por ejemplo, pero esto no significa que el reloj esté midiendo algo que existe realmente. El tiempo, según su concepción, procede de nuestro deseo de hacer que el mundo tenga sentido, pero no es otra cosa que un medio de orientación útil. Es una abreviación, como el concepto espacial de «arriba». «Arriba» significa una cierta dirección cuando estoy de pie en Londres, pero la misma dirección es en realidad «abajo» en Sidney.
Esta conexión es poco más que una ilustración conveniente. Cuando Einstein publicó su teoría de la relatividad general (lo de «especial» en «teoría especial» se refiere a un caso especial, es decir, particular, no a una importancia especial), postuló una relación entre tiempo y espacio. El tiempo, dijo, no es más que una de las cuatro dimensiones del universo. Las otras tres son las familiares en las que movemos nuestro cuerpo físico: arriba y abajo, a un lado y a otro, adelante y atrás. La única diferencia es que, mientras que nosotros, criaturas conscientes, podemos elegir cómo movernos a través de las dimensiones espaciales, no tenemos control sobre nuestro movimiento a través del tiempo.

Expandiendo el espacio y el tiempo
Se puede pensar en las cuatro dimensiones de Einstein de espacio y tiempo (que conjuntamente se conocen como espacio-tiempo) como un retazo de tejido que puede distorsionarse, doblarse, plegarse, retorcerse e incluso desgarrarse por cualquier cosa en su interior que tenga masa o energía. A partir de estos cimientos, la relatividad general nos ha dotado de ecuaciones que describen las características del cosmos con una precisión sin precedentes, lo que nos ha permitido descubrir cómo funciona el universo, enviar naves espaciales a destinos distantes y crear el dispositivo de satélites de posicionamiento global que nos dicen en qué lugar de la Tierra nos encontramos. Pero quizá lo que es más intrigante de todo, la naturaleza flexible del tejido tetradimensional de Einstein nos proporciona pistas sobre el origen del tiempo.
Nuestra masa distorsiona muy poco el espacio-tiempo. La masa del Sol lo distorsiona mucho más; según la relatividad general, esta distorsión es la base de la atracción gravitatoria que mantiene a nuestro planeta en órbita. Más potente todavía es la distorsión provocada por una estrella gigante desintegrada: un agujero negro. Y es aquí donde atisbamos la verdadera potencia del trabajo de Einstein.
El campo gravitatorio enormemente fuerte de un agujero negro significa que existe una región esférica cerca de su centro en que la velocidad necesaria para alejarse del agujero negro es mayor que la velocidad de la luz: una velocidad que es imposible alcanzar. Nada, ni siquiera la luz, puede escapar de esta región, de manera que no podemos obtener ninguna información acerca de nada de lo que pueda ocurrir más allá de su límite. De ahí su nombre: el horizonte de eventos (también llamado horizonte de sucesos).
En el horizonte de eventos, la dilatación del tiempo es infinita. Alguien que estuviera observando desde una distancia segura mientras caemos hacia el horizonte de eventos vería que nuestros movimientos se hacen más lentos y después se detienen al pasar el tiempo de manera infinitamente lenta para nosotros en comparación con el observador. Sólo en el futuro infinito del observador alcanzaríamos el horizonte de eventos, de modo que realmente nunca desapareceríamos de la vista. Nuestra experiencia, por otra parte, sería sumamente dramática. Es muy improbable que nuestro cuerpo sobreviviera a las enormes fuerzas gravitatorias, pero si sobreviviéramos, terminaríamos por encontrar lo que, según la relatividad, es una interrupción en la urdimbre misma del espacio-tiempo. Dicha «singularidad» en el centro de un agujero negro tiene lugar cuando la distorsión se hace infinita. Aquí alcanzamos el límite de las leyes conocidas de la física; más allá de este punto, dichas leyes no son de aplicación.

El momento en el que empezaron los momentos.
Aunque por lo general se asocia con la destrucción, se piensa también que la singularidad es la clave de la creación. A principios de la década de los setenta, Roger Penrose y Stephen Hawking adaptaron la idea matemática de la singularidad del agujero negro para explicar el origen del universo. En un agujero negro, todo desaparece dentro de la singularidad. Sin embargo, si se invierte la matemática del proceso, la singularidad podría dar nacimiento a la trama misma del espacio-tiempo. Durante más de tres décadas, esto se ha considerado nuestra mejor descripción del Big Bang, el origen del propio tiempo.
Si la relatividad general arroja alguna luz acerca de dónde procede el tiempo, sigue sin decirnos demasiado acerca de lo que es el tiempo. Y, lo que es más, por impresionantes que sean las formulaciones de Einstein del carácter del espacio y el tiempo, sabemos que la relatividad especial y la general no son la respuesta final.
Si la singularidad nos enseña algo, es que, mientras que la relatividad general funciona notablemente bien en muchos escenarios, no ofrece una explicación satisfactoria para los fenómenos más extremos de nuestro universo. Una descripción más completa del cosmos y de cómo se comporta todo su contenido (incluidos los centros de los agujeros negros), teoría a la que a menudo se denomina de la «gravedad cuántica», todavía se nos escapa. Y resulta que la naturaleza del tiempo se halla en el meollo mismo del problema.
La gravedad cuántica ha de introducir las ideas relativistas del tiempo en la teoría cuántica, nuestra mejor descripción de cómo se comporta el micromundo de las moléculas, átomos y partículas subatómicas. Pero la teoría cuántica no presta apenas atención al tiempo. Por ejemplo, en la formulación estándar de la teoría no se pueden plantear preguntas acerca de cuánto tarda un proceso. Después está el problema de que la teoría cuántica nos dice que la mayor parte de las partículas subatómicas existen con independencia de la dirección del tiempo. De la misma manera que pueden girar al mismo tiempo en el sentido horario y en el antihorario, sus estados cuánticos pueden desarrollarse hacia delante y hacia atrás en el tiempo. Los investigadores están incluso aprendiendo a realizar experimentos cuánticos en los que la información parece proceder de los futuros de las partículas. Más aún: la relatividad especial nos dice que las partículas sin masa, como los fotones y gluones que mantienen los núcleos unidos, se desplazan a la velocidad de la luz y ni siquiera experimentan el paso del tiempo.
El gran físico John Wheeler dijo una vez: «El tiempo es la manera que tiene la naturaleza de evitar que todo ocurra al mismo tiempo». Debió decirlo mientras guiñaba un ojo, pues sabía perfectamente bien que la aparente simplicidad del tiempo contradice su verdadera naturaleza. San Agustín fue más honesto cuando dijo: «Entonces, ¿qué es el tiempo? Si nadie me lo pregunta, sé lo que es. Si quiero explicárselo a quien me lo pregunta, no lo sé».
A pesar de todos nuestros logros científicos desde san Agustín, el tiempo sigue siendo un enigma, posiblemente la mayor de las cuestiones a las que se enfrentan los físicos en la actualidad. Pero si el tiempo es una ilusión, al menos es una ilusión útil. Nuestra interpretación de sus consecuencias (nuestros recuerdos del pasado, nuestra existencia en el presente y nuestras esperanzas para el futuro) reside en el meollo de la experiencia humana. O esto es lo que nuestro núcleo estriado quiere que creamos.


Capítulo 3
¿Qué le pasó al gato de Schrödinger?
La física cuántica y la naturaleza de la realidad

Corría el año 1925, la mejor época de Buster Keaton y Charlie Chaplin. El mundo estaba ansioso por ver La fiebre del oro, que se anunciaba que iba ti ser la mejor película de Chaplin hasta la fecha, y que iba a estrenarse al mes siguiente. Y el pobre Wolfgang Pauli, un estudiante de física radicado en Hamburgo, Alemania, estaba deprimido. «En la actualidad la física está de nuevo muy embrollada; en cualquier caso, para mí es demasiado complicada - escribía a un colega-. Me gustaría ser un actor de cine o algo por el estilo y no haber oído hablar nunca de física.»

Pauli tenía razón: la física estaba embrollada. Nadie entendía de qué iba la teoría cuántica, acabada de formular. Los experimentos dictaban que la energía tenía que estar fraccionada en paquetes indivisibles o cuantos, pero nadie podía decir por qué. Entonces, justo algunos meses más tarde, el físico austríaco Erwin Schrödinger aclaró la confusión. Ocurrió durante una excursión a las montañas suizas con una mujer que no era su esposa, y terminó cuando él se planteó el destino de un gato imaginario. El minino se convirtió rápidamente en el animal más famoso de la ciencia. El relato del gato de Schrödinger posee el misterio de la teoría cuántica que lo atraviesa de lleno, y su naturaleza adecuadamente enigmática permanece intacta hasta el día de hoy.
El origen del descubrimiento de Schrödinger reside en el trabajo de un físico francés llamado Louis de Broglie. En 1923, De Broglie unió la relatividad, que generalmente es la física de las escalas de distancia y velocidad muy grandes, y la naciente teoría cuántica, la física de lo muy pequeño. El resultado fue una ecuación simple. Toda partícula en movimiento, decía De Broglie, podría describirse igualmente bien como una onda. Toda onda podría describirse como una partícula en movimiento. Einstein, cuando se le presentó el trabajo, proclamó que era «bastante interesante». Sin embargo, dos años después Schrödinger demostró que era muchísimo más que esto.
Erwin Schrödinger dedujo las implicaciones matemáticas de la fórmula de De Broglie durante unas vacaciones de Navidad en 1925. Después de dejar a su mujer en Zúrich, Schrödinger se llevó a su amante a un chalet en las montañas suizas. Este no era un comportamiento insólito en él: parece que Schrödinger y su mujer llegaron a diversos «arreglos» a lo largo de su matrimonio. Sea como fuere, es claro que el viaje fue inspirador. Schrödinger volvió de las montañas con lo que ahora se conoce como la ecuación de onda de Schrödinger. Ésta describe cómo se comporta una partícula cuántica cuando es considerada como una onda.
La ecuación de Schrödinger proporciona una manera de comprender de dónde proceden los estados cuánticos. Tómese, por ejemplo, el modelo del átomo de Bohr, en el que un electrón que gira alrededor del núcleo sólo puede tener determinados estados energéticos. La ecuación de Schrödinger proporciona una manera de deducir cuáles son estas energías «cuantizadas»: el electrón sólo es estable cuando su onda completa un número entero de oscilaciones durante su órbita.
Esto fue una revelación para los físicos, que no tenían una justificación adecuada de las energías cuantizadas. Pero la ecuación también proporciona una manera de deducir de qué manera la energía de un electrón, pongamos por caso, evolucionará a lo largo del tiempo en una determinada situación. Puede proporcionarnos asimismo la posición de la partícula, o su momento, o cómo terminarán los estados cuánticos de dos partículas que interaccionan. Fue considerada como un golpe maestro. Sólo había un problema.
Nadie podía ponerse de acuerdo acerca de qué significaba realmente la ecuación de onda. ¿Significaba que las partículas eran realmente ondas? Schrödinger así lo creía (o más bien lo esperaba). Einstein se puso de su lado. Pero otros no estaban de acuerdo. Max Born, físico de la Universidad de Gotinga, por ejemplo, demostró que las soluciones de la ecuación de onda no podían dar otra cosa que probabilidades. La probabilidad de encontrar una partícula en un espacio determinado, por ejemplo, o la probabilidad de que una partícula posea un determinado momento.
Según esta aproximación, la ecuación era una guía a lo que podríamos descubrir acerca del sistema cuántico que se inspeccionaba, pero no tenía nada que decir acerca de cuál era realmente la naturaleza del sistema. En otras palabras, no nos proporcionaba una descripción de lo que podíamos saber sobre éste. Desde el punto de vista filosófico, esto era una pesadilla. Einstein la odiaba, al igual que Schrödinger.

Pensar en positivo
A Niels Bohr, en cambio, le gustaba. Bohr vivía en Copenhague, donde dirigía un instituto financiado por la cervecera Carlsberg. Era un «positivista»; su filosofía decía que no tenía sentido hablar sobre las propiedades objetivas de algo porque sólo se podía obtener conocimiento acerca de ello mediante medidas subjetivas. Dichas medidas siempre impondrán restricciones a lo que podemos conocer.
La realidad última detrás de la ecuación de onda de Schrödinger no era ni una onda ni una partícula, creía Bohr, de modo que no podía describirse mediante ningún término con el que podamos tratar. Su respuesta fue suponer que nada existe hasta que es medido. Pero, una vez se ha efectuado la medición, el tipo de medida determinará qué es lo que vemos. Por ejemplo, si utilizamos un instrumento que detecta la posición de algo en el espacio, veremos algo que tiene una posición definida en el espacio, la entidad que denominamos una partícula.
Einstein no quería saber nada de esta «interpretación de Copenhague» de la teoría cuántica. Su gran obra, la relatividad, había sido construida específicamente para crear una teoría que fuera independiente del observador. El tema fundamental de la relatividad era que las leyes de la física tenían que ser las mismas, quienquiera que fuera que las dedujera. La idea de que la naturaleza física del universo dependa de cómo lo observemos ofendía profundamente su sensibilidad.
El problema de Einstein residía en el hecho de que describir objetos cuánticos utilizando una ecuación de onda significaba que, como las ondas, éstos podían interferir entre sí. Cuando dos ondas interaccionan, producen una «superposición», que es la suma de las ondas en cualquier punto. Allí donde coinciden dos crestas, la superposición es mayor que ambas. Cuando coinciden dos valles, el valle de la onda se hace más profundo. Si coinciden una cresta y un valle, el resultado es plano.
¿Cómo se aplica esto a las partículas cuánticas? La ecuación de onda de Schrödinger dice que, en las circunstancias adecuadas, existen en una superposición de estados diferentes. Así, un electrón que circula por un anillo de metal puede estar circulando al mismo tiempo en el sentido de las agujas del reloj y en sentido contrario. Un fotón de luz puede estar polarizado (es decir, tener su campo eléctrico orientado) en cualquier número de direcciones al mismo tiempo. Un átomo radiactivo, que se desintegra mediante un proceso cuántico, puede hallarse en un estado de superposición de «desintegrado» y «no desintegrado». Aunque parezca disparatado, esto es lo que dice la teoría.
Que es la razón por la que Einstein y Schrödinger dijeron que tendría que haber algo que faltaba en la teoría. Y, para llevar el agua a su molino, Schrödinger dio con el gato.

«Uno puede incluso plantear casos bastante ridículos —escribió Schrödinger en un artículo de revista de 1935—. Un gato se halla encerrado en una cámara de acero...»

Schrödinger seguía describiendo este caso «ridículo» con un cierto detalle, creando sin proponérselo la piedra de toque para interpretaciones futuras de la teoría cuántica.

El gato en la caja
En la caja de acero cerrada con el gato de Schrödinger hay un pequeño fragmento de material radiactivo y un contador Geiger. En cualquier momento hay cierta probabilidad de que el material radiactivo emita una partícula, desencadenando así una corriente eléctrica en el contador Geiger. Pero Schrödinger tenía el contador Geiger dispuesto de tal manera que liberaba un martillo que, al notar una emisión radiactiva, rompería un frasco de ácido cianhídrico que liberaría vapores que matarían al gato.
Según Schrödinger, la descripción cuántica de todo el sistema, incluyendo todos los átomos que constituyen el gato, «expresaría esto al tener el gato vivo y muerto (perdón por la expresión) mezclado o embadurnado a partes iguales». La lógica es robusta. La naturaleza indeterminada del átomo radiactivo, en una superposición de «desintegrado» y «no desintegrado», también puede poner al gato en una superposición de muerto y vivo.
El final sorprendente llega cuando se trae a colación el tema de la medición. Bohr había dicho que no hay una realidad definida hasta que no se efectúa una medición, porque la elección del instrumento de medida determina qué faceta del sistema (onda o partícula, por ejemplo) verá el observador.

03.jpg
El experimento imaginario del gato de Schrödinger

Así, en opinión de Bohr, el acto de abrir la caja y observar el estado del gato lo obligaría a estar vivo o muerto.
Esto era lo que Schrödinger encontraba tan ridículo: ¿cómo puede el acto de observación cambiar una propiedad tan fundamental de un gato? Tiene que ser una cosa o la otra; Bohr se engañaba de la misma manera que una fotografía borrosa puede dar una impresión de niebla, decía. «Hay una diferencia entre una fotografía movida o desenfocada y una instantánea de nubes y bancos de niebla».
Pero para aquel entonces, la interpretación de la teoría cuántica ya era un asunto de debate público: Einstein y Bohr tuvieron una famosa discusión en 1927, en la quinta conferencia Solvay en Bruselas. Einstein retó a Bohr con una serie de experimentos imaginarios. Imagine tal y cual situación, le decía; ¿cómo puede la observación, o la interacción con el aparato, causar que una superposición se resuelva en un estado o en otro?

Ondas y balas
El resultado final de esta discusión fue una nueva versión de un experimento antiguo: el famoso experimento «de la doble rendija». En 1801, Thomas Young desbarató la teoría de Newton de la luz como partículas haciendo que una luz iluminara una pantalla marcada con dos hendiduras. Young observó un patrón de «interferencia», que sólo puede explicarse mediante la superposición de ondas.
La versión cuántica pregunta qué ocurre cuando se reduce la intensidad de la luz hasta el extremo en que hace su aparición la teoría cuántica. Cuando sólo hay una bala, o «fotón» de luz en el experimento en un momento dado, es claro que no puede haber interferencia, ¿verdad?
En la interpretación de Bohr puede haberla... mientras nadie observe para ver a través de qué rendija se desplazó el fotón. Para Bohr, la luz no es una onda ni una partícula; éstos son nombres que damos a algo cuyas propiedades hemos medido. Según la ecuación de onda de Schrödinger, los fotones de luz atraviesan ambas rendijas. A pesar de ser una partícula única, cada fotón es «embadurnado» en forma de onda, y posee efectivamente dos existencias independientes cuando atraviesa las rendijas. Mientras nadie mida el camino que la luz toma, toma todos los caminos disponibles.
El lector puede pensar que todo esto es un juego de palabras: experimentos imaginarios abstractos cuya naturaleza misteriosa desaparecerá cuando los experimentos se realicen en el mundo natural. El lector se equivocaría, para deleite de Bohr. No lo descubrimos con seguridad hasta hace relativamente poco tiempo. El primer experimento de doble rendija con sólo una partícula en el aparato en un momento dado no se realizó hasta la década de los setenta. Pero funcionó: a pesar de encontrarse ante dos rendijas, una sucesión de electrones formó gradualmente un patrón de interferencia sobre la pantalla situada más allá de las rendijas.
Y, de manera fantasmagórica, cuando en el experimento se situó un instrumento para medir qué rendija atravesaba el electrón, el patrón de interferencia desapareció. En otras palabras, la medición hizo que el electrón se manifestara como una partícula, no como una onda. Esto podría parecer muy alejado del gato de Schrödinger; después de todo, un gato es una bestia muy distinta de un electrón. Pero experimentos subsiguientes han aumentado la partícula cuántica a tamaños cada vez mayores.
Hemos realizado el experimento de doble rendija cuántica con fotones, electrones, átomos e incluso con moléculas de fulereno, de 60 átomos. El misterioso efecto de interferencia nunca ha desaparecido... a menos que intentemos observar a través de qué rendija pasó la partícula. Hay planes en preparación para hacerlo con partículas mucho mayores: un virus, y quizá algo un millón de veces mayor que la molécula de fulereno. Aparte de las dificultades de construir el experimento, no hay ninguna razón fundamental para detenerse aquí: no hay ninguna causa que sugiera que un gato real no tenga que comportarse de la misma manera que un electrón, dadas las circunstancias adecuadas y una doble rendija del tamaño de una trampilla para gatos.
Excepto, desde luego, que es fácil ver un gato real y de este modo determinar a través de qué trampilla pasó. En el experimento imaginario de Schrödinger, la caja ha de permanecer cerrada de manera que nadie pueda ver el gato, no se realiza ninguna medición y la superposición permanece intacta. Esto nos lleva a una pregunta difícil, que Bohr siempre eludió. ¿Qué es lo que constituye una medición? En el gato de Schrödinger, ¿lo es cuando se abre la caja? ¿Cuando los fotones de luz rebotan en el gato y nos transmiten información que nos permite decir si el gato está vivo o muerto? ¿O lo es cuando esos fotones penetran en nuestros ojos? ¿O cuando nuestra mente consciente registra el estado del gato? La respuesta de Bohr a este galimatías era, esencialmente, que los físicos ya saben cuándo han hecho una medición. Sin embargo, versiones modernas del experimento del gato de Schrödinger están arrojando mucha más luz sobre el proceso... y explican por qué un gato no puede estar a la vez vivo y muerto.

No mires ahora
El límite entre el mundo «clásico» en el que habitamos y el mundo cuántico de los átomos desciende hasta las ondas de De Broglie que fueron el origen de toda esta historia. La longitud de onda de De Broglie de un cuerpo, que depende de su momento, da una medida de la escala a la que se manifestará como una onda cuántica.
En el experimento de doble rendija, la molécula de fulereno tiene una longitud de onda de De Broglie de alrededor de 10-12 metros, o una billonésima de metro. La separación entre las rendijas es aproximadamente medio millón de veces mayor que esto; mayor, pero no muy diferente en escala. Ello significa que el sistema es adecuado para exhibir el comportamiento ondulatorio. Esto sigue estando de conformidad con la afirmación de Bohr de que la elección del aparato de medida decide qué características se manifestarán, pero descarta dos explicaciones de por qué no puede parecer que un gato o una persona (a diferencia de la molécula de fulereno) se hallan en dos lugares al mismo tiempo.
La primera razón es práctica. Por ejemplo, si caminara a lo largo de una pared a unos tres kilómetros por hora, el gato de Schrödinger tendría una longitud de onda de alrededor de 10-28 metros. Su comportamiento cuántico, ondulatorio, sólo quedaría descubierto por un dispositivo de medición de una escala similar. Puesto que nunca hemos creado tal dispositivo, no podemos percibir el comportamiento cuántico. La vida cotidiana es, según el modelo de Bohr, una situación experimental que siempre manifestará la naturaleza de tipo particulado de todo lo que nos rodea.
La segunda razón por la que somos «clásicos» es que emitimos radiación. Cualquier cosa que tenga una temperatura por encima del cero absoluto, -273 grados Celsius, emite fotones, paquetes de energía que se llevan calor. Mediante experimentos se ha demostrado que dicha radiación puede usarse para encontrar la localización del objeto, revelando así efectivamente a través de qué rendija pasó. En otras palabras, a una temperatura por encima del cero absoluto no se puede cerrar la caja del gato de Schrödinger, lo que invalida la premisa del experimento imaginario cuando se lo quiere trasladar al mundo real.
Dichos experimentos se realizaron disparando moléculas de fulereno a una rendija doble. Cuanto más caliente estaba la molécula de fulereno a medida que se acercaba a las rendijas, más borroso era el patrón de interferencia. La molécula caliente emite fotones y la energía de los fotones emitidos viene determinada por la temperatura. Una temperatura más elevada confiere esencialmente más energía, lo que se traduce, en los términos de De Broglie, en una radiación de onda más corta. Y cuanto más corta es la radiación de onda de la radiación emitida, más fácil es inferir la posición de la molécula emisora. En otras palabras, un cuerpo caliente parece revelar más información acerca de qué rendija puede atravesar.
Lo mismo ocurre si las moléculas de fulereno colisionan con moléculas de aire en el camino hacia las rendijas. Normalmente los experimentos se realizan en un vacío elevado, pero si el vacío no es muy bueno y la posición del fulereno puede inferirse al observar qué hace a las moléculas de aire, el patrón de interferencia desaparece. Aquí, de nuevo, puesto que es posible inferir qué rendija atraviesa la molécula, su capacidad para atravesar ambas a la vez empieza a desvanecerse. En un vacío parcial, el fulereno se comporta como si alguien hubiera dejado la caja del gato de Schrödinger medio abierta, obligándolo así a estar vivo o muerto, pero no ambas cosas a la vez.

Computar con gatos
La idea que hay detrás de un ordenador cuántico es utilizar el fenómeno del gato de Schrödinger para realizar cómputos a una escala masiva. Los ordenadores familiares utilizan el estado de carga de un condensador para representar un número en binario: 0 o 1. Los ordenadores cuánticos, en cambio, utilizan el estado de un átomo. Si se encuentra en su estado normal es 0. Si se le da un poco de energía suplementaria es 1. Pero, al ser un objeto cuántico, el átomo puede hallarse en una superposición de 0 y 1 al mismo tiempo.
Si se utiliza otro fenómeno cuántico llamado «enmarañamiento» para conectar juntas series de átomos en superposición, se permite a los investigadores de los ordenadores cuánticos crear una ristra de números indeterminados que, cuando se disponen a través de una serie de pasos, realizan cómputos en todos los números posibles a la vez. La computación cuántica es una manera de realizar cómputos «paralelos» a una escala sin precedentes. En teoría, una ristra enmarañada de sólo 250 átomos, cada uno de ellos en un estado de superposición de gato de Schrödinger, puede codificar más números que átomos hay en el universo. El potencial es enorme. No es extraño que los gobiernos Intenten proteger sus códigos de la seguridad nacional de los que desarrollan el primer ordenador cuántico,
Sólo hay un problema. La naturaleza del enmarañamiento y la superposición hacen a los átomos especialmente vulnerables a perder información, y cuando lo hacen, el cómputo se malogra. Si los investigadores pudieran conseguir un mayor dominio de la decoherencia y descubrir por qué no vemos nunca gatos a la vez vivos y muertos, podrían abrir el camino a una revolución en el cómputo.

Así pues, la información no ha de entrar en una mente consciente para constituir una medición: sólo tiene que escaparse del sistema bajo escrutinio. Parece que un flujo de información acerca de la salud del gato de Schrödinger es suficiente para obligarlo a adoptar uno de los dos estados posibles. En lo que concierne a humanos y gatos, dicha información se escapa porque nuestro cuerpo interacciona con nuestro entorno de muchísimas maneras, radiando calor y desplazando moléculas de aire. La información acerca de la posición de nuestro cuerpo está disponible, lo que significa que no podemos hallarnos en dos lugares a la vez. Los científicos denominan «decoherencia» a este derramamiento de información. La decoherencia no es un asunto trivial: podría mostrarnos la naturaleza misma del universo.

Información y realidad

Los físicos que estudian el enigma del gato de Schrödinger se preguntan ahora si acaso éste indica la idea de que la información es el elemento más fundamental de la realidad. La teoría cuántica, en la forma del desdichado gato de Schrödinger, sugiere que el universo (Hiede describirse como una gigantesca máquina procesadora de información. Y esto también conduce a aplicaciones potenciales.

«Quien no se sienta sorprendido por la teoría cuántica es que no la ha comprendido.»
El papel de la información en la teoría cuántica nos ha llevado a uno de nuestros más ambiciosos proyectos tecnológicos: la búsqueda para construir un procesador superpotente llamado ordenador cuántico (véase el recuadro Computar con gatos).
Por potente que resulte ser, es improbable que el ordenador cuántico pueda ayudarnos a comprender de qué manera puede un gato estar vivo y muerto al mismo tiempo. La idea de que esto forma parte de la naturaleza de la realidad física sigue siendo realmente extravagante para la mente humana. Wolfgang Pauli, que no abandonó la física y se convirtió en uno de los físicos más brillantes de la historia  de la ciencia, tenía razón. Es demasiado complicada para entenderla. Tal como una vez dijo Niels Bohr: «Quien no se sienta sorprendido por la teoría cuántica es que no la ha comprendido».

Capítulo 4
¿Por qué cae una manzana?
Gravedad, masa y el enigma de la relatividad

Debido a la gravedad, desde luego. Todo el mundo lo sabe. Sin embargo, ¿cuál es la naturaleza fundamental de la gravedad? Esta es una pregunta mucho más difícil de contestar, a pesar de que la gravedad es la primera de las fuerzas fundamentales de la naturaleza que penetra en nuestra consciencia.

He aquí un experimento que el lector puede probar en casa. Necesitará un bebé de seis meses de edad (puede pedir uno prestado). Ate el lector un fragmento de hilo de pescar a uno de los juguetes del bebé (un sonajero, pongamos por caso). A continuación, suspéndalo del techo a una altura tal que descanse ligeramente sobre una silla, con el hilo tensado e invisible. Haga que el bebé mire el juguete mientras el lector retira la silla. Mantenga la mirada en el bebé: cuando, por ninguna razón obvia, el sonajero no caiga al suelo, el bebé lo mirará durante mucho más tiempo de lo normal.
Esto, según los psicólogos, es la manera que tienen los bebés de expresar asombro. Parece que, desde una edad sorprendentemente temprana, sabemos que las cosas están hechas para que caigan cuando no se las sostiene, y quedamos perplejos cuando no lo hacen. No es extraño que los trucos de levitación de los ilusionistas Victorianos fascinaran a toda una generación. Cuando las cosas burlan la gravedad, nuestra esencia misma se ofende.
La gravedad, amigo lector, es un tirano. No se la puede engañar. No la podemos bloquear, como podemos hacer con un campo eléctrico o uno magnético. Tampoco la podemos contrarrestar con una fuerza opuesta; no parece haber nada en física que nos proporcione antigravedad. El dominio de la gravedad es tan fundamental en la experiencia humana que, esencialmente, nos hemos olvidado de la presencia de la gravedad. Es sólo en su ausencia (o, más bien, en su ausencia aparente) que recordamos que siempre está allí.
Quizá ésta sea la razón por la que las primeras incursiones en ciencia ignoraron en gran medida la gravedad. Tal como ahora la entendemos, un tipo de acción rige la caída de un humano que da un traspié, el arco del vuelo de una flecha y el movimiento de los planetas, pero el manual de física de Aristóteles no hace mención de ninguna fuerza universal que orqueste el universo. Sí que sugirió que los objetos no caen de la Tierra debido a la «pesadez» de la misma, pero su razonamiento era secundario. Sugirió que la fuerza de la atracción que ejercía la Tierra dependía de lo grande que fuese un objeto y de lo que estuviera hecho.
Según la idea de Aristóteles, los objetos pesados caen más rápidamente que los ligeros. Esto se debe a la obsesión de los griegos con los elementos: Tierra, Aire, Fuego y Agua; la mayoría de los objetos pesados que Aristóteles conocía estaban hechos de materiales que se encuentran en la Tierra, y la fuerte atracción, decía, se debe a que se ven obligados a retornar a ella. Nuestro conocimiento no se apartó realmente de esta idea equivocada durante al menos 2.000 años. Pero, finalmente, el científico italiano Galileo Galilei estableció que Aristóteles estaba equivocado: los objetos pesados no son atraídos más fuertemente por la Tierra. Mientras la resistencia del aire no sea un factor, un objeto pesado y uno ligero caerá a la misma velocidad.

Tan fácil como caerse
Lamentablemente, los relatos románticos acerca de la prueba de ello que Galileo realizó (haciendo caer balas de cañón de la torre inclinada de Pisa) no son ciertos (el mito lo inició Vincenzo Viviani, estudiante de Galileo), pero no obstante se ha comprobado de una manera incluso más espectacular. En 1971, David Scott, astronauta del Apollo 15, rindió tributo a las profundas consecuencias del descubrimiento dejando caer un martillo y una pluma de halcón sobre la superficie de la Luna. «Una de las razones por las que hoy hemos llegado aquí es debido a un caballero llamado Galileo», dijo Scott mientras los dejaba caer. Desde luego, martillo y pluma llegaron al suelo al mismo tiempo.
La valoración de Scott era casi correcta: por asombroso que parezca, realmente hizo falta muy poca cosa más que las intuiciones de Galileo en el siglo XVII para que alcanzáramos la Luna. Las lagunas las llenó un hombre nacido exactamente un año después de la muerte de Galileo: Isaac Newton. Aunque al nacer no era nada impresionante (su madre dijo que «cabía en una jarra de un cuarto de galón»), a Newton le tomó poco más de una docena de años acopiar toda la información necesaria para, cuatro siglos después, poder trazar un rumbo para los astronautas del Apollo. Y, desde luego, aquí es donde aparece la manzana.
A diferencia de los cuentos sobre los experimentos de Galileo en la torre inclinada de Pisa, los relatos de la epifanía gravitatoria de Newton cuando vio caer una manzana son casi con toda seguridad ciertos. Era a finales del verano de 1666 y Newton se hallaba sentado en su jardín de Woolsthorpe Manor, en Lincolnshire. El manzano está todavía allí y sigue dando frutos cada otoño.
Una manzana cae porque posee una propiedad llamada masa, y lo mismo le ocurre a la Tierra. El gran salto adelante que dio Newton fue explicar de forma clara cómo todo lo que tiene masa atrae a todo lo demás que también la tiene. Su ley de la gravitación universal, que elaboró a la tierna edad de 23 años, decía que la fuerza de atracción depende de dichas dos masas, la distancia entre ellas y una constante, denominada G.
En realidad, los físicos suelen estar muy familiarizados con la constante gravitatoria, y la llaman «G grande», para distinguirla de la g (pequeña), la aceleración debida a la atracción gravitatoria de la Tierra. Sin embargo, a pesar de la familiaridad, G es en realidad la constante fundamental menos bien definida de todas.
La magnitud de G, al igual que la de todas las demás constantes fundamentales, se conoce no mediante algún razonamiento teórico, sino mediante medición. El físico inglés Henry Cavendish fue el primero que la midió, en 1798, al analizar la atracción gravitatoria entre dos masas conocidas que se hallaban separadas por una distancia conocida. Su respuesta al valor de G fue de 6,754 x 10-11 metros cúbicos por kilogramo y por segundo al cuadrado. Hoy en día, G es oficialmente 6,67428 x 10-11 m3/kg/s2. La incertidumbre de esta medida es de alrededor de una parte en 10.000. Compárese dicha incertidumbre con la precisión con la que conocemos los otros números fundamentales, como la constante de Planck, que se usa en teoría cuántica: aquella se conoce con la precisión de hasta 2,5 partes en 100 millones.
Hay dos razones por las que G es tan difícil de medir con exactitud. La primera es que es imposible separar los campos gravitatorios utilizando cualquier física conocida. Esto significa que cualquier medición ha de tener en cuenta la influencia de todos y cada uno de los objetos de las inmediaciones. Esto hace que las mediciones sean irrazonablemente sensibles a la influencia externa; hay relatos de investigadores que han tenido que volver a calibrar su aparato después que alguien, dos laboratorios más allá, introdujera en su despacho un gran montón de libros. Por esta razón, las mediciones de gravedad deben realizarse en laboratorios aislados y utilizando instrumentos extraordinariamente sensibles.
La segunda dificultad a la hora de medir la constante gravitatoria es el hecho de que la gravedad es la más débil de las fuerzas fundamentales. Cuando aquella manzana cae al suelo, lo hace con una aceleración relativamente pequeña, a pesar del hecho de que la masa de todo el planeta está tirando hacia abajo.
Si el lector no está convencido de que la gravedad es débil (quizá haya saltado en paracaídas o haya montado en una montaña rusa y ha experimentado una aceleración terrorífica), piense en los imanes que están felizmente pegados a la puerta de su frigorífico. La masa de todo el planeta también está operando para tirar de ellos hacia el suelo, y sin embargo, un pedacito de hierro imantado del tamaño de un botón puede resistir la atracción del planeta. El magnetismo es el resultado de la interacción electromagnética entre partículas cargadas dentro de un imán. Y dicha fuerza es de alrededor de 1042 veces (es decir, alrededor de un septillón) mayor que la fuerza gravitatoria entre ellas. De modo que la gravedad es débil: G es asombrosamente pequeña. Pero ¿por qué? Aunque la debilidad de la gravedad es uno de los misterios básicos de la física, sí que tenemos algunas ideas que podrían explicarla. La mejor es que la gravedad «se escapa» hacia nuestro universo o fuera de él.

Escapes de otro mundo
Varias ramas de la física moderna sugieren que existen muchas más dimensiones del espacio que las tres (arriba y abajo, a un lado y a otro y adelante y atrás) con las que estamos familiarizados. Una de las consecuencias de ello es que algunas fuerzas pueden «diluirse» al extenderse en estas dimensiones adicionales. Si la fuerza gravitatoria es débil, ello puede deberse a que se extiende más tenuemente que las demás.
Se cree que las dimensiones «adicionales» están compactadas (esencialmente, acumuladas) en cúmulos tan pequeños que en la vida cotidiana no las notamos. Es sólo una teoría del momento, pero unos pocos investigadores intentan encontrar pruebas de ello. Un camino es mediante el examen de la manera en que la atracción gravitatoria entre dos objetos cambia con la distancia entre ellos.
Newton demostró que la gravedad sigue una «ley cuadrática inversa». Esto significa que la fuerza gravitatoria que un objeto ejerce sobre otro disminuye en proporción al cuadrado de la distancia entre ambos. Sepárense dos objetos un metro, y mídase la fuerza gravitatoria. Después, sepárense otros dos metros y mídase de nuevo la atracción. Será nueve veces más débil porque ahora se hallan tres veces más alejados.

«Una de las razones por las que hemos llegado aquí es debido a un caballero llamado Galileo.»

Las dimensiones ocultas penetran en nuestro mundo a escalas submilimétricas. Si la gravedad se comporta de manera distinta a lo normal a esas escalas pequeñísimas (si la ley cuadrática inversa no se cumple cuando las masas se hallan separadas por sólo unas pocas milésimas de milímetro), ello puede deberse a que estas dimensiones interfieren con las cosas. Por lo tanto, si aquí se descubre alguna perturbación podremos empezar a disponer de pruebas que respalden nuestras teorías más audaces.
Esta es la razón por la que los físicos están realizando los experimentos más primorosos para escudriñar la gravedad a escalas microscópicas. Sin embargo, hasta ahora no han encontrado pruebas de violaciones de la ley cuadrática inversa. Esto es una lástima, porque uno de los papeles de estas teorías multidimensionales avanzadas es mejorar nuestra mejor teoría de la gravedad, la relatividad de Einstein.

La gravedad es relativa
La teoría de la relatividad de Einstein planteaba que el espacio y el tiempo son como una urdimbre tetradimensional y decía que la presencia de masa o energía distorsionaba dicha trama. Allí donde Newton había declarado que los cuerpos en movimiento se mueven en línea recta a menos que sobre ellos actúe una fuerza, Einstein añadía un giro. Sí, se desplazaban en línea recta a través del espacio, pero tendrían que seguir cualesquiera distorsiones hubiera en dicho espacio.
La distorsión que la masa del Sol crea, por ejemplo, significa que un planeta cercano en movimiento será atraído a una trayectoria curva. Equilíbrense las masas y la velocidad de movimiento, y tenemos una órbita. De ahí que, en opinión de Einstein, la gravedad es una especie de ilusión. Aunque parece una fuerza que actúa a través del espacio y del tiempo, en realidad es más como si se tratara de rasgos topográficos (colinas y valles) añadidos al paisaje, rasgos que hacen difícil moverse en determinadas direcciones y más fácil desplazarse en otras.
Por claro que esto sea y por respaldado que esté por numerosos hallazgos experimentales, sabemos que ésta no es la respuesta final. De algún modo, Einstein nos ha proporcionado únicamente una descripción ingeniosa de cómo funciona la gravedad. El por qué está todavía totalmente abierto. Pero hay esperanzas. La relatividad, en su forma actual, no es compatible con la teoría cuántica. Tendremos que esperar alguna teoría futura de «gravedad cuántica» que las una a ambas. Y, presumiblemente, dicha teoría nos dará el por qué de la gravedad, de la misma manera que recientemente hemos llegado a comprender el por qué de la masa.
Hasta aquí, hemos estado hablando despreocupadamente de masa, mientras evitábamos la pregunta evidente. ¿Qué significa que algo tenga masa?

04.jpg
La gravedad es una distorsión del espacio tiempo

Los físicos categorizan la masa de dos maneras distintas. Una es la «masa gravitatoria», que es lo que produce los campos gravitatorios y responde a ellos. Esto es lo que hace que la manzana caiga. La otra es la «masa inercial», que es una medida de lo difícil que es mover algo a partir de su estado actual de movimiento o de reposo. Cuando intentamos empujar un automóvil averiado, su masa inercial se opone a nosotros.
Hasta donde sabemos, la masa inercial y la gravitatoria son completamente equivalentes. Imagínese el lector que se halla en la Tierra, de pie dentro de una caja cerrada, como un ascensor parado. Siente el empuje del suelo al responder su masa gravitatoria a la influencia de la gravedad. Ahora imagínese que llevamos esta caja del ascensor al espacio, alejada de los campos gravitatorios, y que le añadimos el motor de un cohete que la acelera a 9,81 metros por segundo en cada segundo, la aceleración debida a la gravedad en la superficie de la Tierra.

05.jpg
El principio de la equivalencia de la gravitación

No habrá diferencia en lo que el lector nota, dice Einstein. Este «principio de equivalencia», que dice que no hay distinción entre nuestra masa gravitatoria y nuestra masa inercial, es parte del fundamento sólido de la relatividad general de Einstein. Aunque no tenemos una prueba definitiva de que sea absolutamente correcto, los experimentos han demostrado que esto es cierto con toda seguridad en al menos una parte de cada 1012. Sin embargo, una década antes de que creara la relatividad general, Einstein se hizo otra pregunta acerca de la masa. En 1905, su «año milagroso», en el que también publicó su teoría especial de la relatividad, Einstein dio con una línea de investigación interesante. Se preguntó, en un artículo que supuso un hito, si la inercia de un cuerpo depende de su contenido energético.

La energía del peso
Este fue el origen de la ecuación más famosa del mundo: E = mc2(véase ¿Por qué E = mc2?). Energía y masa, según la concepción de Einstein, podían intercambiarse. Ha hecho falta casi un siglo, pero ahora sabemos gracias a dicha ecuación que la energía es, efectivamente, la raíz de la masa. Tomemos esa manzana, por ejemplo. Su masa reside en sus componentes constituyentes. Si descendemos por la escala, éstos son moléculas, que están compuestas de átomos, que están compuestos de electrones, protones y neutrones.
El origen de la masa del electrón (que es de sólo la milésima parte de la masa del protón y del neutrón) sigue siendo un misterio. Pero finalmente los físicos empiezan a comprender la masa de protones y neutrones. Cada una de dichas partículas está compuesta por tres partículas denominadas quarks. Sin embargo, la masa de los quarks explica sólo alrededor del 1 % de la masa del protón o del neutrón. El resto procede de unas «partículas virtuales» intangibles del mundo cuántico, que roban energía.
Si descendemos a la escala cuántica, las reglas son muy diferentes de las que encontramos en nuestra vida cotidiana. Aquí domina un fenómeno llamado «principio de incertidumbre de Heisenberg», e imparte extrañas declaraciones. Una de ellas es que nada tiene una cantidad definida de energía, incluso cuando dicha energía es cero. En lugar de ello, la energía fluctúa alrededor de cero, lo que permite que espacio aparentemente vado (algo que los físicos denominan «el vacío») chisporrotee con partículas que aparecen y desaparecen.
Dichas partículas aparecen en parejas: una partícula y su antipartícula, que se crea espontáneamente cuando la energía del vacío del espacio vacío o vacuo fluctúa alrededor de cero. Según una rama de la física ganadora de un premio Nobel llamada «cromodinámica cuántica» (QCD), las partículas pueden aparecer con cantidades diversas de energía, lo que da un espectro de características. A veces toman una forma que los físicos conocen como «gluones». Los gluones crean una fuerza conocida como la fuerza nuclear fuerte, que mantiene a los quarks unidos para crear un protón o un neutrón. Y son los gluones (o, más bien, su energía) los que confieren a la manzana la mayor parte de su masa. Descubrir exactamente cuánta masa procede de la energía de todas estas partículas virtuales no ha sido fácil, y ha implicado complicadas combinaciones de alrededor de 10.000 billones de números. Pero cuando aparecieron los resultados, éstos se hallaban dentro del margen de un 2 % de las masas de estas partículas que se habían registrado experimentalmente.
La energía asociada a los gluones, convertida mediante la fórmula de Einstein, E = mc2, explica casi toda la masa en un protón o un neutrón. Falta un poco: la misteriosa masa del electrón, y una contribución de algunas otras partículas virtuales, como pares de quarks y antiquarks virtuales, y el bosón de Higgs (véase ¿Qué es la partícula de Dios?). Pero, esencialmente, la masa de la manzana (y la de la Tierra) es una manifestación de la energía contenida en el vacío del espacio vacuo.
El éxito de la cromodinámica cuántica a la hora de establecer el origen de la masa ha dado esperanzas a los físicos de que ideas similares acabarán por conducirnos al por qué final de la gravedad: el gravitón. Las fuerzas eléctricas y magnéticas se manifiestan a través del intercambio de paquetes de energía, llamados fotones, entre átomos. La fuerza nuclear fuerte se produce mediante los gluones, como hemos visto. Se sabe que la fuerza nuclear débil resulta del intercambio de partículas cargadas de energía conocidas como bosones W y Z. Todas ellas se han visto en experimentos. Se cree que la gravedad se basa en el intercambio de partículas denominadas «gravitones». Sin embargo, dichas partículas siguen siendo hipotéticas. A pesar de todos nuestros avances en la comprensión del fenómeno, todavía no hemos visto un gravitón.
Sin embargo, éste no es nuestro único problema pendiente en relación con la gravedad; queda sin resolver un tema mucho más embarazoso y básico. Por extraño que pueda parecer, aunque hemos deducido el origen de la masa utilizando las mentes más ingeniosas, los ordenadores más potentes y las mayores teorías de la física, todavía no tenemos una buena manera de medir aquello sobre lo que actúa la gravedad: la masa. Todas las demás unidades patrón de medida poseen un fundamento atómico preciso. El segundo se basa en un determinado número de oscilaciones de un átomo de cesio. El metro es la distancia que la luz recorre en una fracción concreta de dicho segundo. Pero el kilogramo es la masa de un pedazo de metal que se mantiene encerrado dentro de un subterráneo de París.

El kilo cambiante
No se trata de un subterráneo antiguo cualquiera, desde luego: se encuentra dentro de las sacrosantas paredes de la Oficina Internacional de Pesos y Medidas (BIPM), cerca de París. Y tampoco es un metal cualquiera: se trata de un cilindro de platino, que se eligió como el metal más estable e incorruptible de que se disponía. La masa de este cilindro de platino es el kilogramo frente al que todos los demás kilogramos se calibran. El problema es que su masa está cambiando. Los metrólogos han hecho docenas de copias, y el original ya no pesa lo mismo. Hay unos 100 microgramos de diferencia, masa aproximadamente equivalente a la de dos granos de sal. Los investigadores planean maneras de poner el kilogramo en línea con otros patrones, mediante el uso de medidas atómicas. Una esperanza es crear una esfera pulida de silicio que contenga un número determinado de átomos. Entonces el kilogramo se definirá como la masa de un determinado número de átomos de silicio.
Otra posibilidad es utilizar algo conocido como balanza de Watt para medir la masa en términos de energía. Einstein nos enseñó que masa y energía son intercambiables; la balanza de Watt haría uso de ello midiendo la masa frente a la energía contenida en un campo electromagnético cuidadosamente configurado. Pero hasta que estos planes den su fruto, no tenemos otra opción que introducir números ligeramente inexactos en la fórmula de Newton.
La gravedad lo es todo para nosotros: atrajo entre sí partículas para crear la Tierra; nos mantiene en órbita alrededor de nuestro Sol, que nos da la vida; crea las mareas que permitieron que la vida se formara y pasara a la tierra. Y ahora le devolvemos el favor y utilizamos nuestras mentes, que la gravedad nos proporcionó, para hacer descubrimientos extraordinarios acerca de la naturaleza misma de dicha atracción. Pero, al mismo tiempo, sólo disponemos de instrumentos primitivos para medirla. Aunque podemos hablar de los gluones del interior de la estructura nuclear de los átomos del interior de la manzana, no podemos ser precisos acerca de cuánto pesa esa manzana. La esencia de la gravedad sigue siendo deliciosamente difícil de domesticar.


Capítulo 5
¿Son los sólidos realmente sólidos?
Átomos, quarks y sólidos que se nos escapan entre los dedos

Si todo el mundo estuviera hecho de gas, no podríamos existir. La manera en que nuestro cuerpo está organizado, la manera en que la información se almacena en la estructura del ADN, la manera en que nuestro cerebro procesa y mantiene información, todo ello requiere que los átomos estén fijos en un lugar, no flotando libremente por ahí. La vida, al menos tal como la conocemos, requiere solidez. Pero ¿qué es un sólido?

Un gas es un conjunto de átomos o moléculas que no tienen enlaces entre sí, o los tienen muy débiles. Un líquido tiene enlaces débiles entre las partículas, lo que les permite deslizarse y desplazarse unas con respecto a otras. Un sólido, en cambio, mantiene sus partículas unidas mediante enlaces electrostáticos fuertes. Pero esto no hace que un sólido sea sólido. Sitúe el lector la mano frente a su cara. Parece bastante sólida, ¿verdad? Pero para los neutrinos, las diminutas partículas subatómicas que colman el universo, nuestro cuerpo está lejos de ser sólido. Cada segundo, billones de neutrinos pasan directamente a través de nosotros sin interaccionar con ningún átomo de nuestro cuerpo. El progreso científico ha dejado claro que la mayor parte de nuestra materia sólida está vacía. Incluso hemos diseñado materiales sólidos que tienen la capacidad fantasmagórica de pasar unos a través de otros. La ciencia experimental nos enseña que el concepto de «sólido» es resbaladizo, cuando menos.
Nuestro cerebro, otra masa de materia atómica sólida, ha podido indagar esto a un nivel más profundo todavía que nuestros experimentos. Aunque aquí no hay aún certeza, nuestra mejor comprensión nos conduce a una conclusión notable: que no existe nada que sea sólido. Todo fragmento de materia es, esencialmente, el resultado de una fluctuación aleatoria en la energía del espacio y el tiempo. La solidez, en sus raíces, es una ilusión.
Para explorarlo, empecemos con un sólido familiar. Algo confiable, algo robusto. El diamante parece un buen sólido para hacer la prueba. Es el material más duro que se encuentra en la naturaleza y se usa como herramienta para cortar los metales más duros. ¿Cuán sólido es el diamante?

06.jpg
El diamante y los elementos que lo constituyen

Es la estructura molecular del diamante lo que lo hace particularmente duro. Sus átomos de carbono están enlazados en una disposición tetraédrica rígida, cada uno de ellos situado a una distancia de aproximadamente 10-10 metros de los demás. Puesto que son los electrones más externos del átomo los que forman estos enlaces, no resultará sorprendente saber que éste es aproximadamente el tamaño del átomo. Pero esto no lo hace realmente sólido. Ya es hora de que exploremos el extraño mundo de la estructura atómica.

«Era como si hubiera disparado un proyectil de quince pulgadas a un fragmento de papel de seda, y hubiera rebotado y me hubiera alcanzado.»

Por lo general se considera que el primer científico que se ocupó de esta cuestión fue Demócrito. En realidad, era un filósofo griego y no un científico, pero hizo una conjetura científica acerca de la naturaleza de la materia. Toda la materia, sugirió, puede dividirse hasta un cierto punto, pero no más allá. Y en el nivel más fundamental estaba el concepto de átomos, del que hemos derivado nuestra palabra átomo. En opinión de Demócrito, átomos eran las partículas que no podían dividirse, destruirse o cambiarse de ninguna manera.
Y, hasta los momentos más tempranos de la Revolución Industrial, eso fue esencialmente así. Llegó la edad del telescopio y aprendimos a escudriñar los cielos, pero no hicimos ningún progreso en lo que respecta a llegar al meollo de la materia. Ello era porque necesitábamos herramientas que pudieran influir sobre la materia a la escala atómica.
Dentro del átomo
Fue John Dalton, un maestro de escuela, quien inició la investigación del átomo. Hacia el final del siglo XVIII, Dalton propuso que cualquier elemento concreto era un conjunto de átomos idénticos. Estos tenían todos las mismas propiedades. Las reacciones químicas, sugería, unían dos tipos diferentes de átomos para formar una molécula química. Dalton respaldó sus ideas con experimentos químicos que determinaban la proporción de los elementos dentro de ciertas sustancias, como el dióxido de carbono: una parte de carbono por dos partes de oxígeno.
El concepto de los átomos se prestaba a los procesos de la Revolución Industrial, al permitir a los pioneros de la termodinámica deducir las presiones de los gases y las tasas de transferencia de calor que suministraban potencia al auge de la máquina. Pero seguíamos sin saber si sería posible penetrar en el interior de un átomo. En la época del Imperio Británico, del ferrocarril a vapor y de la industrialización generalizada, la ciencia del átomo apenas se había movido de la idea griega de una sustancia indivisible.
Tres descubrimientos casi simultáneos cambiaron esta situación. Las investigaciones del físico inglés Joseph J. Thomson revelaron la existencia de partículas, que él llamó «corpúsculos», que estaban cargadas negativamente y que eran 2.000 veces más ligeras que incluso el más ligero de los átomos. Con este descubrimiento, finalmente habíamos descubierto algo (ahora lo llamamos electrón) que era más pequeño que un átomo.
Hacia 1904, Thomson sugería que los átomos estaban compuestos de partes positivas y negativas mezcladas para dar una estructura de tipo «budín de ciruelas». Por la misma época, en París, Pierre y Marie Curie y Henri Becquerel descubrieron la radiactividad. Sus investigaciones posteriores demostraron que al menos parte de la actividad se debía a la emisión desde los átomos de partículas cargadas. Mientras tanto, acababa de llegar a Inglaterra el impetuoso neozelandés Ernest Rutherford. En sólo unas décadas de investigación, Rutherford habría de realizarlas mayores incursiones en la naturaleza del átomo en miles de años.
Quizá el descubrimiento más importante fue la revelación de que el modelo del «budín de ciruelas» de Thomson era completamente erróneo. Rutherford bombardeó una delgada lámina de pan de oro con partículas de radiación alfa cargadas positivamente (átomos de helio desprovistos de sus electrones). Casi todas las partículas alfa la atravesaron. Pero algunas fueron muy desviadas; unas pocas incluso rebotaron hacia el emisor. Esto sorprendió a Rutherford. «Era como si hubiera disparado un proyectil de quince pulgadas a un fragmento de papel de seda, y hubiera rebotado y me hubiera alcanzado», escribiría posteriormente.

Granada nuclear
Para Rutherford, sólo existía una interpretación para este resultado extraordinario. Sucedía que unos pocos de los átomos de helio cargados positivamente habían sido disparados directamente a una concentración de carga positiva, y habían sido fuertemente rechazados.
La mayor parte del volumen del átomo era espacio vacío. Pero en el centro se hallaba toda la carga positiva y casi toda la masa. Rutherford había descubierto el núcleo atómico.
El grado de vacuidad de un átomo es difícil de comprender y proporciona nuestra primera pista de la ilusión de solidez. El núcleo en el átomo, decía Rutherford, es «como un mosquito en el Albert Hall».

¿Es sagrado el electrón?
La historia de la física ha asestado una serie de golpes a nuestras esperanzas de encontrar las partículas fundamentales de la materia. El descubrimiento de que un átomo podía dividirse, y el hallazgo subsiguiente del núcleo y de todas sus partes constituyentes, nos han introducido cada vez más en el enigma de la solidez. La única cosa que se creía que era fundamental era la carga negativa del átomo, el electrón. Pero, incluso aquí, existen ahora dudas.
En 1998, un trío de físicos obtuvo el premio Nobel de Física por demostrar que el electrón podía comportarse como si estuviera escindido en tres partes. No está todavía claro si el electrón se divide realmente, pero, en cualquier caso, el electrón sigue siendo un misterio. Por ejemplo, ignoramos de dónde procede su masa. Puesto que hemos descubierto que protones y neutrones pueden escindirse, y que en último término su masa procede de fluctuaciones cuánticas, cuando tratamos de la solidez del electrón, todas las posibilidades están abiertas.

Otros de su entorno lo llamaron «la mosca en la catedral». Se mire como se mire, es una vacuidad monstruosa. Si el núcleo tuviera el tamaño de una manzana pequeña, el borde del átomo, definido por la órbita exterior de sus electrones cargados negativamente, tendría 3 kilómetros de diámetro. Entretanto, cada electrón sería más pequeño que el punto al final de esta frase. Podemos considerar la vacuidad de otra manera. Si pudiéramos extraer el espacio vacío de los átomos y empaquetar núcleos de hidrógeno dentro del volumen de un penique, sin espacio entre ellos, tendríamos un objeto del tamaño de un penique que pesaría más de 30 millones de toneladas.

Dentro del núcleo
Al ser el elemento más ligero, el hidrógeno tiene el núcleo más simple posible: una única carga positiva, o protón. Pero, por lo general, en los núcleos hay algo más que únicamente el protón. Los átomos de carbono que liemos estado examinando, por ejemplo, poseen un núcleo mucho más complejo, que contiene media docena de partículas sin carga denominadas neutrones, lodos los átomos (excepto el del hidrogeno) contienen neutrones. El neutrón, que es un poco más pesado que el protón, fue descubierto por James Chadwick en la Universidad de Liverpool a principios de la década de 1930. El carbono tiene un núcleo compuesto por seis protones y, dependiendo del «isótopo» exacto con el que estemos tratando, seis, siete u ocho neutrones.

El núcleo en el átomo, decía Rutherford, es «como un mosquito en el Albert Hall».

Así pues, ¿hay alguna solidez aquí? Rutherford encontró que el protón tenía alrededor de 10-11 metros de diámetro. El neutrón tiene aproximadamente el mismo tamaño. Y los núcleos atómicos no reflejan la vacuidad del átomo. El núcleo de carbono no es mayor de lo que cabría esperar si las partículas de su interior estuvieran fuertemente apiñadas. Los núcleos mayores hacen todavía más evidente el empaquetado ajustado del núcleo. Un núcleo de uranio, que contiene 238 partículas, sólo tiene 14 anchos de protón de diámetro, algo así como un balón de baloncesto relleno de 238 pelotas de ping-pong.

07.jpg
La vacuidad del átomo

Con este descubrimiento, los físicos tenían una idea de solidez en el meollo de la materia. Pero sólo durante un tiempo: las cosas pronto se pusieron otra vez resbaladizas, llevándonos en una espiral descendente que, hoy en día, nos dice que no hay nada sólido en todo el universo. El problema es que, al estar empaquetado con cargas positivas, el núcleo no debería mantenerse unido. Los protones de un núcleo de carbono deberían, por derecho, repelerse mutuamente.
Esto significa que debe haber otra fuerza operando. Los físicos la llaman la fuerza nuclear «fuerte» simplemente porque tiene que ser lo bastante fuerte para superar a la fuerza electromagnética repulsiva. Para investigar la fuerza fuerte, los físicos tuvieron que profundizar en las características del protón y del neutrón, o del nucleón, como se los conoce colectivamente. Lo que descubrieron fue que los nucleones no eran partículas fundamentales indivisibles, sino que estaban compuestas de tres «quarks».

Quarks en el fondo
El nombre «quark» lo eligió el físico Murray Gell-Mann en 1964, quien lo escogió después de leer en Finnegan's Wake, de James Joyce, la frase «Three quarks for Muster Mark» («Tres pintas [de cerveza] para maese Mark!»). El quark empezó como una partícula hipotética, cuya existencia la sugirió también, de manera independiente, el físico ruso-americano George Zweig (que quería llamarla «as»). La intuición de ambos hombres resultó ser buena, aunque se tardó bastante en demostrarla.
Los físicos sólo pueden ver la materia a esa escala haciendo colisionar entre sí partículas subatómicas en aceleradores. La colisión crea partículas más pequeñas, cuya existencia fugaz ha de inferirse por los rastros que dejan detrás en detectores que tapizan las paredes del acelerador en el lugar de la colisión. Los primeros quarks se identificaron a partir de colisiones en el Centro del Acelerador Lineal de Stanford (SLAC) en 1968. Tuvieron que pasar otras dos décadas antes de que se hubieran visto todas las partículas quarks que se habían deducido hipotéticamente. Pero ahora sabemos que los quarks se presentan en seis «sabores», que exóticamente se han denominado: extraño, encantado, cima, fondo y los mucho más comunes arriba y abajo.
Los protones están compuestos por dos quarks arriba y uno abajo; los neutrones son dos quarks abajo y uno arriba. Pero es el quark cima el que puede ser la anulación de la solidez. El quark cima es inexplicablemente pesado. Pesa casi lo mismo que un átomo de oro, que es la razón por la que nuestros aceleradores de partículas no pudieron producir uno hasta 1995. Los aceleradores de partículas se rigen por E = mc2, y hace falta mucha energía para producir tanta masa.
Un átomo de oro contiene 79 protones y 118 neutrones; esto supone un total de cerca de 600 quarks arriba y abajo. ¿Cómo puede ser que un solo quark cima pese casi lo mismo? Algo en la naturaleza de los quarks, y la manera en que se encuentran juntos, sugiere que hay un misterio en la naturaleza de la masa. Una teoría denominada cromodinámica cuántica (QCD) lo deja claro. Ha demostrado que los quarks arriba y abajo que constituyen los protones y neutrones suponen sólo el 1% de la masa de esas partículas. El resto, tal como indica E = mc2, se encuentra en la energía que mantiene unidos los quarks. Esta es la fuerza nuclear «fuerte».

Percibir la energía de la vacuidad
Según la QCD, la fuerza fuerte se basa en el principio de incertidumbre de la mecánica cuántica (véase ¿Acaso todo es, en último término, aleatorio?). Dicho principio dice que nada que se pueda medir realmente tiene un valor definido de manera precisa. Ello se aplica incluso al espacio vacío: no puede tener exactamente una energía cero. Como resultado, el espacio vacío tiene una cantidad de energía fluctuante pero finita.
Dicha energía fluctuante se manifiesta en forma de partículas llamadas gluones, y son los gluones los que crean la fuerza fuerte que une a los quarks. De modo que cuando tenemos un diamante en la mano, notamos su peso. Pero lo que notamos como la masa del diamante es en realidad el resultado de un campo de energía cambiante y rielante que crea el peso de los quarks que constituyen los protones y neutrones del núcleo de cada átomo de carbono. En un cierto sentido, dicho diamante, el más sólido de los objetos, no tiene en absoluto una existencia permanente. Mientras reposa en nuestra mano, todo lo que ocurre es que un continuo de fluctuaciones de energía se manifiesta como solidez.

Sólidos resbaladizos
Quizá no debería sorprendernos que las reglas de la solidez resulten ser flexibles. Después de todo, los sólidos sólo lo son bajo determinadas condiciones. Caliéntese un cubito de hielo, y creará un charco de agua. Las moléculas no han cambiado su naturaleza esencial; es simplemente que las condiciones ambientales han alterado la fuerza de los enlaces que las unían. Lo mismo ocurre cuando calentamos el agua y se transforma en vapor. Ahora los enlaces entre las moléculas han desaparecido, pero las propias moléculas siguen sin haber cambiado.
También podemos crear un nuevo tipo de materia, al otro extremo de la escala de temperatura. Cuando enfriamos algunos tipos de materiales, podemos crear una nueva clase de materia. A las fases de sólido, líquido y gas, podemos añadir la que se conoce con el nombre de «condensado de Bose-Einstein». El DEC es el resultado de una transformación radical que sólo ocurre a temperaturas extremadamente bajas. La temperatura, en esencia, es una medida de cuánta energía tiene un objeto para «zangolotear». A temperaturas muy bajas, un material se halla desprovisto de toda energía, y así apenas se mueve. Pero la teoría cuántica dicta que cuanto más precisamente se fije el momento de un objeto (en este caso, cerca de cero), mayor será la incertidumbre en su posición. De modo que cada partícula del BEC tiene una posición incierta. Efectivamente, todas las partículas se superponen unas a otras, fundiéndose en un objeto cuántico enorme, como un átomo gigante.
En dicho estado, surge todo tipo de comportamientos extraños. Cuando el niobio, un metal, se transforma en BEC, las leyes cuánticas lo transforman en un «superconductor» que transporta corriente eléctrica sin ninguna de las resistencias asociadas con las corrientes en los metales normales. Cuando átomos de helio forman un BEC, por ejemplo, ocurre una cosa parecida: si se remueve una taza de este helio «superfluido», el remolino sigue girando sin fin. De manera todavía más extraña, el helio superfluido puede desafiar a la gravedad y fluir subiendo las paredes de un recipiente. Si se transforma el helio en un sólido, en el que los átomos se mantienen unidos en un cristal, la rareza empeora.
No es que sea fácil transformar el helio en un sólido. Para que se transforme en líquido es necesario enfriarlo hasta una temperatura 4 grados por encima del cero absoluto. Para convertir este líquido en sólido se han de comprimir los átomos: el líquido ha de enfriarse hasta un grado por encima del cero absoluto y comprimirlo a 25 veces la presión atmosférica normal. Pero una vez se ha llegado aquí, se puede ver el sólido más extraño del universo.
Los enlaces entre los átomos del helio sólido son extremadamente débiles. Tan débiles, en realidad, que los átomos pueden descomponerse. Esto deja en el cristal lo que se conoce como «vacuidad». Hace tiempo que los físicos saben que estas vacuidades pueden tratarse como partículas por derecho propio. Son realmente como un átomo con propiedades algo distintas. Por ejemplo, afectan a la manera en que un material conduce la electricidad; es debido a las vacuidades que los semiconductores tienen las propiedades que tienen. Todo el negocio multimillonario de la electrónica se basa en las propiedades de las vacuidades.
E11 un cristal de helio ultra frío, las leyes de la mecánica cuántica bloquean todas las vacuidades de la estructura para formar un BEC basado en la vacuidad. Con los átomos también trabados entre sí, el cristal de helio se convierte en dos «supersólidos». Y, si se tienen las condiciones experimentales apropiadas, uno puede pasar a través del otro. En teoría, cualquier cristal sólido se comportará de esta manera en las condiciones adecuadas.
Y quizá ni siquiera sea necesaria la formación de vacuidades: en algunos materiales debería ser posible hacer que todos los átomos liberados se trabaran entre sí y se desplazaran por el cristal como uno solo, lo que significa que el sólido pasaría a través de sí mismo. Esto no es distinto de los extraños trucos de prestidigitación en los que se hace que dos anillos sólidos pasen uno a través del otro, se traben y después, con un pase de la mano del mago, se separen de nuevo. Sin embargo, en este caso es la solidez lo que es la ilusión.
Mire el lector de nuevo su mano. En su mayor parte está formada de nada. Las estructuras cristalinas de las proteínas dejan enormes huecos entre los átomos minúsculos. Los mismos átomos están en su mayor parte completamente desprovistos de materia. Allí donde hay materia (en el núcleo atómico), la mayoría de la masa deriva de fluctuaciones cuánticas en la energía del espacio vacío. La solidez de esa mano frente a la cara es quizá la ilusión más convincente que el lector experimentará en su vida.


Capítulo 6
¿Por qué no existe tal cosa como una comida gratis?
Energía, entropía y la búsqueda del movimiento perpetuo

Los orígenes exactos de la frase «no existe tal cosa como una comida gratis» no están claros, pero la mayoría de las fuentes dicen que empezó su vida como el resumen más conciso de la economía. Apareció en la monografía de Pierre Dos Utt TANSTAAFL: a Plan for a New Economic World Order[1]de 1949, en la que Dos Utt cuenta la historia de un rey que pide asesoramiento económico. Sus asesores, que buscan maneras cada vez más sencillas de que su mensaje se entienda, concluyen con la versión, ahora ya clásica, de la frase: «no existe tal cosa como una comida gratis».

Es dudoso que esto hubiera sido suficiente para motivar a los economistas para dar paso a un nuevo orden económico mundial, y ciertamente, los físicos de la época no se hubieran impresionado en absoluto. La idea de obtener algo a partir de nada hacía mucho tiempo que era un objetivo de inventores que intentaban obtener una comida gratis produciendo «máquinas de movimiento perpetuo» que funcionarían sin necesidad de energía externa. Ya hacía mucho tiempo que los físicos les habían dicho que esto es imposible.
No existe tal cosa como una comida gratis porque, simplemente, no podemos obtener algo a partir de nada: alguien, en algún lugar, siempre ha de pagar. Los físicos han entronizado este principio como una ley fundamental de la física. De modo que uno tiene que pensar mucho antes de empezar a buscar una comida gratis, porque se estará peleando contra la manera en que el universo funciona. Quizá el gran artista, visionario e inventor que fue Leonardo da Vinci fue quien mejor lo expresó. Se tomó un gran interés por el movimiento perpetuo, investigando diseños y produciendo algunos propios. Pero se mostró escéptico frente a todos ellos: uno de sus cuadernos de notas contiene un análisis detallado de un tipo de máquina popular, que demuestra por qué y cómo no podía funcionar. «¡Oh!, vosotros, investigadores del movimiento perpetuo —escribió Leonardo—, ¡cuántas ideas estúpidas habéis creado en esta búsqueda! Sería mejor que os juntarais con los alquimistas.»

«¡Oh!, vosotros, investigadores del movimiento perpetuo —escribió Leonardo—, ¡cuántas ideas estúpidas habéis creado en esta búsqueda! Sería mejor que os juntarais con los alquimistas.»

Hay dos tipos de máquinas de movimiento perpetuo. Las del primer tipo proporcionan una cantidad infinita de trabajo a pesar del hecho de que no hay entrada de combustible ni de ninguna otra forma de energía. Las del segundo tipo convierten calor en trabajo mecánico con una eficiencia perfecta. Ambos tipos, conviene dejarlo claro de entrada, son ilusiones... y la física nos dice por qué.

Algo por nada
Tal como ocurrió con la alquimia, la búsqueda del movimiento perpetuo cautivó a algunas de las mentes más capaces que han adornado el planeta. El sueño ha estado presente desde al menos el año 624 a.C., cuando el matemático y astrónomo indio Brahmagupta describió una rueda cuyos radios huecos podían llenarse con mercurio. El mercurio desplazaba el peso alrededor de la rueda cuando ésta giraba. Como resultado, escribió Brahmagupta, «la rueda gira automáticamente para siempre».
La idea se repitió numerosas veces. En 1235, Villard de Honnecourt, un artista e inventor francés, produjo su propia versión. De Honnecourt no era ningún loco: dibujó los primeros planos conocidos para un mecanismo de escape mecánico que mediría el tiempo. Pero la «rueda sobreequilibrada» de De Honnecourt sigue sin funcionar. En este caso, una serie de pesos engoznados se fijan alrededor de la circunferencia de una rueda; su movimiento está limitado por estaquillas. A medida que la rueda gira, un desequilibrio en la distribución de los pesos hace que continúe haciéndolo. Al girar, los pesos situados arriba caen sobre sus estaquillas y la transferencia de peso mantiene la rueda girando.
El hecho de que la rueda que gira perpetuamente sea un tema recurrente en la búsqueda del movimiento perpetuo sólo puede significar que muy pocas personas intentaron construir este tipo de máquinas. Constrúyase una y pronto se descubrirá que, sencillamente, no funciona. Tómese, por ejemplo, la rueda sobreequilibrada de De Honnecourt.

08.jpg
La rueda sobreequilibrada

Lo que se necesita para que funcione eternamente es que la varilla situada más arriba salte en la otra dirección y caiga cuando alcanza la parte superior de la rueda, manteniendo así el desequilibrio. Lamentablemente, no ocurre tal cosa: la distribución de pesos es tal que no cae en absoluto. Después de una revolución, los pesos retornan a su posición inicial y todo vuelve a quedar exactamente como estaba al principio, incluyendo la rueda estacionaria.
Para ser justos con De Honnecourt, la razón para ello no fue evidente hasta mucho después de su época. El problema es que la energía se transforma entre dos formas diferentes. Puesto que las varillas tienen el potencial de caer por la influencia de la gravedad, se dice que poseen «energía potencial». Si la rueda gira, parte de ella se convierte en la «energía cinética» del movimiento. Sin embargo, después de un ciclo, las varillas retornan a su posición inicial y, por lo tanto, han de tener la misma energía potencial (que se debe a su posición) que antes. Puesto que no hay fuente externa de energía y las varillas poseen la misma energía potencial en cada vuelta, no hay nada que dedique energía a hacer girar la rueda.

La energía se conserva
En 1775, la Real Academia de Ciencias de París ya estaba harta del movimiento perpetuo. Emitió una declaración que afirmaba que la Academia «ya no aceptará ni tratará propuestas relacionadas con el movimiento perpetuo». Y en 1841, los científicos encontraron finalmente un principio científico para lanzarlo a los buscadores del movimiento perpetuo: la primera ley o principio de la termodinámica.
Fue la primera declaración explícita de la conservación de la energía. Leonardo da Vinci había sugerido que «El agua que cae eleva la misma cantidad de agua, si tenemos en cuenta la fuerza del impacto», pero fue necesario que el físico alemán Julius Robert Von Mayer explorara adecuadamente el asunto y emitiera un decreto. La energía, dijo, no puede crearse ni destruirse.
No se lo tomaron en serio a la primera: por ejemplo, se le dijo a Von Mayer que encontrara alguna prueba experimental que respaldara esta extraña idea. Así lo hizo, demostrando que la energía cinética de la vibración podía transferirse a las moléculas de agua, manifestándose entonces como un aumento de la temperatura. Una vez se había comprobado la hipótesis, el principio fue rápidamente aceptado por los físicos y utilizado para mantener a raya al movimiento perpetuo. El movimiento necesita energía, y el principio de la conservación de la energía nos dice que no se puede obtener más energía de un sistema cerrado que la que allí había al inicio. Puesto que la fricción afecta a todos y cada uno de los mecanismos, disipando parte de dicha energía como calor y sonido, inventar máquinas de movimiento perpetuo del primer tipo se convirtió en una empresa descabellada. Pero esto no hizo desistir a los que buscaban el movimiento perpetuo. Hacia esta época, la ciencia de la termodinámica les estaba proporcionando un renacimiento. ¿Su objetivo? Máquinas de movimiento perpetuo del segundo tipo.

Máquinas milagrosas
La máquina de movimiento perpetuo del segundo tipo es algo que extrae energía de un depósito, como el aire o el océano, y lo convierte en energía mecánica. Parece, ciertamente, una buena idea. Los océanos son un recurso tan vasto que, si pudiéramos extraer el calor que causara un descenso de un grado en las temperaturas oceánicas, esto proporcionaría aproximadamente las necesidades energéticas de los Estados Unidos durante medio siglo.
La verosimilitud de este tipo de máquina es tentadora. De hecho, crear un motor accionado por vapor y eficiente ha sido una obsesión humana desde que Herón de Alejandría creó el «eolípila» en el 1 d.C. Esta bola, que chorros de vapor hacían girar, no tenía ninguna utilidad concreta. Sin embargo, invenciones posteriores utilizaron turbinas de vapor para hacer girar espetones, bombear agua de minas y accionar majaderos de moler. Pero ninguno de estos dispositivos alcanzó una eficiencia realmente útil.
Dicha eficiencia llegó con la máquina de vapor de James Watt, que se demostró por primera vez en 1765. Era un desarrollo del motor inventado por Thomas Newcomen, y aumentó la eficiencia lo suficiente para poner en marcha la Revolución Industrial. Pero la teoría subyacente a estas máquinas estaba todavía desarrollándose. Los constructores de máquinas de vapor trabajaban a partir de barruntos e intuición, no de teoría científica.

09.jpg
El motor de Carnot

No fue hasta 1824 que el científico militar francés Sadi Carnot publicó Reflexiones sobre el poder motriz del fuego. Incluso entonces, esta obra primaria en el campo pasó en gran parte desapercibida durante una década. Pero ahora los principios científicos en que se basaba la máquina de vapor ya estaban establecidos. Y, como adehala, Carnot había deducido el principio que niega una comida gratis a las máquinas de movimiento perfecto del segundo tipo.
Hay una buena razón por la que no se puede obtener trabajo útil a partir de una fuente de calor a temperatura ambiente. Se denomina el segundo principio o ley de la termodinámica y dice, esencialmente, que no se puede tomar el calor de algo y después transformar todo el calor en trabajo mecánico. Parte de dicho calor ha de pasar a un «sumidero de calor» a una temperatura inferior. Es la diferencia de temperatura entre la fuente de calor y el sumidero de calor lo que determina cuánto trabajo se podrá obtener de dicha «máquina térmica». Carnot demostró que crear una máquina térmica perfectamente eficiente es imposible.

La norma de la ley cero
Para ver por qué, imaginemos un motor. Cualquier motor que busque realizar trabajo necesita energía, que consideraremos que viene en forma de calor. El calor fluye desde una fuente caliente a otra más fría (este principio parece tan evidente que se formalizó únicamente como la «ley cero» de la termodinámica mucho después de que se hubieran establecido las demás leyes), de modo que se requieren ambos depósitos; se puede extraer trabajo cuando el calor fluye de un «depósito» caliente a otro frío.
El trabajo que se extrae en dicha situación es la diferencia entre el calor que fluye desde el depósito caliente y el calor que fluye al interior del depósito frío. Una eficiencia perfecta haría que al depósito frío entrara un calor cero, de manera que toda la energía térmica se usara para el trabajo que se quiere realizar.
Consideremos ahora, tal como hizo Carnot, los aspectos prácticos del motor. Carnot imaginó un motor a pistón, muy parecido al cilindro de un motor de automóvil, en el que el calor se usa para expandir el gas que empuja un pistón. Después el gas se comprime y el ciclo comienza de nuevo. Al considerar las leyes de los gases que relacionan presión, temperatura y volumen, Carnot demostró que la eficiencia de un motor depende de la relación de temperaturas de los depósitos caliente y frío. No importa qué líquido o gas se utilice para hacer funcionar el motor, la relación entre las dos temperaturas lo es todo. Y aquí está el problema con esa comida gratis.
Un motor diesel promedio opera alrededor de los 550 grados Celsius. Los gases de escape salen a la temperatura exterior. La máxima eficiencia posible, según el trabajo de Carnot, es de alrededor del 60%. En realidad, un automóvil con motor diesel convierte alrededor del 50% de la energía química de su combustible en energía que puede mover el coche a lo largo de una carretera. El resto se disipa como calor (que es la razón por la que los coches necesitan sistemas de refrigeración). Los motores de gasolina son significativamente menos eficientes.
¿Y qué ocurre si operamos ambos depósitos en los extremos de temperatura? En teoría, el depósito caliente puede operar a temperaturas infinitamente elevadas. Pero el depósito frío no puede ser más frío que el cero absoluto. Incluso si el calor se descargara en el espacio exterior, el depósito frío estaría a una temperatura de 3 K, o -270 °C. Puesto que no podemos obtener una temperatura inferior al cero absoluto y no existe un depósito infinitamente caliente (al menos, no sabemos que exista), es imposible tener un motor perfectamente eficiente. No se puede convertir calor en trabajo sin disipar parte de dicho calor. Y ello significa que, de continuar el ciclo, siempre habrá que inyectar energía en el sistema. En otras palabras, no hay comida gratis.

Nuestro universo: la comida gratis por excelencia
Según el físico Alan Guth, sí que existe tal cosa como una comida gratis. Y vivimos en ella. El universo, dice Guth, es «la comida gratis por excelencia». Guth es el originador de una idea en cosmología que se conoce como «inflación». Según Guth, el universo y toda la energía que contiene parece haber surgido de poco más de un gramo de material. Una fracción de segundo después del Big Bang, el universo era 100.000 millones de veces más pequeño que un protón, pero después se hinchó como un globo. En realidad, se infló como un guisante que se expandiera hasta el tamaño de la Vía Láctea en menos tiempo del que se tarda en parpadear.
Los números implicados son abrumadores. La cosa empezó cuando el universo tenía un tamaño del orden de mil millonésimas el de un protón; 10-3"' segundos más tarde se había expandido hasta 1025 veces su tamaño original, algo así como el tamaño de una canica. Y durante este proceso, los cosmólogos estiman que la energía dentro del universo aumentó por un factor de 1075. Esto parece una violación de la regla del algo por nada, o de la que dice que no hay comida gratis. Pero hay una complicación que lo mantiene dentro de las leyes de la física: parte de dicha energía es energía negativa.
Según la relatividad general, nuestra mejor descripción de la naturaleza del espacio y el tiempo, la energía de un campo gravitatorio siempre es negativa. Durante la inflación, la energía en el espacio-tiempo en rápida expansión se hace todavía más negativa. Sin embargo, dentro de ese espacio-tiempo empieza a aparecer la materia. Ello se debe a que las propiedades del espacio-tiempo significan que una fracción del mismo se desplaza espontáneamente hasta un estado de menor energía: partículas tales como electrones, positrones y neutrones. La materia posee energía positiva, y la creación continua de materia creó cada vez más energía positiva para equilibrar la energía negativa creciente. Así, la energía total puede permanecer constante. Los antiguos griegos decían que nada puede crearse a partir de nada, pero la inflación pide disentir.

El trabajo de Carnet condujo directamente a la formulación de la segunda ley de la termodinámica. Tal como la enunciaron el físico inglés lord Kelvin y el tísico alemán Max Planck, ésta afirma que un motor que opera en un ciclo no puede transformar calor en trabajo sin producir algún otro efecto sobre su entorno. Gracias a la segunda ley, no sólo no podemos obtener una comida gratis, ni siquiera podemos mantener la comida en el frigorífico sin costo. La refrigeración resulta no ser más complicada que el motor de Carnot funcionando al revés.

«Un motor que opera en un ciclo no puede transferir calor de un depósito frío a un depósito caliente sin producir algún otro efecto sobre su entorno.»
En 1850, el físico alemán Rudolph Clausius expresó la segunda ley de otra forma: «Un motor que opera en un ciclo no puede transferir calor de un depósito frío a un depósito caliente sin producir algún otro efecto sobre su entorno».
En otras palabras, un frigorífico requiere que se le suministre energía. Esto surge de la tendencia natural de la energía a fluir «cuesta abajo»: desde lo caliente a lo frío. Mantener el interior de nuestro frigorífico por debajo de la temperatura de la cocina implica el mismo proceso de expandir y contraer, calentar y enfriar gases que hacer funcionar el motor de nuestro automóvil, y todo ello requiere energía. Pero esta vez necesitaremos un compresor para el gas, y no un expansor.

La marcha de la entropía
Tal como se ha indicado, el trabajo de Carnot implicaba considerar la presión, la temperatura y el volumen del gas. El proceso que Carnot descubrió condujo a otra revelación para los físicos: la idea de entropía. Resulta que el universo entero se dirige a un estado de cada vez mayor desorden. Fue Clausius quien clasificó ese desorden como «entropía», término derivado del griego para «transformación». En 1865 escribió un tratado matemático sobre el trabajo que los átomos ejercen unos sobre otros en un gas. El resultado, demostró Clausius, es que la segunda ley puede expresarse de una manera nueva: la entropía, o desorden, de un sistema cerrado se mantiene igual o aumenta; nunca se reduce.
Esto no quiere decir que nunca veamos aumentar la entropía a una escala pequeña. Nuestra comida dentro del frigorífico se enfriará, por ejemplo, reduciendo así el desorden en sus moléculas constituyentes. Pero no nos engañemos pensando que esto viola la segunda ley de la termodinámica. El interior de nuestro frigorífico no es un sistema cerrado: las moléculas del gas refrigerante se llevan el calor, y al hacerlo su desorden aumenta. Puesto que el calor se transfiere al aire de la cocina, el desorden de nuestra casa también aumenta.
Este tipo de cosa está sucediendo en todo el universo a medida que se despliegan los procesos de la naturaleza. Crea, en opinión de los físicos, la irreversibilidad de los procesos naturales: la flecha del tiempo es sólo otra manera de expresar la segunda ley de la termodinámica. La energía disipada del motor cíclico de Carnot es el lento despliegue del universo en microcosmo.
Conjuntamente, la primera y la segunda leyes de la termodinámica levantaron un muro ante cualquier declaración de generación de una comida gratis. En realidad, están tan bien demostradas que la Oficina de Patentes de los Estados Unidos advierte a quienquiera que solicite una patente para una máquina de movimiento perpetuo que debe pensárselo detenidamente; lo más probable es que pierda su dinero. «Las opiniones de la Oficina de Patentes concuerdan con las de aquellos científicos que han investigado el asunto, en el sentido de que tales dispositivos son imposibilidades físicas», dice la declaración oficial de la oficina. «La posición de la Oficina sólo puede ser impugnada por un modelo funcional... La Oficina duda a la hora de aceptar las cuotas de inscripción procedentes de solicitantes que creen haber descubierto el Movimiento Perpetuo, y considera que es justo advertir a tales solicitantes de que dichas cuotas no podrán recuperarse una vez el caso haya sido considerado por el Examinador». Así, no sólo no existe tal cosa como una comida gratis; incluso buscar una puede terminar costándonos dinero.

Capítulo 7
¿Acaso todo es, en último término, aleatorio?
Incertidumbre, realidad cuántica y el papel probable de la estadística

Podríamos empezar dándole la vuelta a la pregunta.
¿Acaso todo es predecible? ¿Podemos deducir las reglas que determinan cómo se producen los procesos del universo? Esto nos daría un poder extraordinario sobre la naturaleza, el tipo de poder que la humanidad siempre ha soñado.

En muchos aspectos, toda la existencia humana está arropada por esta búsqueda. Observamos el mundo que nos rodea e intentamos encontrar regularidades y correlaciones que nos permitan reducir lo que vemos a un conjunto de reglas o generalidades. Esto nos permite hacer predicciones acerca de las cosas que podremos encontrar o no en el futuro, y ajustar nuestras expectativas y nuestros movimientos en la debida forma. Somos, en el fondo, buscadores de pautas o patrones.
Una facilidad para discernir pautas nos ha servido bien como especie. Es, sin duda, lo que nos permitió sobrevivir en la sabana. Un depredador podía hallarse camuflado mientras estaba inmóvil, pero tan pronto como el animal se movía advertíamos un cambio en los patrones de nuestro entorno y emprendíamos una acción evasiva. Raíces V bayas crecen en pautas geográficas y temporales (las estaciones) predecibles, lo que nos permitía encontrarlas ydeleitarnos con ellas.
Las pruebas sugieren que, debido a que nuestra vida dependía del reconocimiento de pautas, la evolución de nuestro cerebro llevó el proceso a los extremos, lo que nos obligó a ver patrones aunque no estén allí. Por ejemplo, interpretábamos exageradamente los murmullos de hojas y arbustos como prueba de un mundo de espíritus invisibles. Investigaciones modernas sugieren que este tipo de sensibilidad exagerada a patrones de nuestro ambiente nos ha predispuesto a la convicción religiosa; una tendencia hacia el pensamiento irracional (la consideración de cosas que no podemos tocar, ver o explicarnos) es el precio que la especie humana ha pagado por su supervivencia.
Irónicamente, sin embargo, los científicos sólo han podido sacar conclusiones acerca de la procedencia del pensamiento irracional debido a la mota en el propio ojo. En la actualidad, los científicos son dolorosamente conscientes de su tendencia a ver patrones donde no hay ninguno y a ver aleatoriedad allí donde hay orden. Con el fin de combatir esto, y para determinar si acaso existe algún orden, propósito u estructura en el mundo que nos rodea, necesitábamos el invento que expone a la vez lo brillante y lo necia que puede ser la mente humana.
Quizá el lector lo conozca mejor con el nombre de estadística.

La suerte está echada
A diferencia de muchos de los acontecimientos de la ciencia moderna, la estadística no tiene nada que ver con los griegos. Esto es notable si se considera lo mucho que les gustaba el juego. Griegos y romanos pasaban muchas horas lanzando los dados del mundo antiguo.
Estos estaban hechos a partir de astragali, los huesecillos de seis lados, que se encuentran en el talón de ovejas y ciervos. Cuatro de los lados eran planos, y a éstos se asignaban números. Los artesanos grababan los números uno y seis en dos caras opuestas, y tres y cuatro en las otras dos caras planas. La manera como estaban situados los números lucía que el uno y el seis salieran unas cuatro veces menos al ser lanzados que el tres o el cuatro.

«El azar, esta palabra misteriosa y de la que se abusa mucho, debe ser considerada únicamente un velo para nuestra ignorancia. Es un fantasma que ejerce el imperio más absoluto sobre la mente común.»

El lector puede pensar que un matemático griego emprendedor podría haber hecho una fortuna en los juegos de dados jugados con astragali. Sin embargo, hay razones para que nadie lo hiciera. En primer lugar, los griegos no consideraban que nada fuera azar aleatorio: todo estaba en los planes ocultos de los dioses, Asimismo, los griegos eran en realidad bastante torpes con los números. Las matemáticas de los griegos estaban relacionadas con la forma: sobresalieron en geometría. Sin embargo, tratar de la aleatoriedad implica aritmética y álgebra, y aquí los griegos tenían capacidades limitadas.
El invento del álgebra no era el único descubrimiento necesario para echarle mano a la aleatoriedad. Aparentemente, también necesitaba la producción de dados «limpios», que tuvieran una probabilidad igual de caer sobre cada una de sus seis caras; los primeros teoremas de probabilidad, que aparecieron en el siglo XVII junto con la mecánica celeste de Newton, se ocupaban casi exclusivamente de lo que ocurre cuando se lanzan los dados.
Esos teoremas se fundaban en el supuesto de que los dados eran imparciales y, aunque eran bastante primitivos, establecieron las bases para los primeros intentos de conocer si los procesos del mundo natural podían ser aleatorios. A partir de los dados, y pasando por los lanzamientos de monedas y el barajar de cartas, llegamos finalmente a la estadística, la probabilidad y la idea de aleatoriedad.

Causa probable
El astrónomo y matemático belga Adolphe Quételet fue el primero en comenzar a aplicar probabilidades a los asuntos humanos en la década de 1830, y desarrolló ideas estadísticas de la distribución de probabilidades de las características físicas y morales de las poblaciones humanas. Fue Quételet quien inventó el concepto de «hombre promedio».

10.jpg
Curva de distribución de Quételet

Cuando dirigió su atención a la idea de la aleatoriedad de los acontecimientos naturales, Quételet estaba determinado a no tomar prisioneros.
El azar, esta palabra misteriosa y de la que se abusa mucho, debe ser considerada únicamente un velo para nuestra ignorancia. Es un fantasma que ejerce el imperio más absoluto sobre la mente común, acostumbrada a considerar los acontecimientos únicamente como casos aislados, pero que queda reducido a la nada ante el filósofo, cuyo ojo abarca una larga serie de acontecimientos.»

Más que ruido
Si, finalmente, el mundo es aleatorio, al menos podemos utilizar dicha aleatoriedad. Para empezar, está la noción del temblor. Durante la segunda guerra mundial, las tripulaciones de aviones advirtieron que sus instrumentos funcionaban mejor cuando el avión estaba volando. Las vibraciones del aparato hacían mover las agujas hacia adelante y hacia atrás en movimientos minúsculos y aleatorios que superaban la fricción de los mecanismos de los instrumentos. El ruido aleatorio parece que también ayuda a los animales en el mundo natural. Los cangrejos de río tienen más probabilidades de ser comidos por sus depredadores cuando se hallan en aguas quietas. La adición de un pequeño ruido turbulento parece conferir una ventaja al cangrejo a la hora de detectar las perturbaciones asociadas a un pez que se acerca.
En el otro extremo de la ecuación alimentaria, la aleatoriedad se emplea cuando los peces espátula capturan plancton. El plancton emite una débil señal eléctrica, y el largo hocico del pez espátula está equipado con sensores de campos eléctricos que pueden detectar dicho campo.
Sin embargo, durante la mayor parte del tiempo la señal del plancton es demasiado débil para que el pez espátula la detecte. Pero la evolución ha dotado al pez espátula con células neurales que añaden algo de ruido a la señal. El resultado es un fenómeno llamado «resonancia estocástica», que parece amplificar la débil señal hasta el punto de que el pez espátula es capaz de advertir la presencia de plancton.
En nuestro propio cerebro puede estar operando un truco similar. Se ha demostrado que las moscas del vinagre, que comparten su arquitectura cerebral con todos los vertebrados, emplean resonancia estocástica para mejorar su sentido del olfato. Hay estudios que demuestran que la agudeza visual, el oído y los sentidos del tacto y del equilibrio de una persona mayor pueden mejorarse añadiendo algo de ruido aleatorio a las señales que el cerebro recibe procedentes del oído, el ojo o la piel. Por ejemplo, los implantes cocleares ayudan a las personas sordas a oír mejor cuando tienen incorporado, algún ruido aleatorio de bajo nivel.

Aunque las civilizaciones antiguas pudieron haber podido predecir los movimientos de los planetas, hasta Quételet nadie pensaba que pudiera haber algún patrón en la manera en que cae la lluvia sobre el cristal de una ventana o en los lances de lluvia de meteoros. Quételet cambió todo esto, al revelar pautas estadísticas en cosas que hacía mucho tiempo que se pensaba que eran aleatorias.
No es que la idea de aleatoriedad terminara con Quételet. Su trabajo demostró que las «series largas de acontecimientos» seguían con mucha frecuencia un patrón estadístico. Pero esto dejaba abierta la idea de que no podía predecirse un acontecimiento único. Mientras que una serie de lanzamientos de moneda al aire producirá una distribución predecible de caras y cruces, el resultado de un lanzamiento de moneda único sigue siendo impredecible en la ciencia de Quételet.

Levantando el velo de la ignorancia
Sin embargo, incluso aquí la ciencia ha demostrado ahora que la percepción de la aleatoriedad es un resultado de la ignorancia. Lanzar una moneda implica una complicada mezcla de factores. Está la posición inicial de la moneda, el momento angular y lineal que el lanzamiento imparte, la distancia a la que se permite que la moneda caiga y la resistencia del aire durante su vuelo. Si todos estos factores se conocen con una precisión razonable, se puede predecir exactamente cómo caerá la moneda.
Por lo tanto, un lanzamiento de moneda no es en absoluto aleatorio. Más aleatorio (pero todavía no totalmente aleatorio) es el lanzamiento de un dado. Aquí son de aplicación las mismas reglas: en principio, si se conocen todas las condiciones iniciales y la dinámica precisa del lanzamiento, se puede calcular qué cara terminará situada arriba. Aquí el problema es el papel de las aristas agudas del dado. Cuando una arista del dado golpea la mesa, el resultado es caótico (véase ¿Significa desastre la teoría del caos?): el movimiento siguiente depende sensiblemente del ángulo y de la velocidad exactos con que golpea.
El resultado de cualquier caída siguiente sobre una arista dependerá en último término, incluso de manera más sensible, de aquellas condiciones iniciales. Así, mientras podemos esperar computar de manera razonable el resultado de un lanzamiento de moneda a partir de la información pertinente, nuestras predicciones acerca del lanzamiento de un dado serán mucho menos precisas. Si el lanzamiento implica dos o tres colisiones caóticas con la mesa, nuestras predicciones pueden resultar poco mejores que el azar.
Sin embargo, es importante hacer la distinción entre sistemas caóticos y realmente aleatorios. El lanzamiento de un dado no es predecible por nuestra parte, pero tampoco es aleatorio: sabemos que sigue reglas discernibles, sólo que no podemos computar con exactitud las consecuencias de dichas leyes, dado nuestro conocimiento limitado de las circunstancias iniciales. Podemos decir lo mismo acerca del tiempo meteorológico: son nuestras limitaciones («nuestra ignorancia» en palabras de Quételet) lo que hace que parezca aleatorio. De modo que, ¿hay algo que sea realmente aleatorio? Esta es una pregunta que se encuentra en el meollo de uno de los mayores debates de la ciencia, y uno de los más fundamentales.
A comienzos del siglo XX, lord Kelvin expresó su contento por la manera en que la física avanzaba. Newton había hecho el trabajo de base, y sus leyes del movimiento podían usarse para socalzar la comprensión que empezaba a tenerse de la naturaleza de la luz y del calor.
Sí, había un par de temas menores («dos nubes», tal como él lo planteaba), pero esencialmente los físicos hacían entonces poco más que poner los puntos sobre las íes y cruzar las tes en nuestra comprensión del universo. De manera coincidente, el gran matemático alemán David Hilbert se sentía igualmente optimista. En 1900, en un congreso de matemáticas en París, Hilbert planteó 23 problemas matemáticos abiertos que, cuando se resolvieran, cerrarían el libro de las matemáticas.

Seguros sobre la incertidumbre
Tanto Hilbert como lord Kelvin eran culpables de optimismo fuera de lugar. Al cabo de pocos años, la relatividad y la teoría cuántica habían hecho volar por los aires la idea de utilizar a Newton para formular el futuro de la física. Más aún: el matemático austríaco Kurt Gödel había tirado de la alfombra bajo los pies de Hilbert al responder a una pregunta matemática que éste ni siquiera había planteado... y llevándose con ello cualquier certidumbre de que pudiera darse respuesta a ninguna de las preguntas de Hilbert.
Gödel había formulado lo que llamó un teorema de la incompletitud. Dice, esencialmente, que hay algunos problemas matemáticos a los que nunca se podrá dar respuesta.- Debido a la manera en que formulamos las ideas matemáticas, algunas cosas no pueden probarse nunca. Las matemáticas están destinadas a ser eternamente incompletas. Esto tiene una gran relevancia para la cuestión de la aleatoriedad. Si algunas cosas son inconocibles, su comportamiento puede ser, por todo lo que sabemos, aleatorio. La aleatoriedad podría no ser realmente una propiedad intrínseca del sistema, pero nunca podremos probar que no lo es. Gödel publicó en 1931 su teorema de la incompletitud. Para entonces, la idea de que hay límites a lo que podemos saber ya no era ninguna sorpresa. Si uno estaba familiarizado con la teoría cuántica, que acababa de nacer, ya se había resignado a su ignorancia de las respuestas fundamentales.
En primer lugar, la teoría cuántica nos proporcionó el problema de la incertidumbre intrínseca. Werner Heisenberg fue el primero en advertir que, cuando se está tratando con las ecuaciones de la teoría cuántica, se pueden hacer preguntas acerca de las características del sistema que se está inspeccionando, pero hay determinadas combinaciones de preguntas que no se pueden plantear simultáneamente. Las ecuaciones nos darán el momento preciso o la posición exacta de una partícula, por ejemplo. Pero no nos proporcionarán ambas cosas a la vez. Si queremos saber el momento preciso de una partícula en un instante determinado, literalmente no podemos decir nada acerca de la posición de la partícula en el mismo instante. Esto, el principio de incertidumbre de Heisenberg, es una característica fundamental de la teoría cuántica.
Para justificarlo, Heisenberg utilizó la analogía de un microscopio. Si queremos observar la posición de una partícula, dijo, hemos de arrancarle algo; un fotón de luz, en este caso. Pero, al hacerlo, el fotón imparte momento a la partícula. En otras palabras, al medir la posición hemos introducido un cambio a una característica distinta: no podemos saber con precisión simultáneamente la posición y el momento. Cualquier medición (para determinar el momento o la energía o el espín), tendrá efectos concomitantes sobre otras características. La certidumbre acerca de todas las características de un sistema en un momento dado del tiempo no, puede conseguirse nunca.
El segundo problema, incluso más fundamental, no es tanto de limitaciones prácticas, sino de predecibilidad intrínseca directa. El ejemplo clásico de esto es un fragmento de roca radiactiva, como el burujo de radio que Marie Curie llevaba con ella. Los físicos pueden decirnos que, si está compuesto del isótopo del radio que se desintegra más rápidamente, la radiactividad del burujo se reducirá a la mitad cada tres días y medio. Así, pasada una semana, éste tiene la cuarta parte de su radiactividad original.
Pero esto es un promedio estadístico. No nos dice nada acerca de si un átomo de radio determinado se desintegrará en un tiempo dado. Pasados 1.000 años, algunos de los átomos de aquel burujo todavía no se habrán desintegrado. Algunos se desintegrarán en cuestión de minutos después de haber puesto en marcha el reloj. Y no hay manera de predecir qué átomos harán una cosa u otra. Nada de la teoría cuántica nos dice qué es lo que impulsa la desintegración. Esta es, a todos los efectos, aleatoria, como si el Todopoderoso lanzara diez dados para cada átomo y sólo un conjunto de diez seises produjera la desintegración. Einstein tomó esto como prueba de que la teoría cuántica es incompleta. Tiene que haber, decía, algunas «variables ocultas» que sustituyan a este juego de dados divino.

El lanzamiento de dados divino
La idea de que «El Todopoderoso» no juega a los dados es quizá la inquietud más documentada de Einstein. Vale la pena señalar que en ella no hubo motivos religiosos. Einstein usaba a menudo «Dios» como una metáfora para la naturaleza o el universo. Su tesis es sencilla y materialista. ¿Es seguro que el universo funciona por leyes deterministas? ¿Es seguro que todo efecto tiene una causa? Niels Bohr, a quien se considera por lo general el padre de la teoría cuántica, respondía con desdén a estas preguntas. La teoría cuántica, le dijo repetidamente a Einstein, se basa en la aleatoriedad. Algunos efectos no tienen causa. «Einstein, deja de decirle a Dios lo que tiene que hacer», le dijo.
Al igual que ocurre con el principio de incertidumbre de Heisenberg, dicha aleatoriedad parece estar escrita directamente en las ecuaciones de la teoría cuántica. La ecuación central, la única manera de encontrarle sentido a experimentos realizados en sistemas cuánticos, es la ecuación de onda de Schrödinger. Ésta asigna a los objetos cuánticos las características de las ondas. Si queremos saber alguna cosa acerca del mundo cuántico, resolvemos esta ecuación de onda. Pero todo lo que obtenemos de ella es una probabilidad.

11.jpg
Desintegración radiactiva del Radio 224

Esto es realmente lo que sitúa aparte la teoría cuántica. Cuando nació la Teoría cuántica, en la década de 1920, la estadística era una disciplina científica firmemente establecida. La termodinámica, el estudio del calor que se había hecho en paralelo a la Revolución Industrial, se basaba en ella. Otras muchas ramas de la ciencia utilizaban la estadística para verificar los resultados experimentales. Pero la teoría cuántica parecía única (y, para Einstein, inquietante) en su afirmación de que sus resultados sólo podían expresarse como probabilidades.
Los resultados de experimentos cuánticos, según la interpretación ortodoxa de la teoría cuántica, se reducían a puro azar. El rechazo de Einstein a aceptar esto tiene mucho que ver con la profundidad de sus implicaciones. La teoría cuántica describe el mundo a la escala de sus partículas más fundamentales. Si los procesos cuánticos son aleatorios, entonces todo es, en último término, aleatorio.
Bohr no tenía ningún problema con esto porque creía que, finalmente, nada tiene ninguna propiedad en absoluto. Nuestros experimentos y mediciones, creía, producirán determinados cambios en nuestro equipo experimental, que interpretamos en términos del momento de un átomo o el espín de un electrón. Pero, a fin de cuentas, decía, dichas cualidades no son un reflejo de algo que exista con independencia de la medición. Así, para Bohr, no existía ninguna razón por la que los resultados de los experimentos no aparecieran distribuidos al azar; no existía ninguna realidad objetiva ordenada de la que pudiera surgir algún resultado no aleatorio. En su opinión, sería extraño que ocurriera de cualquier otro modo.
Parece un punto de vista extraordinario; radical y sorprendente. Un electrón sólo existe como alguna singularidad de nuestro aparato de medida. No es de extrañar que Einstein, que estaba más infinitamente orientado al «sentido común», debatiera esto con Bohr durante décadas. Einstein dijo que «sentía algo así como amor» hacia Bohr cuando se inició el debate, tal era la intensidad y el placer de su combate intelectual. Sin embargo, hacia el final del mismo, había llegado al punto en el que la pareja ya no tenía nada que decirse. En una cena que se dio en honor de Einstein, éste y sus amigos estaban apretujados en un extremo de la sala, mientras que Bohr y sus admiradores se situaban en el otro.

Vivir con un universo aleatorio
En último término, la historia ha decidido que Bohr estaba en lo cierto. Quizá ello es inevitable, dada la fuerza de la personalidad de Bohr (por ejemplo, una vez hizo saltar las lágrimas a Werner Heisenberg). Sea cual sea la verdad, mientras que la idea de Einstein de que hay una serie de variables ocultas a la espera de ser descubiertas sigue siendo científicamente respetable, la opinión generalizada es que la realidad objetiva no tiene ninguna existencia independiente. Todo lo que podemos decir sobre la realidad que se manifiesta en los experimentos cuánticos es que podemos predecir el espectro de posibilidades, y la probabilidad que tiene cada una de ellas de verse. Así pues, ¿es ésta la última palabra? ¿Es el universo, en último término, aleatorio? ¿Acaso estamos nosotros, como criaturas compuestas de moléculas cuánticas, condenadas a encontrarnos a merced de fuerzas caprichosas? Sí... pero la cuestión está cargada como un dado romano.
Parece que, de modo natural, expresamos la aleatoriedad en términos negativos, y hablamos, como Hamlet, de «sufrir los golpes y dardos de la insultante Fortuna». Pero, como Shakespeare bien sabia, la fortuna a veces también es amable. Por ejemplo, en Cymbeline hace que Pisanio declare que «la fortuna hace que lleguen algunas barcas que no están gobernadas». El problema es que milenios de pensamiento religioso han impuesto la sensación de que todo lo que ocurre en el mundo a nuestro alrededor, ocurre por alguna razón. La ciencia ha reforzado esta sensación: apreciamos la predecibilidad. Pero la aleatoriedad también puede ser útil (véase el recuadro Más que ruido).
Más aún: quizá se encuentre en la base misma de nuestra existencia. El principio de incertidumbre de Heisenberg es, como hemos visto, fundamental para el universo. Una de las consecuencias de ello es que incluso regiones de espacio vacío no pueden tener cero energía; por el contrario, todo el espacio está poblado por una espuma de partículas «virtuales» que entran y salen de la existencia al azar. Se cree que dichas fluctuaciones cuánticas en el «vacío» del espacio son el origen de la «energía oscura» que impulsa la expansión acelerada del universo. Un tipo similar de fluctuación que vino «de la nada», pero creció en lugar de desaparecer otra vez, es la mejor explicación que tenemos para la causa del Big Bang que dio origen a nuestro universo. El lector puede pensar que la aleatoriedad es una mala cosa, pero sin aleatoriedad no estaría aquí para pensar en ella.


Capítulo 8
¿Qué es la partícula de Dios?
El bosón de Higgs, el GCH y la búsqueda del significado de la masa

El lector no se sorprenderá al descubrir que no tiene nada que ver con Dios. Excepto, quizá, en el sentido de que nadie ha probado nunca que exista. León Lederman, premio Nobel de Física, acuñó la frase. En parte se trataba de una observación irónica para los físicos que pensaban que una partícula daría respuesta a todas sus preguntas sobre el universo, en parte era una pulla a la idea de que los descubrimientos de la ciencia puedan tener algo que decir acerca del significado de la vida.

Lamentablemente, la partícula de Dios no hace ninguna de las dos cosas: no nos dirá todo acerca del universo, ni nos explicará el significado de la vida. Pero esto no significa que no valga la pena buscar el bosón de Higgs. Es la pieza final del rompecabezas en la teoría estándar de la física de partículas. Si existe, podemos estar seguros de haber desvelado gran parte de la naturaleza esencial del universo y de haber encontrado lo que proporciona a los materiales su masa. Si no, quizá tengamos que volver a la pizarra.
El escenario en el que este drama se desarrollará se halla en Suiza. En la Organización Europea para la Investigación Nuclear (CERN), en Ginebra, el más potente acelerador de partículas del mundo será el árbitro de la verdad en lo que los físicos denominan el «modelo estándar» de la física. Cuando el Gran Colisionador de Hadrones (GCH) aplaste unos contra otros protones con la fuerza de dos trenes de gran velocidad que colisionan, puede derramarse la partícula de Dios. En todo el mundo, los físicos están en ascuas a la espera de ver si, allá por 1964, Peter Higgs estaba en lo cierto.

Nacimiento del bosón de Higgs
La hipótesis de Peter Higgs era bastante directa. En respuesta a varios intentos de averiguar el origen de la masa, escribió un artículo que describía de qué manera la física teórica permitía la existencia de un nuevo tipo de campo. Sería una adición a los campos ya conocidos, como los campos gravitatorio y electromagnético. Este nuevo campo habría aparecido cuando el universo se enfrió a partir de la bola de luego del Big Bang, y podía proporcionar una fuente de resistencia al avance sobre determinados tipos de partículas, dotándolas quizá de la propiedad que conocemos como masa.
El artículo fue inicialmente rechazado por los editores de la revista Physic Letters por «no ser de importancia obvia para la física». Higgs lo reescribió para dar la idea de una aplicación concreta: podría surgir, decía, en la fuerza que mantiene unidas las partículas del núcleo, pero tampoco nadie le hizo mucho caso. Hasta que Steven Weinberg, Sheldon Glashow y Abdus Salaam se dispusieron a intentar unificar las fuerzas nucleares electromagnética y débil.
Las teorías de estas dos fuerzas parecían misteriosamente parecidas en muchos aspectos. La teoría de las fuerzas electromagnéticas conocida como electrodinámica cuántica, y la teoría de la fuerza «débil» que crea algunas formas de radiactividad y acciona la fusión nuclear del Sol, parecían algo, así como las dos cajas de una misma moneda (véase ¿Cuál es la fuerza más fuerte de la naturaleza?). Weinberg y Salaam demostraron que esto era realmente lo que ocurría, y las unificaron en la teoría «electrodébil». Pero había un problema. Dicha teoría requería que un par de partículas todavía desconocidas, denominadas bosones W y Z) (un bosón es una partícula que crea una fuerza), se añadieran al llamado zoo de partículas.
De manera bastante desconcertante, estas dos partículas tenían masa. Esto parecía estar equivocado, porque el bosón más famoso es el fotón, que crea la fuerza electromagnética, y el fotón carece de masa. Si el fotón y los bosones W y Z realizan el mismo tipo de tarea en una teoría unificada, debería existir algún tipo de «simetría» entre ellos. El hecho de que no exista, debido a la masa de los bosones W y Z, llevó a los físicos a sospechar que algo rompe dicha simetría, de la misma manera que añadir un peso a una balanza de cocina muy bien equilibrada alterará este equilibrio delicado.
Pero ¿qué era dicho peso? Ésta es la pregunta a la que Peter Higgs ofrecía su campo como respuesta.
En 1967, Weinberg y Salaam habían incorporado el campo de Higgs en su teoría electrodébil. En 1983, en el CERN, se vieron los bosones W y Z, exactamente tal como Weinberg y Salaam habían predicho. Fue un triunfo, la contera final de la odisea de la física de partículas. Excepto por un detalle minúsculo. Nadie sabía si el campo de Higgs estaba realmente allí.

A la caza del Higgs
Podemos imaginar el campo de Higgs de varias maneras, pero una consiste en frotar un dedo a lo largo de una acanaladura de una lámina de metal corrugado. Se nota liso y el dedo corre sin encontrar resistencia. Ahora, situemos el dedo de modo que recorra las acanaladuras al través. Es mucho más rugoso. En el modelo estándar de la física, así son las cosas para los bosones W y Z. Mientras que el fotón siempre se desplaza a lo largo de las acanaladuras del campo de Higgs, los otros dos bosones lo hacen a su través, con lo que encuentran resistencia que se traduce en masa.
Es una idea elegante, pero hay que demostrarla. Y la única manera de demostrar que el campo de Higgs proporciona realmente un «grano» direccional al universo, que los bosones W y Z notan, pero no el fotón, es encontrar la partícula que el campo produce. Cada campo tiene su propia partícula.

12.jpg
Efecto del campo de Higgs

El campo electromagnético tiene el fotón, el campo gravitatorio tiene el gravitón (aunque nadie ha visto nunca uno), y la interacción fuerte se produce a través del gluón. El campo de Higgs, según la creencia popular, dota a las cosas de masa debido al bosón de Higgs. La cuestión es: ¿hay que hacer caso a la creencia popular?
Los físicos no tienen una confianza ilimitada en su teoría de la física de partículas. En algunos aspectos tiene unos enormes éxitos. Hemos predicho la existencia de partículas que (con la excepción de la partícula de Higgs; hasta ahora, al menos) siempre se han encontrado, y en muchos casos la teoría incluso nos dijo exactamente dónde buscarlas. Los físicos miden la energía de las partículas en electronvoltios (eV); un electrón ganará 9 eV de energía cinética al ser atraído por el voltaje a través de los terminales de una batería de 9 voltios, por ejemplo. Salaam y Weinberg dijeron a los investigadores del CERN que si hacían colisionar entre sí partículas a 80 y 90 giga electronvoltios. o GeV, encontrarían los bosones W y Z. Y esto fue exactamente lo que ocurrió.
Sin embargo, el modelo estándar no lo predice todo. El hecho de que 26 de sus constantes fundamentales tengan que encontrarse en experimentos, y después incorporarlas a ecuaciones, por ejemplo, es un poco frustrante. Asimismo, algunas partículas tuvieron que buscarse mediante prueba y error. Hubo un hiato de 20 años entre la predicción de que la partícula fundamental denominada «quark cima» tenía que existir y el momento en el que finalmente la encontramos. Esto se debe en parte a que la teoría no nos proporcionó ninguna idea de dónde buscarla (resultó que era a 170 GeV). Lamentablemente, con el bosón de Higgs nos encontramos en la misma situación. Debería estar aquí, pero nadie sabe dónde es «aquí». Y por ello construimos colisionadores de átomos cada vez mayores con la esperanza de que acabaremos por encontrar la energía adecuada.

Chocar y capturar
Todo esto no es tan desesperado o aleatorio como pudiera parecer.
Hacer chocar átomos unos contra otros tiene una historia sólida como herramienta experimental. Después de todo, así es como Ernest Rutherford descubrió el núcleo atómico. En 1909 decidió poner a prueba el modelo del «budín de ciruelas» del átomo, que sugería que sus cargas positivas y negativas estaban mezcladas. Rutherford lanzó un haz de radiación alfa (esencialmente el núcleo de un átomo de helio) a una delgada lámina de pan de oro. La mayoría de partículas alfa no se vieron afectadas, pero algunas fueron muy desviadas.
A partir de sus resultados, Rutherford dedujo la existencia de una minúscula región de carga positiva concentrada en el centro del átomo, que causaba las grandes desviaciones ocasionales. Había nacido la física nuclear.
Desde Rutherford, hemos construido toda una nómina de aceleradores de partículas cada vez mayores con el fin de sondear las complejidades del núcleo, culminando en el más moderno y avanzado: el Gran Colisionador de Hadrones del CERN. Aunque podría parecerlo por las noticias aparecidas en los medios, el GCH no es el primer acelerador de partículas que se recluta como detector del bosón de Higgs. Puesto que no tenemos manera de saber a qué energías podría encontrarse el bosón de Higgs (aunque el modelo estándar sugiere que un blanco probable es a 96 GeV), hace muchos años que esperamos dar con él. Pero se ha dado la bienvenida a un acelerador de partículas tras otro como la gran esperanza, y todavía no lo hemos conseguido.
El primero con una probabilidad alta fue el Gran Colisionador de Electrones y Positrones (GCEP) del CERN (véase ¿Por qué hay algo en lugar de nada?). Instalado en un túnel circular de 27 kilómetros de circunferencia, el GCEP aceleró electrones y positrones hasta cerca de la velocidad de la luz. Un anillo de 4.600 imanes guía a estas partículas en un círculo que se extiende a través de la frontera suiza con Francia, hasta las laderas de las montañas del Jura; los electrones se mueven en una dirección y los positrones en la otra. Se puede hacer que los imanes se desplacen para guiar estos haces uno contra otro, con lo que cualquier colisión que se produzca libera una cascada de partículas.
Cuatro enormes detectores, cada uno de ellos del tamaño de una casa pequeña, captarán las trayectorias de esas partículas. Los experimentos continúan durante horas, con colisiones potenciales cada 22 millonésimas de segundo. Después, los científicos han de examinar los resultados de los detectores, e intentar deducir qué ocurrió cuando un electrón y un positrón colisionaron entre sí.

Un vislumbre del Higgs
El GCEP, que entró en operación en 1989, aceleró partículas hasta 45 GeV, lo bastante para producir el bosón Z. Mejoras posteriores permitieron producir también el bosón W.
Para cuando estaba previsto su cierre, el GCEP operaba a 209 GeV. Pero justo antes de esto, en septiembre de 2000, produjo una visión sugestiva de algo que parecía el bosón de Higgs.

Aceleradores de partículas de alta energía
NombrePartículas en colisiónEnergía
Colisionador Lineal de Stanford (CLS)electrón, positrón100 GeV
Gran Colisionador de Electrones y Positrones (CERN-GCEP)electrón, positrón200 GeV
Colisionador Relativista de Iones Pesados (CRIP-BNL)iones pesados200 GeV
Tevatrón (FNAL)protón, antiprotón2 TeV
Gran Colisionador de Hadrones (CERN-GCH) en Ginebraprotón-protón; ión-ión14 TeV

La observación se hizo en colisiones con una energía muy poco inferior a 115 GeV, lo que tiene sentido en la teoría del modelo estándar. Lamentablemente, no había suficientes observaciones para que el resultado fuera estadísticamente significativo. La única conclusión fue que, utilizando la equivalencia entre energía y masa de Einstein, E = mc2, el bosón de Higgs era más pesado que 114 GeV.
La masa del bosón de Higgs está estrechamente relacionada con la masa del quark cima y con la del bosón W. A medida que los científicos acotan dichas masas cada vez con mayor precisión, el rango de escalas de energía al que podría aparecer el bosón de Higgs se hace cada vez más estrecho. La última limitación en la masa del bosón W ha supuesto que la mayor probabilidad de encontrar el bosón de Higgs se dé a 153 GeV, y ahora está en marcha la carrera para encontrarlo.
En 2009, científicos del Fermilab anunciaron que tienen una probabilidad del 50:50 de observar el bosón de Higgs antes del final de 2010. Desde el CERN se informaba en enero de 2011 que se daban un plazo de dos años para encontrar el bosón de Higgs. Pero los investigadores del GCH todavía pueden ser los primeros en alcanzarlo. Este nuevo colisionador, la máquina más potente del mundo, ocupa el túnel que dejó libre el GCEP en 2000. Acelerará protones y antiprotones a una velocidad sorprendente: el 99,9999991 % de la velocidad de la luz. Las partículas colisionarán entre sí a 14 TeV (teraelectronvoltios).
Con toda esta energía concentrada en haces de sólo una milésima de milímetro de sección, algunas personas han mostrado su preocupación por el hecho de que el colisionador pueda producir efectos inesperados y catastróficos (Véase el recuadro: ¿Encontraremos el bosón de Higgs o destruiremos la Tierra?).
Cuestiones técnicas causaron retrasos enormes en su puesta en marcha, pero el GCH sigue siendo la mejor esperanza para detectar la partícula de Higgs. Pero pueden pasar años antes de que el GCH produzca ningún dato significativo. Sus detectores son enormemente complejos y precisarán una cantidad de calibración sin precedentes. Una vez esto se haya hecho, empezarán los experimentos. ¿Y qué ocurrirá si no aparece el bosón de Higgs en el GCH? Puede resultar sorprendente cuando se considera el coste de 3.000 millones de euros del colisionador, pero los físicos se muestran optimistas ante tal eventualidad.

Una señal de supersimetría
La opinión generalizada es que, si no existe el bosón de Higgs, el modelo estándar de la física se hará añicos y se derrumbará. Para explicar la asimetría entre el fotón, sin masa, y los bosones W y Z, con ella, se requiere el bosón de Higgs, o algo parecido. Pero incluso aquí hay margen de maniobra. Por ejemplo, algunos físicos afirman que hemos simplificado en exceso nuestra comprensión del aspecto que tendrá la rúbrica del bosón de Higgs. Si las cosas son más complicadas, ello se debe a una teoría que va más allá de las descripciones que ofrece el modelo estándar. Esa teoría es la denominada de «supersimetría».
En la supersimetría, toda partícula tiene un «supersocio» que es una versión más pesada de sí misma. El electrón está asociado a un selectrón. Los quarks tienen squarks. Y así sucesivamente. Esto crea un zoo de partículas mucho más complejo del que quizá quisiéramos, pero la idea tiene su gancho. Lo más importante es que resuelve numerosas dificultades con la idea de «unificar» todas las fuerzas de la naturaleza. Por ejemplo, la relación entre las fuerzas electromagnética y débil insinúa que todas las fuerzas evolucionaron a partir de una superfuerza inmediatamente después del BigBang. Cuando las cosas se enfriaron hasta energías inferiores, la superfuerza se dividió en las fuerzas que ahora reconocemos.

¿Encontraremos el bosón de Higgs o destruiremos la tierra?
El Gran Colisionador de Hadrones es una máquina tan potente que podría doblar y rasgar la urdimbre del universo; así pues, ¿podría destruir la Tierra? La cuestión se ha convertido en tema de intenso debate, e incluso de procesos legales, pero la respuesta es, casi con total seguridad, no. El asunto es la elevada concentración de energía de las partículas que colisionan en el GCH. La energía no es enorme; viene a ser como la energía cinética de un insecto pequeño. Pero se halla concentrada en una pequeñísima región del espacio. Sabemos, a partir de la teoría de la relatividad de Einstein, que la energía comba el espacio. En algunos modelos del universo, en los que hay más dimensiones espaciales que las tres que nosotros experimentamos, una tal concentración de energía puede producir diminutos agujeros negros, en los que la combadura extrema del espacio crea lo que, efectivamente, es una rasgadura en el espacio y el tiempo.
En este supuesto teórico, los agujeros negros desaparecen generalmente en una fracción de segundo y no plantean ningún peligro. Pero hay una posibilidad minúscula, pero finita, de que puedan crecer hasta un tamaño significativo y se conviertan en un peligro real. O ésta es la teoría de los alarmistas. La realidad es mucho más prosaica. Los cuentos amedrentadores han obligado a los investigadores a repasar la teoría con atención extrema. Han llegado a la conclusión unánime de que la probabilidad de un desastre es infinitesimalmente pequeña.
Pero, quizá, lo más importante es que, sea lo que sea que la teoría diga que es posible (pero muy improbable), tenemos realmente algunos resultados experimentales que tienen también importancia para la discusión. En nuestra atmósfera superior, partículas cargadas procedentes del espacio exterior provocan colisiones de energía superior a las que tendrán lugar en el GCH. Tienen lugar a una tasa de 10 billones de colisiones del GCH por segundo. Tal como dice el informe de seguridad del GCH, «a lo largo de la historia del universo, la naturaleza ha realizado el equivalente de 1031 proyectos del GCH». Esto son 10 quintillones de GCH, sin que haya señal alguna de que se haya abierto un agujero negro y se haya tragado a la Tierra. Sobre esta base, no hay razón para pensar que el GCH plantee ningún peligro para el futuro de la humanidad.

La supersimetría sugiere que hay quizá hasta cinco partículas asociadas al bosón de Higgs. ¿Y qué es lo que esto supone para la búsqueda? Bueno, es predecible que la haga más complicada de lo que quisiéramos.

El rastro del bosón de Higgs
Cada una de las partículas supersimétricas de Higgs producirá una rúbrica de desintegración diferente en los detectores del GCH. Cada rúbrica adopta la forma de un rastro de partículas que existe a determinadas energías y que después se desintegra en otras partículas con propiedades particulares. Aunque pueda parecer que esto es más fácil de detectar que un solo bosón de Higgs, lo cierto es que dicha complejidad hace más fácil pasarlo por alto, o bien obtener un falso positivo a partir de la desintegración de otras partículas que no sean el bosón de Higgs.
La energía de estas partículas de Higgs es tal que incluso existe la posibilidad de que puedan detectarse en el Tevatrón del Fermilab, el acelerador más potente de los Estados Unidos. Incluso pudieran estar allí, en los datos que están saliendo del colisionador GCEP; quizá es que no hemos mirado en el lugar adecuado. Sigue siendo una cuestión abierta. Pero detectar cualquier rúbrica de supersimetría será una bendición. De hecho, los investigadores del CERN esperan que el GCH encuentre pruebas de la supersimetría (y serán las primeras pruebas de la supersimetría) antes de encontrar el bosón de Higgs.
Al final, incluso si encontramos el bosón de Higgs, el fundamento de la masa tampoco quedará del todo revelado; seguiremos sin saber por qué las partículas tienen la masa que tienen; por qué, por ejemplo, el quark cima tiene un millón de veces la masa en reposo de un electrón.
El bosón de Higgs sí que reconcilia la existencia de masa con la manera en que la fuerza débil opera, pero sigue siendo un misterio el por qué confiere tanta masa a los quarks. Más aún: la masa de los quarks en un protón, sumada a la energía que mantiene unidos a los quarks, sigue sin llegar al total de la masa del protón.
Y todavía hay más malas noticias para los cazadores de masa: no tenemos ninguna explicación, en absoluto, para la masa del electrón. Sea lo que sea que ocurra finalmente en nuestros aceleradores, parece claro que la partícula de Dios es mucho menos importante para el futuro de la física de lo que su nombre pudiera hacernos creer. Verla (o ver algo parecido) será emocionante, pero bien pudiéramos descubrir que nuestra partícula de Dios tiene pies de barro.


Capítulo 9
¿Soy único?
Los límites de nuestro universo y la búsqueda de mundos paralelos

Si el lector se ha preguntado alguna vez qué es lo que hace que sea lo que él es, o si hay algún propósito y camino únicos y predeterminados para su vida, ha planteado una de las preguntas más grandes que los físicos puedan contestar de manera plausible.

Es ésta una pregunta con la que los escritores juegan continuamente. Historias de otros mundos, a los que se puede llegar desde el nuestro, abundan en la literatura. La idea es un recurso fundamental de la ciencia ficción, pero también constituye un tema central en libros para niños. Por ejemplo, ahí está el mundo de ficción de Narnia en la serie de C. S. Lewis y el clásico relato de Lewis Carroll de Alicia en el país de las maravillas.
Pero esos libros tienden a asumir singularidad para sus héroes y heroínas, que llegan a un mundo paralelo sin perder tiempo en su propio mundo. Sin duda ello tiene que ver con los límites de nuestra consciencia, que nos dice que sólo hay un «yo»: yo sólo puedo estar en un lugar en un momento dado. Pero si dejamos de lado el problema de la consciencia, de tipo zen, y lo que es el «yo», la respuesta a nuestra pregunta es casi con toda seguridad un no directo: no somos únicos. Sin embargo, el cómo hemos llegado a esta respuesta, no tiene nada de directo.
Hay tres razones por las que puede que uno no sea único, y todas ellas son centrales para nuestra concepción del universo. Una tiene que ver con la extensión física del universo, y si acaso éste tiene un borde. La segunda tiene que ver con algo que Einstein llamó el «mayor error» de su vida, y se extiende desde los primeros momentos de la creación para plantear cuestiones acerca de nuestro futuro infinito. La tercera sondea la naturaleza esencial del mundo cuántico. Si al principio «¿Soy único?» parecía una pregunta tonta, ahora ya no lo parece. La cuestión de si existe realmente otro yo en algún lugar de ahí afuera es en realidad la misma que preguntar cuánto conocemos, o acerca del universo.
La ruta más sencilla para una respuesta es a través de un examen del tamaño del universo. Aquí los físicos tienen tres posibilidades entre las que elegir. Quizá el universo es infinito en extensión. O bien podría ser finito, pero al igual que una hormiga en una pelota de tenis, nunca podremos llegar al borde. La tercera opción es que el universo es finito, y su geometría es tal que podríamos caer de uno de sus bordes.
Si el universo es infinito, entonces hay buenas razones para pensar que no somos únicos. Aunque pudiera contener un número infinito de mundos, y así un número infinito de mundos con vida parecida a la de la Tierra, parece que sólo hay unas cuantas maneras por las que un conjunto de moléculas puede configurarse para dar un ser vivo. Ello significaría que, en algún lugar, hay una copia hecha con (papel) carbón (juego de palabras a propósito) del lector.
Desde luego, el lector rebatirá de inmediato esta sugerencia, diciendo que, incluso si todas las estructuras moleculares fueran idénticas, esto no haría que aquella copia fuera él. Está el tema de los recuerdos y la experiencia, pero, aparte de ello, ¿qué es el «yo», exactamente? Nos estamos adelantando; en esta fase ni siquiera sabemos si se trata de una cuestión a la que haya que enfrentarse. La pregunta inmediata ahora es: el universo, ¿es finito o infinito?

La infinitud y más allá
Científicos y filósofos han considerado desde hace mucho tiempo el tamaño del universo, pero durante la mayor parte de la historia se ha considerado que era finito. Hacia el año 140 d.C., Ptolomeo concibió el cosmos como una esfera finita centrada en la Tierra. No fue basta 1576 que alguien sugirió otra cosa. Tal ocurrió cuando el astrónomo inglés Thomas Digges planteó la idea de un universo infinito poblado por estrellas similares a nuestro Sol. Digges fue más afortunado que el filósofo italiano Giordano Bruno. Cuando Bruno sugirió algo parecido unos cuantos años más tarde, inflamó la furia de las autoridades de la Iglesia Católica, que lo condenaron a morir quemado en la hoguera.
No estamos mejor ahora en lo que se refiere a la extensión del universo. Observaciones de la radiación cósmica de fondo de microondas, el eco del Big Bang, parecen indicar que el universo podría ser finito. Las explicaciones más populares de las anomalías en el espectro de dicha radiación sugieren un límite al tamaño del cosmos, pero hay muchas explicaciones que rivalizan con ésta. Así, puesto que no estamos seguros acerca de si el universo es infinito o no, no podemos decir si hay otro yo en un mundo lejano. Quizá nuestra segunda oportunidad, la que implica el mayor error de Einstein, pueda arrojar más luz sobre el asunto.

Un espumarajo de universos
Dicha posibilidad empieza con algo conocido como «teoría de la inflación eterna», que implica una sucesión de universos que surgen burbujeando unos de otros y que después se desgajan unos de otros. Aunque parezca extraño, hay bastantes pruebas de que éste sea un supuesto teórico natural y actual. La idea nació con el descubrimiento de una anomalía que obsesionaba a la física en la década de 1970. Una década después del descubrimiento en 1963 de la radiación cósmica de fondo de microondas, poca gente dudaba de que el universo se hubiera iniciado con un «Big Bang». El término lo había acuñado Fred Hoyle, uno de los críticos más estridentes de la idea, como una manera de ridiculizar la teoría de que el universo existió mediante una explosión, pero las pruebas eran buenas, el nombre pegadizo y (probablemente lo más importante) encajaba perfectamente con las hipótesis religiosas dominantes de la creación. Pero había un problema. El universo que veíamos no podía explicarse por un único Big Bang.
Para empezar, la relatividad nos dice que espacio y tiempo se curvan cuando se hallan en presencia de energía y materia (véase ¿Por que cae una manzana?). Esto tendrá un efecto profundo, alterando su geometría global. Las consecuencias de este cambio de geometría dependen de cuánta materia y energía haya. En concentraciones elevadas, espacio y tiempo se curvarán de manera catastrófica, cerrando el universo. En concentraciones bajas, la potencia expansiva del Big Bang habría dominado la forma del universo primitivo, lanzando todo lo que en él había a tales distancias que nunca se hubieran formado estrellas ni galaxia (ni planetas habitables). Sin embargo, nuestro universo estaba perfectamente preparado con una geometría «llana» que permitió que finalmente existiéramos. La pregunta es, ¿por qué tendría que ser tan perfecto?
Este «problema de la llanura» no es la única cuestión complicada con la que se enfrentan los cosmólogos. Está también el llamado «problema del horizonte». Éste surge del hecho de que parece que la temperatura en extremos opuestos del universo es la misma. La única manera de que ello ocurra es que el calor se haya distribuido uniformemente por todo el universo, pero sabemos que el universo es demasiado grande para que haya ocurrido tal cosa. El calor es transportado por fotones, que son partículas de radiación. Aunque los fotones se desplazan a la velocidad de la luz, no ha habido tiempo suficiente para que éstos hayan viajado a través del universo, transportando calor de un extremo a otro, de modo que el cosmos ya no tenga puntos calientes.

La inflación al rescate
A principios de la década de 1980, los físicos resolvieron estos dos problemas de una sola tacada. A la solución se la llamó «inflación», y sugería que, inmediatamente después del Big Bang, el universo atravesó un período de expansión superrápida. Aunque nadie sabe cómo pudo haber ocurrido, ni por qué, un período de inflación sigue siendo la mejor respuesta a los problemas que los cosmólogos tienen con el Big Bang, y explica la extensión del calor y la llanura del universo.

13.jpg
El delicado equilibrio que dio origen al Universo

También proporciona un camino para un segundo yo.
Ya hace casi tres décadas que la gente ha estado perdiendo el tiempo con posibles mecanismos para la inflación. Los más populares sugieren que la inflación es una historia de nunca acabar. Si un punto minúsculo del espacio-tiempo estalló una vez, puede volver a hacerlo. Según estas teorías de inflación caótica, la energía fluctuante intrínseca del espacio vacío puede inflar todo un universo nuevo a partir de cualquier lugar de nuestro propio espacio y tiempo.
En un proceso que recuerda algo de la fábrica de chocolate de Willy Wonka, todo el tiempo hay nuevos universos que surgen como burbujas de los antiguos. La boca de cada uno de ellos acaba finalmente por contraerse, lo que lo separa para siempre de su progenitor.
Aunque esto puede parecer fantástico, esta situación hipotética recibió un espaldarazo importante cuando los proponentes de la teoría de cuerdas la adoptaron como una idea que iba a resolver j su propio conjunto de problemas. La teoría de cuerdas es un intento de crear una teoría «final» de la física que una la relatividad de Einstein con la peculiaridad del mundo cuántico. La idea básica es que toda la materia está compuesta por diminutos bucles de energía vibrantes; la frecuencia de las vibraciones determina qué tipo de materia aparece. Cuando los teóricos de cuerdas intentaron calcular el tipo de universo que esto crearía, esperaban terminar encontrando uno que se pareciera y se comportara de manera bastante parecida al nuestro.
No ocurrió así. Por mucho que lo intentaron, no pudieron crear un solo universo de cuerdas que concordara con el que vivimos. En lugar de ello, crearon miles de universos, cada uno de ellos dotado de un conjunto de características distintas. El problema empeoró por el descubrimiento en 1998 de que la expansión del universo se aceleraba. Aunque esperamos que el universo siga expandiéndose (la influencia del Big Bang sigue siendo fuerte), tendría que hacerlo cada vez más lentamente, pues la atracción gravitatoria de todo lo que hay en el universo opera contra la expansión. Si la expansión se acelera, alguna fuerza desconocida está operando.        
Los físicos no tardaron mucho en descubrir que la energía asociada a esta aceleración constituye aproximadamente el 70 % de la masa y energía totales del cosmos. Llámesela como se quiera (los físicos la llaman energía oscura), pero se trata de una cantidad pasmosa de materia para no saber nada de ella.

El error de Einstein
La mejor respuesta al misterio de la energía oscura se halla en un término matemático que Einstein había introducido a la fuerza en sus ecuaciones originales que describían el universo. Einstein no sabía nada acerca del Big Bang, y pensaba que el universo tenía que ser estático, no que se expandiera. Lamentablemente, sus ecuaciones creaban un universo desequilibrado, de manera que insertó dicho término, conocido como «constante cosmológica», para crear un universo ordenado, estático. Después del descubrimiento del Big Bang, la calificó de su «mayor error».
Sin embargo, con el descubrimiento de la energía oscura, la constante cosmológica volvió a ponerse de moda. Este término se pensaba, podía explicar por qué el universo se expandía cada vez más rápidamente.
Pero no lo hizo, y ello de una manera espectacular. El valor calculado de la constante era del orden de 10120 veces el valor medido. Esto es un 1 seguido de 120 ceros: incluso los físicos lo han calificado de la desigualdad más embarazosa entre teoría y experimento en la historia de la ciencia.
Pero la teoría de cuerdas tiene una respuesta. No espere el lector comprender por qué un universo es como es; simplemente regocíjese en una multiplicidad de mundos diversos. La inflación caótica dice que todos existen, y lo mismo hace la teoría de cuerdas. Sí, vivimos en un universo con una constante cosmológica inexplicablemente pequeña, pero ¿por qué pensamos que tendríamos que ser capaces de calcular los valores de las constantes de la naturaleza desde el principio? Sencillamente, son lo que son... y son diferentes en cada uno de los universos del vasto paisaje que la teoría de cuerdas predice que existen.
Lo que se piensa actualmente en las fronteras de la física teórica es que, en lugar de ser un problema, el valor inexplicable de la constante cosmológica es una prueba de que la teoría de cuerdas se halla en el camino correcto. Podría parecer una lógica retorcida, pero si los teóricos de cuerdas están en lo cierto, esto proporciona el camino hacia otro yo. El extensísimo paisaje de universos que surgen burbujeando unos de otros mediante la inflación caótica y eterna no tiene fin. Aunque las constantes de la naturaleza son, efectivamente, aleatorias, algunas de ellas serán idénticas a las nuestras. Esto significa que se formarán planetas, aparecerán estrellas y se agruparán en galaxias, y en el núcleo ardiente de dichas estrellas se sintetizarán elementos tales como el carbono. Surgirá la vida y, en algunos casos, también los seres humanos.

14.jpg
Multiverso burbujeante

Y aquí estoy «yo». La probabilidad de que algo con exactamente mi constitución genética aparezca sobre un planeta azul verdoso en algún lugar de otro universo parece infinitesimalmente pequeña. Pero dicha probabilidad minúscula se convierte en certeza cuando permitimos la existencia de un número infinito de universos. No es que yo y mi otro yo nos podamos encontrar nunca. Cuando un nuevo universo sale burbujeando de otro y se separa de él, el contacto se pierde para siempre. Yo estoy atrapado en mi propio espacio y tiempo; mi gemelo se halla en una esfera separada e inalcanzable.

Mundos sin fin
Sin embargo, el carácter extraño de un universo burbujeante palidece ante nuestra tercera y última posibilidad de multiplicidad. La teoría cuántica proporciona no sólo una probabilidad de que exista otro yo, sino una argumentación de que existe un número casi infinito de yos. La cosa distinta es que cada uno ha hecho una elección diferente en la vida. Ésta es la interpretación de los «muchos mundos» (IMM) de la teoría cuántica, y es realmente anonadadora.
Hay diversas interpretaciones de la teoría cuántica, y cada, una de ellas tiene que explicar lo inexplicable. La teoría permite que las partículas cuánticas (átomos, electrones, las balas de energía luminosa llamadas fotones) existan en más de un estado en un momento dado. Se conoce a este fenómeno como superposición, y es un misterio profundo. Un electrón puede girar en el sentido de las agujas, del reloj y en el sentido contrario al mismo tiempo, por ejemplo. Un fotón puede hallarse simultáneamente aquí y allí. Un átomo puede contener dos energías diferentes.
En la demostración clásica de la superposición, los físicos disparan electrones a una pantalla que está cortada por dos estrechas rendijas verticales. El flujo de electrones es tan lento que en cualquier momento dado sólo hay una partícula en el aparato. Según nuestro parecer, el electrón pasará a través de una u otra de las rendijas. Si se coloca detrás de las rendijas una pantalla fosforescente, algo semejante a la pantalla de un tubo de rayos catódicos de televisión, deberíamos ver dos conjuntos de puntos brillantes allí donde impactan los electrones: uno detrás de la rendija izquierda y otro detrás de la derecha. Pues no. Lo que vemos es una serie de bandas brillantes, el denominado patrón de interferencia.
La interferencia es algo que asociamos con las ondas. Las olas oceánicas interfieren unas con otras: cuando las crestas coinciden, se refuerzan y el agua se acumula a mayor altura. Cuando coinciden dos valles (en realidad, cantidades negativas de agua), el resultado es un valle todavía más profundo. Cuando una cresta y un valle se encuentran, se cancelan mutuamente para dar agua llana.
Lo mismo ocurre con la luz, como demostró Thomas Young hace dos siglos. Young demostraba que la luz es una onda, desbaratando así la teoría de Newton, según la cual la luz está constituida por partículas. En un dispositivo como el experimento de la doble rendija descrito anteriormente, pero con luz que pasaba a través de las rendijas, la pantalla de Young presentaba una serie de bandas claras y oscuras, algo que sólo podía conseguirse si ambas rendijas actuaban como fuentes de luz secundarias, con las dos ondas luminosas que salían de ellas interfiriéndose.
Así pues, volviendo al electrón único en el experimento de la doble rendija, ¿cómo explicamos un patrón de interferencia? ¿Cómo puede haber interferencia si hay una sola partícula? La respuesta es que, aunque pensamos que el electrón ha de pasar a través de una u otra de las dos rendijas, en realidad las atraviesa ambas. Un electrón podría ser una partícula, pero también es una onda.
Esta paradoja no tiene una solución fácil, y las mentes más grandes del mundo la han debatido sin cesar desde que se inventó la teoría cuántica. Sin embargo, en la década de 1950, Hugh Everett dio con una nueva solución, radical, del problema. En aquel entonces fue muy criticada, pero hoy en día está ganando adeptos. La idea es sencilla. Cada vez que una partícula cuántica se enfrenta a una elección, se crean nuevos mundos, mundos en los que., se realiza cada opción.

Un nuevo universo en cada momento
Es fácil ver por qué la hipótesis de Everett recibió burlas: ¿quién puede tragarse la idea de que se cree un mundo cada vez que una estrella escupe un fotón, o que un fotón es absorbido por un átomo de una retina humana? Se trata de acontecimientos cuánticos, en los que una partícula cuántica es absorbida por otra. ¿Podemos creer realmente que con sólo mirar a los cielos se obliga a un nuevo universo a existir? Everett dejó la física poco después de publicar esta idea, que sin embargo ha encontrado una serie de defensores. Esto se debe en gran parte a que, por extraño que parezca, ofrece realmente una solución razonable a lo extraño que es el mundo cuántico.
En la interpretación de los muchos mundos de Everett, el electrón no forma un estado de superposición pilando se enfrenta a la elección ante dos rendijas, sino que divide el mundo en dos. En un mundo, atraviesa la rendija izquierda. En el otro mundo, pasa por la rendija de la derecha. Aunque no tenemos consciencia de los mundos diferentes, las partículas cuánticas como los electrones notan su influencia desde el otro lado de la divisoria. El patrón que vemos resulta de la interferencia entre electrones en mundos diferentes. Según esta hipótesis, lo que pensarnos que es la realidad es únicamente una de un número infinito de realidades, cada una de ellas ligeramente distinta de la siguiente. Y cada una de ellas contendrá una versión del lector.
La IMM parece tener un seguimiento que aumenta lentamente entre los físicos; una encuesta de 1995 entre físicos que asistían a una conferencia sobre teoría cuántica encontró que el 60 % creía que ésta era la interpretación correcta de la teoría. Pero tales encuestas no son científicas y no constituyen una indicación de lo «correcta» que pueda ser una cosa. Que es la razón por la que, si el lector está realmente interesado en descubrir la verdad acerca de su otro yo, tiene que considerar una proposición radical: el suicidio cuántico.
No lo intente en casa, pero el protocolo de este experimento es bastante sencillo; incluso podría hacerse empleando la tecnología que se halla normalmente a nuestra disposición. Apunte el lector a su cabeza una pistola cargada, pero manipulada de tal manera que apretar el gatillo provoque una medida de una partícula cuántica; por ejemplo, determinar el espín de un electrón. Si el resultado es «en el sentido horario», los que se hallan alrededor observando oirán un «clic». Si es «en el sentido antihorario», verán que la pistola se dispara. No será un espectáculo agradable.
Pero aquí es donde la perspectiva lo es todo. Si Everett tenía razón acerca de la existencia de muchos mundos, siempre habrá un mundo en el que la pistola no dispare. Por lo tanto, la existencia consciente del lector nunca sabrá que la pistola habrá disparado. Después de una docena de «clics», el lector estará convencido de que el suicidio cuántico es realmente un camino para apreciar no sólo la multiplicidad de su existencia, sino también su inmortalidad. Pero el lector no podrá compartir este punto de vista con nadie. Más aún, podrá, a la vez, oír misa y andar en la procesión. El lector habrá encontrado aquel otro yo, pero también podrá dejarlo atrás, saltando de mundo en mundo como Alicia en un país de las maravillas cuántico.


Capítulo 10
¿Podemos viajar a través del tiempo?
Donde la relatividad se ropa con la ciencia ficción

Los científicos saben muy bien que el tiempo es sólo una forma de espacio. Podemos movernos hacia delante y hacia atrás en el tiempo igual que nos movemos hacia delante y hacia atrás en el espacio.» Esto puede parecer una afirmación procedente del futuro, o al menos del presente, pero proviene del pasado.

La realiza el Viajero del Tiempo en La máquina del tiempo, de H. G. Wells, que se publicó en 1898. Lo que resulta realmente notable es la presciencia de Wells: pasaron casi veinte años hasta que Albert Einstein publicó la teoría que hizo que este viaje en el tiempo fuera teóricamente posible; e incluso entonces pasaron años antes de que nadie se diera cuenta de ello.

«Los científicos saben muy bien que el tiempo es sólo una forma de espacio. Podemos movernos hacia delante y hacia atrás en el tiempo igual que nos movemos hacia delante y hada atrás en el espacio.»

Resulta curioso que el Viajero del Tiempo de Wells sólo viaja hacia el futuro. Sin embargo, ahora sabemos que las leyes de la física permiten viajar hacia adelante y hacia atrás en el tiempo. Si el lector puede soportar ideas "tales como cilindros giratorios infinitamente largos, del tamaño de galaxias, de agujeros de gusano que se mantienen abiertos gracias a formas exóticas de energía negativa, y tener que elegir entre no haber nacido nunca y perder su libre albedrío, entonces podrá entender la ciencia de los viajes en el tiempo. En comparación con los viajes emocionantes, éstos son un poco agitados. Pero, dada la recompensa, valen realmente la pena.
Los viajes en el tiempo resultan tan fascinantes porque estamos atrapados por el tiempo. No podemos elegir cómo nos movemos a su través, tal como hacemos con las otras dimensiones. Pero la idea de Wells de que sólo con que supiéramos cómo, podríamos tratar el tiempo como si fuera el espacio, dio en el clavo.
En 1915, Einstein publicó su teoría general de la relatividad. Esta describía el universo como un tejido tetradimensional constituido por las tres dimensiones del espacio y una del tiempo. Todos los fragmentos de materna y energía en el universo deforman la urdimbre, cambiando la forma del universo de una manera que hace que materia y energía experimenten la atracción que denominamos gravedad. El Sol, por ejemplo, crea una especie de pozo en la urdimbre, en cuyo interior caerían los planetas cercanos, si no fuera por su momento. El resultado es que los planetas orbitan alrededor del Sol de la misma manera que, en un casino, una bola rápida órbita alrededor del centro de una rueda de ruleta giratoria.
Es fácil imaginar de qué manera el paisaje ondulante de la gravedad afecta al movimiento a través del espacio. Pero lo mismo ocurre con el movimiento a través del tiempo éste también se ondula.
Acumúlese suficiente masa y energía en una región lo bastante pequeña del espacio e incluso se puede combar el tiempo en un bucle; es algo así como enrollar una lámina de goma de modo que sus extremos se toquen: se puede andar por la superficie sin alcanzar nunca un punto final. En esta configuración del universo, un momento se repite continuamente.
La primera persona que advirtió que la relatividad general permite la creación de bucles en el tiempo fue el matemático austríaco Kurt Gödel. En 1949, en un artículo de revisión que describía de qué manera la invención de la relatividad había cambiado nuestra percepción del universo, escribió que «es posible en estos mundos viajar hacia cualquier región del pasado, del presente y del futuro, y de vuelta exactamente como «es posible en otros mundos viajar a partes distantes del espacio».

«Es posible en estos mundos viajar hacia cualquier región del pasado, del presente y del futuro, y de vuelta, exactamente como es posible en otros mundos viajar a partes distantes del espacio.»

Gödel había resuelto las ecuaciones de Einstein y encontró que, si el universo gira, el tiempo puede fluir en bucles. Se alarmó por ello, y al ser un amigo íntimo y colega de Einstein, Gödel le mostró el resultado. Einstein dijo también hallarse «turbado» por la posibilidad. «Será interesante sopesar si acaso no habrá que excluirlas por razones físicas», escribió en una réplica al artículo de Gödel. Parece que éste era de la misma opinión: algo, sugirió, tiene que impedir que tales cosas ocurran. A buen seguro, no puede permitirse que el universo tenga personas que viajen a través del tiempo.

Retorno al pasado
En algunos aspectos, Einstein no tenía que haberse preocupado. El trabajo de Gödel era sólido, pero inútil. Los movimientos de las galaxias nos dicen que nuestro universo no está girando, de modo que, de manera natural, no existirán bucles en el tiempo. Si hemos de construir una máquina del tiempo que sea útil, tendremos que crear estos bucles nosotros mismos.
Pero ya tenemos algunas ideas acerca de cómo conseguirlo. La primera llegó en 1976, cuando Frank Tipler, de la Universidad de Tulane, en Nueva Orleans, Lousiana, esbozó los planos de una máquina del tiempo. Tipler demostró que un cilindro infinitamente largo y muy pesado, que girara muy deprisa, combaría de manera suficiente la urdimbre del universo como para crear un bucle en el tiempo.
Pero, otra vez, esta idea tiene poco futuro como máquina del tiempo. No es exactamente el tipo de cosa que imaginó Wells: su Viajero del Tiempo construye una máquina del tiempo que cabe dentro de su casa. Es muy poco probable que cilindros infinitamente largos quepan en ninguna fábrica, por grande que ésta sea. Hay otra opción: utilizar máquinas del tiempo que la naturaleza ya ha construido. En 1991, J. Richard Gott, astrofísico de Princeton, demostró que el universo podía contener material que podría actuar como la materia prima para una máquina del tiempo. El material es un filamento superdenso de «cuerda cósmica».
Según algunas teorías sobre la formación del universo, las cuerdas cósmicas se habrían formado en los momentos más tempranos de la creación, y en la actualidad podrían estar todavía colgando por el universo. Son, en esencia, defectos en el espacio, algo así como el tejido cicatrizante que se formó cuando el universo estaba atravesando un período de cambio rápido. Una cuerda cósmica es una bestia terrible: aunque su diámetro es inferior a la sección de un núcleo atómico, se extiende a lo largo del universo. No resulta sorprendente que transformar una en una máquina del tiempo no sea tarea para pusilánimes. Para empezar, se necesitan dos de ellas.
La densidad extrema de cada una de las cuerdas pandea el espacio-tiempo de una manera que significa que podemos crear un bucle en el tiempo al colocarlas una junto a la otra, y después separarlas rápidamente. Si se viaja en un bucle alrededor de estas cuerdas cósmicas en movimiento, cada vez que volvamos a donde empezamos, nos encontraremos en un acontecimiento de nuestro pasado. Gott lo compara a un dibujo de Escher. De la misma manera que Escher pandeó la perspectiva para crear efectos geométricamente imposibles, las cuerdas pandean tanto la geometría del espacio-tiempo a su alrededor, que ésta ya no sigue las reglas que nos son familiares.
El mismo efecto, ha señalado Gott, se conseguiría disparando una contra otra partículas superenergéticas, de modo que fallaran sólo por una distancia minúscula. Su energía combaría el espacio-tiempo alrededor de cada partícula, y cuando estos espacio-tiempos alterados entraran en contacto, podrían formar un bucle en el tiempo. Sin embargo, no es un bucle en el que pudiéramos entrar y andar por él. Mucho más interesante (y factible) es la máquina del tiempo de agujero de gusano que ha diseñado el astrofísico estadounidense Kip Thorne.

Dentro del agujero de gusano
Es seguro que el lector ha oído hablar de agujeros de gusano porque son un tema recurrente en ciencia ficción. Pero ello es completamente justificable: aunque ha ocupado innumerables horas de tiempo de investigación, este método de viajar en el tiempo se inspiró realmente en un relato de ciencia ficción. Cuando el cosmólogo Carl Sagan escribió su novela Contacto, deseaba encontrar una manera plausible para enviar a su heroína a Vega, una estrella situada a una distancia de 26 años luz, en un instante. Sagan le pidió a Thorne su opinión, y Thorne se dispuso a encontrar una solución. La encontró en un artículo que Einstein había escrito con Nathan Rosen en 1935.
Habían resuelto un problema asociado con los agujeros negros, los restos de estrellas que se han contraído bajo su propia gravedad. En el núcleo de un agujero negro existe una «singularidad», una rotura en el espacio y el tiempo. Einstein y Rosen habían imaginado que este núcleo central se conectaba con otra región del espacio-tiempo. Este es el puente de Einstein-Rosen. Thorne se dio cuenta de inmediato de que ésta podía ser la respuesta que Sagan necesitaba.
Piénsese en un ingeniero de caminos que intenta hacer pasar una línea férrea al otro lado de una colina. Se podría hacer subir las vías del tren por una ladera de la colina y hacerlas descender por la otra. También se podría desviar la vía férrea alrededor de la colina. Pero si hay un túnel que atraviesa la colina, ésta sería una ruta más corta y más directa. Debido a que el tiempo y el espacio están tan estrechamente relacionados en la relatividad, (los físicos los ponen juntos y hablan acerca de la urdimbre del universo como «del espacio- tiempo»), podemos hacer para el tiempo lo que los ingenieros de caminos ya hacen para el espacio: podemos planear un atajo. Los análisis posteriores de la geometría de dichos atajos a través del espacio-tiempo han demostrado que funcionarían para el viaje a través del tiempo.

Atajo a través del tiempo
Para especificar un punto en el espacio-tiempo, se da una posición y un tiempo: por ejemplo, la catedral de Saint Paul al mediodía de hoy. Si ésta es una boca del agujero de gusano, la otra podría ser la catedral de Saint Paul al mediodía de ayer. Si se entra en la boca hoy, saldremos en el mismo punto del espacio, pero 24 horas antes. Puede que nos tome algún tiempo finito desplazarnos desde la entrada del agujero de gusano a la salida del mismo, pero esto no tiene por qué ser un problema. En teoría, podríamos entrar de un salto en una boca, salir en el pasado y esperar hasta vernos saltar dentro del agujero de gusano.
No es tan fácil como esto, desde luego: hay varios obstáculos que superar. Uno es, ¿dónde encontramos un agujero de gusano? Aunque existen como soluciones a las ecuaciones de Einstein, no hay ninguna prueba de que existan realmente. Hay una posibilidad remota de que podamos crear uno al hacer colisionar partículas subatómicas que se desplazan rápidamente. Varias ideas teóricas indican que su energía muy concentrada podría combar lo bastante la urdimbre del espacio-tiempo para abrir un agujero en ella. Pero incluso entonces no tendríamos el control.
El espacio tiempo es como las gomas elásticas: no les gusta que las distiendan. La manera en que el espacio-tiempo se rasga para crear un agujero de gusano crea un desequilibrio energético que tiende a cerrar la boca del agujero de gusano.
La única manera de mantener abierta la boca de un agujero de gusano, creen los físicos, es llenarla de «energía negativa» que empuje en contra del cierre natural.

15.jpg
El atajo a través de un agujero de gusano

Aunque es posible que exista un material que lleve energía negativa, no tenemos ni idea de qué podría ser ni dónde deberíamos buscar para conseguir algo del mismo. Suponiendo que pudiéramos mantener abierto el agujero de gusano, ¿quién puede decir que el agujero nos conduciría a otra región del espacio-tiempo? Y, si lo hiciera, ¿sería ésta adonde querríamos ir?
La mejor solución para este problema (dada la existencia de un agujero de gusano y capacidades tecnológicas fantásticas con la energía negativa) parece que implica anclar un extremo de un agujero de gusano a una estrella de neutrones. Una estrella de neutrones es un objeto asombrosamente denso. Aunque sólo tiene unos 20 kilómetros de diámetro, una estrella de neutrones pesa más que el Sol. En el campo gravitatorio de la Tierra, una cucharadita de material de una estrella de neutrones pesaría mil millones de toneladas.
Esta concentración de masa tiene un efecto profundo sobre el espacio-tiempo que rodea una estrella de neutrones: lo pandea muchísimo. Uno de los resultados es que el tiempo se hace más lento en la cercanía de una estrella de neutrones. Cerca de una estrella de neutrones, el tiempo corre aproximadamente al 30 % de la velocidad con la que corre en la Tierra. Así, pues, fíjese un extremo de un agujero de gusano a una estrella de neutrones y déjese que el otro extremo se halle en el espacio vacío, y entre las dos bocas del agujero de gusano se desarrollará un cambio temporal. En teoría, ello significa que podríamos entrar en el agujero de gusano en un momento posterior al de haber salido por el otro extremo.

Proteger el flujo del tiempo
Muy bien, pero nada de todo esto es fácil. ¿Por qué no? No lo es porque crear una máquina del tiempo viole alguna ley fundamental de la física. Una mejor sugerencia es que operamos mediante reglas que «conspiran» contra el viaje en el tiempo. Quizá, tal como sugirieron Gödel y Einstein, las implicaciones perturbadoras de alguien que viaje hacia su pasado son una manera de alertarnos frente al hecho de que algo en el universo lo hace imposible.
Tal como sabe cualquier guionista de Hollywood, viajar en el tiempo hacia el pasado plantea ciertamente algunos dilemas extraños v maravillosos. El clásico es el que se conoce como «paradoja del abuelo». ¿Qué ocurriría si viajáramos hacia atrás en el tiempo y matáramos a nuestro abuelo cuando era un muchacho? Ello significaría que uno de nuestros padres no nacería nunca; ¿negaría esto nuestra propia existencia? ¿Seríamos borrados de la realidad?
Existen tres posibles soluciones a ello. La primera, y la más plausible para los físicos que piensan mucho en los viajes en el tiempo, es conocida como la «conjetura de la protección de la cronología». La concibió Stephen Hawking en 1992 y sugiere que un aspecto del mundo natural todavía desconocido aparecerá si el flujo de causa y efecto se ve amenazado. Básicamente, las leyes de la física conspiran para proteger el pasado. Es una idea bonita.
Sea donde sea que los físicos miren, parece haber ciertamente factores no previstos que frustran cualquier intento de construir una máquina del tiempo. Ahí está la necesidad de energía negativa para los agujeros de gusano. La máquina de cuerdas cósmicas de Gott parece sufrir el revés de que el universo conspira contra nosotros en nuestro intento de reunir masa suficiente en un lugar lo bastante pequeño. Existen incluso indicios de que versiones cuánticas de máquinas del tiempo, que se han propuesto para incorporar una física que todavía no se comprende adecuadamente pero que un día tendrá que tenerse en cuenta en las consideraciones del viaje en el tiempo, tienen sus propios obstáculos insalvables.
Y, sin embargo, la conjetura de la protección de la cronología de Hawking sigue siendo sólo una idea, una manera de dejar de lado cuestiones embarazosas acerca de la paradoja del abuelo sin obligar a los físicos a abandonar el pensamiento del viaje en el tiempo. La segunda posibilidad para proteger a nuestro abuelo procede del mundo cuántico, en el que los problemas extraños siempre pueden encontrar soluciones igualmente extrañas. En este caso, la idea es muy sencilla: todo lo que sucede crea un nuevo universo que no tiene conexión con ningún otro universo.
Esta idea, con la que soñó Hugh Everett en la década de 1950, se conoce como la «hipótesis de los muchos mundos» (véase ¿Soy único?) y se usa para resolver un problema que se ha planteado desde hace mucho tiempo en teoría cuántica.
Su aplicación a las paradojas del viaje en el tiempo es igualmente simple (e igualmente exasperante). Si viajamos hacia atrás en el tiempo y matamos al muchacho que pensamos que es nuestro abuelo, entramos en un mundo paralelo, distinto, uno en el que nuestra única existencia es la del viajero del tiempo, una existencia totalmente separada de la del nieto. No hay un «otro yo» cuya existencia pueda ponerse en cuestión. Paradoja resuelta.
Pero, de nuevo, no de una manera particularmente satisfactoria. La tercera idea es simplemente que no tenemos el control que creemos tener sobre el mundo exterior. Esta aproximación a la paradoja dice que no tenemos libre albedrío y no podríamos matar a nuestro abuelo aunque quisiéramos. Es ésta un área complicada, que plantea cuestiones filosóficas que los físicos no están equipados para contestar. Si éstos quieren saber realmente de qué manera termina la paradoja del abuelo, tienen que arreglárselas y construir una máquina del tiempo.

Hacia el futuro
Todo esto parece que conduce a la conclusión de que no podemos viajar a través del tiempo. Pero nada podría estar más lejos de la realidad. Sabemos que los viajes en el tiempo son posibles porque ya los hemos hecho.
Los astronautas del Apollo que volaron en cohete a la Luna y de vuelta se convirtieron, en efecto, en los primeros viajeros del tiempo del mundo. El mayor viajero del tiempo del mundo es el cosmonauta ruso Sergei Krikalev, quien orbitó la Tierra durante unos 800 días a unos 27.000 kilómetros por hora. Krikalev se halla ahora una tetragésima octava parte de un segundo en el futuro.
No hace falta ser un cosmonauta para viajar a través del tiempo. Experimentos realizados con relojes atómicos muy sensibles que se han hecho volar alrededor de la Tierra han demostrado que se movieron hacia el futuro. Una vuelta al mundo en un avión puede hacerle ganar al lector del orden de algunas mil millonésimas de segundo. ¿Por qué? La respuesta se encuentra en la primera teoría de la relatividad de Einstein, la relatividad especial.
La relatividad especial (véase ¿Qué es el tiempo?), que se publicó en 1905, dice que el paso del tiempo para cualquier persona u objeto es relativo y depende del movimiento. Si salimos disparados en un cohete que se dirige a Alfa de Centauro, pongamos por caso, nuestro reloj se moverá más despacio que los relojes que se han quedado en la Tierra. Si nuestro cohete se desplaza a una velocidad cercana a la de la luz, esta diferencia en el tiempo medido podría ser profunda. En un viaje de retorno largo pero rápido, es posible que llegáramos a la Tierra sólo unos pocos años más viejos, pero que encontráramos que todos los que se quedaron en casa envejecieron mucho más.
En esta situación hipotética, si tuviéramos un hermano gemelo, éste ya no tendría nuestra misma edad. Esta extraña paradoja, conocida como la paradoja de los gemelos, la permiten totalmente las leyes de la física. Lo que es verdaderamente notable es que esta diferencia en el paso del tiempo significa que el mellizo viajero viajó hacia el futuro de la Tierra. Cuando volvamos de nuestros viajes en el espacio, encontraremos que también hemos viajado en el tiempo: en la Tierra habrá pasado más tiempo del que transcurrió para nosotros. Por ello podemos llegar a la conclusión de que realmente podemos viajar a través del tiempo... y algunos humanos ya lo han hecho. Sin embargo, este viaje hacia el futuro es relativamente fácil. Es el viaje hacia el pasado lo que está resultando difícil. ¿Conseguiremos superar dichas dificultades? Sólo el tiempo lo dirá.


Capítulo 11
¿Está fallando el campo magnético de la tierra?
Polos que derivan, el núcleo agitado del planeta y la amenaza para la vida en la Tierra

¿Podemos evitar el destino que le aconteció a Marte? El campo magnético del planeta rojo falló, y su atmósfera se la llevó el Sol, lo que convirtió al planeta en un desierto yermo y estéril. ¿Está la Tierra tomando la misma dirección?

El campo magnético de la Tierra, que los científicos conocen como magnetosfera, ha sido una parte integral de la biosfera desde que empezó la vida en el planeta. Se sabe que bacterias, plantas y animales son afectados por su orientación. Muchas especies de aves se perderían, literalmente, sin él: es la piedra angular de las estrategias de migración que les permiten huir de los crudos inviernos del norte, por ejemplo.
Los humanos no podemos sentir de manera consciente el magnetismo de la misma manera que muchos animales, pero aun así obtenemos beneficios enormes del campo magnético terrestre. No sólo parece que mantiene en su lugar a la atmósfera, sino que también nos protege de la intensa radiación solar y de las tormentas eléctricas que, de no existir, harían estragos en nuestras redes eléctricas, en los satélites y sistemas de comunicación de los aviones. Si el escudo magnético de la Tierra está fallando, necesitamos saberlo cuanto antes.

Polos que derivan
Quizá no sepamos nunca qué civilización humana fue la primera en hacer uso explícito del campo magnético de la Tierra. Hasta hace relativamente poco se pensaba que fueron los chinos, que utilizaban minerales magnéticos llamados «pez que señala al sur» para alinear sus edificios de acuerdo con los principios del feng shui. Sin embargo las pruebas fiables de esta práctica se remontan a no más del 400 a.C., lo que significa que el artefacto magnético más antiguo es muy probablemente un fragmento del mineral magnetita encontrado en Veracruz, México, patria de los olmecas.
Se cree que los olmecas fueron la primera civilización del Nuevo Mundo, y que existieron entre 1400 y 1000 a.C. El fragmento de magnetita, que se exhumó a principios de la década de 1970, se había labrado en forma de barra que ofrecía poca fricción cuando se colocaba sobre el suelo, y estaba marcada con un surco en medio de uno de los extremos. A todos los efectos, parece la aguja de una brújula.
Cuando el físico John Carlson informó del descubrimiento de la magnetita olmeca, señaló que los olmecas construían sus edificios en orientaciones de 8 grados al oeste del norte. Esto, decía, era «una curiosidad». Pero si se considera junto con otros indicios reunidos a lo largo de varios siglos, es más que una curiosidad: es la prueba de que el campo magnético de la Tierra está lejos de ser constante. Y ésta es la razón por la que creemos que ahora está fallando.

Una brújula que no señala al Norte
Las mediciones modernas del campo magnético de la Tierra empezaron hace sólo dos siglos, pero tenemos pruebas más antiguas de campos cambiantes. Si se examina la orientación de cerca de un centenar de iglesias danesas construidas durante el siglo XII, por ejemplo, se verá que se hallan situadas con una desviación de unos 10 grados con respecto a la línea este-oeste actual. Tal como ocurre con los edificios olmecas, es muy probable que cuando se construyeron estas iglesias las brújulas señalaran en una dirección distinta de la actual.
Una descripción más fiable del campo magnético de la Tierra empezó a comienzos del siglo XIX, cuando Alexander von Humboldt realizó medidas de campo mientras viajaba en el Atlántico Sur. Encontró que la intensidad del campo se reducía en esta región. En 1804, Von Humboldt informó de sus resultados al Instituto de París, pero pronto llegaron informaciones en sentido contrario, lo que sumió todo el asunto en la confusión. Al final, Von Humboldt llevó el tema al matemático alemán Cari Friedrich Gauss y le pidió ayuda para elaborar un atlas de observaciones magnéticas. Gauss, un erudito que había hecho descubrimientos importantes en campos científicos distintos, ya estaba investigando el magnetismo terrestre y se mostró muy bien dispuesto a colaborar. En 1840 ya había escrito tres artículos importantes sobre magnetismo (entre ellos una manera para definir el campo de la Tierra) y había construido un observatorio magnético móvil que excluía todos los campos excepto el terrestre.
El atlas geomagnético de Gauss se publicó en 1836. Desde los primeros esfuerzos de Gauss han continuado las mediciones del campo magnético de la Tierra, y ahora disponemos de un registro de 150 años. Uno de los descubrimientos clave es que el Polo Norte magnético se desplaza. Primero fue determinado exactamente por exploradores en 1831, y después de nuevo en 1904. Durante dicho intervalo se había desplazado 50 kilómetros. Durante el siglo XX, el polo se ha movido hacia el norte a unos 10 kilómetros por año, aunque parece que dicho movimiento se acelera. En la actualidad se desplaza a unos 40 kilómetros por año.
No es éste el único cambio: los registros indican que a latitudes medias las agujas de las brújulas derivan del orden de un grado por década. Existe asimismo una indicación en el Atlántico Sur: mediciones realizadas desde satélites nos indican que bajo el océano Atlántico, al oeste de Sudáfrica, las líneas del campo parecen converger, formando un polo magnético.
Esta «anomalía del Atlántico Sur» exhibe sus propias líneas de campo magnético invertidas, que ahora cubren gran parte de Sudamérica, y confunden nuestra visión general del campo de la Tierra. Después está la cuestión del debilitamiento general del campo. Tomado en su conjunto, el campo magnético de la Tierra ha perdido el 10 % de su intensidad desde que empezaron las mediciones de Gauss. Para comprender qué es lo que esto significa para el futuro, los científicos han intentado descubrir las raíces del campo.

Esferas que se agitan
El hecho de que la Tierra posea un Polo Norte y un Polo Sur podría inducirnos a creer que su campo surge de algo parecido a una barra imantada enterrada profundamente en la Tierra. Lamentablemente, las cosas no son ni mucho menos tan sencillas. El campo magnético de la Tierra surge de una esfera de hierro y níquel fundidos, que se agita a gran profundidad, en el núcleo del planeta.

Magnetismo animal
No cabe ninguna duda de que algunos animales pueden sentir los campos magnéticos. Muchas de las migraciones más extraordinarias del reino animal implican navegación según el campo magnético de la Tierra. El viaje de 13.000 kilómetros de la tortuga boba, el gran viaje americano de la mariposa monarca y el recorrido de un extremo a otro del continente del águila pescadora, todos implican sensibilidad frente al campo magnético. Todavía no está del todo claro cómo lo hacen, pero estamos reuniendo pistas. Los tejidos de muchas especies de animales (ranas, abejas, el atún de aleta amarilla o rabil y las bacterias, por ejemplo) contienen el mineral magnetita, que se alinea en relación a un campo magnético externo.
Las aves migradoras como el charlatán o tordo arrocero, poseen magnetita en células de su cerebro. Pero también se ha demostrado que las aves tienen una «visión magnética». Las neuronas visuales de la curruca mosquitera contienen proteínas llamadas criptocromos, que parecen ser sensibles a campos magnéticos débiles. Cuando se exponen a campos de diferente orientación, las proteínas producen combinaciones diferentes de sustancias químicas. La luz «azul» del atardecer parece ser particularmente buena a la hora de estimular a las proteínas para que produzcan dichas sustancias; ésta corresponde al momento del día en el que las aves se orientan.
No son sólo los animales migratorios los que sienten los campos magnéticos; se cree que las vacas también son sensibles al magnetismo. Imágenes de satélite de rebaños de vacas lecheras y de carne que están pastando, tomadas sobre seis continentes diferentes, parecen demostrar que se sitúan orientadas a unos 5 grados de la línea norte-sur. Los datos tienen interrogantes; podrían tener que ver con los vientos dominantes, por ejemplo. No obstante, se trata de una observación intrigante, y los datos parecen corresponder a los diversos cambios entre el norte geográfico y el magnético. En Oregón, donde el campo es intenso, las vacas se orientan a 17,5 grados del norte geográfico, hacia el norte magnético. Se ha observado que los rebaños de ciervos hacen lo mismo. Así pues, si tantos animales poseen este sentido, ¿qué ocurre con los humanos?
No hay pruebas de que tengamos un sentido consciente de los campos magnéticos, pero hay estudios que relacionan cuestiones de salud humana con los campos magnéticos. Investigaciones en Rusia, Australia y Sudáfrica han encontrado conexiones entre períodos de actividad geomagnética y tasas crecientes de suicidio y depresión. La causa básica sigue siendo un misterio, pero los investigadores han sugerido que las variaciones geomagnéticas podrían afectar a la producción de melatonina y los ritmos circadiarios; ambos procesos se han relacionado con trastornos del humor.

Dicha esfera, el núcleo interno de la Tierra, es una bola sólida de hierro de 1.250 kilómetros de diámetro. Está rabiosamente caliente, a miles de grados, y sólo la presión que soporta debido al peso del resto del planeta impide que se funda.
Rodeando el núcleo interno se halla el metal fundido que crea el campo magnético. Calor procedente del núcleo interno recorre este líquido, creando corrientes de convección que desplazan hacia arriba metal líquido caliente, hacia el manto, la capa que se encuentra bajo la corteza. Este líquido caliente se enfría a medida que asciende, de manera que vuelve a caer. El movimiento de este conductor metálico crea electricidad, que siempre está acompañada de un campo magnético. La combinación crea una «geodínamo» que se automantiene y mantiene el campo de la Tierra.
Esta geodínamo crea un campo magnético complejísimo. Puesto que la Tierra gira sobre su eje, las líneas de campo se retuercen, creando así nuevas corrientes en el seno del núcleo exterior frío. Ello crea nuevas líneas de campo magnético, y a veces dentro del núcleo puede crecer un nuevo campo magnético. Típicamente, éste se suma al campo general, pero si su orientación cambia con relación al campo dominante, a veces puede restarse de la magnetización total de la Tierra.
Esto puede ser lo que ocurre con la anomalía del Atlántico Sur, y puede ser lo que causa el debilitamiento aparente del campo terrestre.

16.jpg
De dónde procede el campo magnético de la tierra

Sin embargo, los investigadores no pueden estar seguros, porque las dinámicas del campo creado por una geodínamo tan enorme son demasiado complejas para entregar sus secretos a los modelos matemáticos. Los frustrados investigadores de la geodínamo complementan sus modelos matemáticos creando sus propias geodínamos en el mundo real. Típicamente, ello implica un equipo muy peligroso. Si se quiere tener en el laboratorio metal fundido que gire, no se puede utilizar un metal que funda a miles de grados. El mejor candidato es algo como el sodio, que funde a temperaturas de poco menos de 100 grados Celsius.
Dicho esto, el sodio tiene sus propios peligros. Puede incendiarse en una violenta explosión en contacto con el agua o el aire, por ejemplo. No obstante, hay investigadores que han conseguido hacer girar bolas de sodio fundido para simular lo que ocurre bajo nuestros pies. Los resultados han sido impresionantes: se forman ciertamente campos magnéticos que se automantienen, y muestran el tipo de comportamiento complejo que se ve en la geodínamo de la Tierra.
Incluso exhiben «inversiones» ocasionales, cuando los Polos Norte y Sur intercambian sus lugares. Durante este proceso, el campo magnético decae y se vuelve mucho más complejo; después vuelve a aumentar, pero con una polaridad invertida.
Durante un período de tiempo, durante una inversión no existe un campo claramente definido. Así pues, ¿podría ello ocurrir con el campo magnético de la Tierra, con resultados potencialmente desastrosos? Lamentablemente, incluso estas simulaciones han resultado no ser lo bastante precisas para que podamos hacer previsiones para el campo de la Tierra. A lo que parece, lo mejor que podemos hacer es buscar en los indicios petrificados en la corteza rocosa del planeta, e intentar extrapolar nuestros hallazgos.

Escrito en las rocas
En la roca fundida que mana de volcanes y de las grietas entre placas tectónicas en las cordilleras centrooceánicas, los cristales magnéticos (por ejemplo, minúsculos granos de magnetita) pueden moverse libremente y se orientarán en la dirección del campo magnético de la Tierra. Cuando dicha roca se enfría, esa orientación queda petrificada, creando así una roca cuyo campo magnético señala la dirección del norte magnético de su era. Mediante la datación de rocas y la comprobación de su orientación magnética, los investigadores han podido establecer una imagen de la manera en que la dirección del «norte» ha cambiado a lo largo de milenios. Así es como obtuvimos el primer indicio de un fallo del campo. En 1904, estudios geomagnéticos de las montañas del Macizo Central en el sur de Francia revelaron que la orientación de los cristales magnéticos de las rocas estaba cambiada, de manera significativa, de la que correspondería a la actualidad. En la década de 1920 se hicieron observaciones similares por todo el mundo, y nació el campo del paleomagnetismo.
Ahora tenemos pruebas de que, durante los últimos 20 millones de años, el campo de la Tierra se ha desplomado y se ha invertido más de 60 veces. Dichas inversiones han tenido lugar cada medio millón de años, aproximadamente, y pueden tardar varios miles de años en completarse. Sin embargo, no es en absoluto un fenómeno preciso. A veces, como ocurrió durante la era de los dinosaurios, no tuvo lugar ninguna inversión durante decenas de millones de años. En la actualidad, no hemos visto una inversión desde hace 780.000 años. ¿Significa ello que ya toca una? ¿Es ésta la razón por la que el campo magnético de la Tierra se está debilitando en la actualidad a lo que parece un ritmo alarmante por lo rápido?
Sabemos, gracias a los cuadernos de bitácora que se escribieron durante los viajes del capitán Cook en los mares del Sur, que el fallo actual empezó hace relativamente poco tiempo. Tenemos cuadernos de bitácora que se remontan a 1590 y que registran, entre muchas otras cosas, la dirección del campo magnético de la Tierra y el ángulo con el que las líneas del campo penetran en la Tierra. Era un truco útil para la navegación; en muchos aspectos, la vida de los marineros dependía de él. Hemos registrado una reducción en la intensidad del campo desde que Gauss empezó a medirlo en 1840, pero los cuadernos de bitácora no muestran ningún cambio entre el valor de 1590 y la intensidad de campo de Gauss.
Desde luego, puede ocurrir que no tengamos datos suficientes para extraer ninguna conclusión firme; por ejemplo, la «anomalía del Atlántico Sur» podría estar descarriándonos. Así pues, estas extrañas medidas y descubrimientos, ¿tendrían que preocuparnos? Dado el papel crucial que el campo magnético de la Tierra ha desempeñado (y continúa desempeñando) en el desarrollo de la vida en la Tierra, la respuesta ha de ser que sí.

El gran protector
El planeta azul verdoso al que llamamos hogar se halla aproximadamente a 150 millones de kilómetros del Sol. Nos encontramos en la «zona Ricitos de Oro», en la que la vida puede prosperar en determinadas regiones porque el clima no es demasiado cálido ni demasiado frío. Pero el Sol produce más que calor. La superficie del Sol es una masa turbulenta de plasma, un gas compuesto por partículas cargadas de energía elevada. El Sol está perdiendo constantemente dichas partículas, que viajan por el espacio como «viento solar». Nuestro campo magnético dirige la mayoría de dichas partículas alrededor de la Tierra. Resulta fundamental que sólo una pequeña proporción de las partículas alcanza la superficie de la Tierra.

Cuando el sol ataca
Nuestro campo magnético adquiere realmente la fama que merece cuando el Sol crea lo que se conoce como «tormenta solar». Ello suele coincidir con la aparición de manchas solares, que son Indicadoras de campos magnéticos enormemente Intensos bajo la superficie del Sol. El movimiento caótico de las partículas hace que estos campos magnéticos se retuerzan, se doblen y giren, y creen ocasionalmente un latigazo que expulsa una enorme bola de plasma. SI ésta se lanza hacia la Tierra, su intenso magnetismo interactúa con nuestro campo magnético, la magnetosfera.
En función de la orientación relativa de los dos campos, pueden ocurrir dos cosas. Si los campos tienen la misma orientación, uno se desliza alrededor del otro. En el peor de los supuestos, cuando el campo de un plasma particularmente energético se opone al campo de la Tierra, las cosas se ponen mucho más dramáticas: el campo magnético de la bola de plasma abre un agujero en el campo de la Tierra, a través del cual se precipitan las partículas. El resultado puede ser devastador, dañando a los satélites y causando estragos en las redes de energía terrestres. En marzo de 1989, por ejemplo, una tormenta solar de este tipo apagó las luces de un enorme trecho de la provincia canadiense del Quebec, lo que dejó a 6 millones de personas sin electricidad durante nueve horas.

Cuando partículas del viento solar chocan contra la atmósfera a latitudes elevadas, algunas crean una cascada de partículas cargadas de energía. Dicha energía se libera en forma del resplandor fluorescente y rielante de la aurora boreal, las Luces del Norte. Pero algunas partículas llegan a la superficie de la Tierra como radiación. En cierto modo, esta radiación procedente del viento solar ha sido una fuerza positiva. Por ejemplo, puede ser responsable de dirigir parte de la evolución de la vida en la Tierra. Esa radiación puede dañar el ADN, lo que provoca mutaciones en la genética de la vida terrestre y facilita el proceso de la evolución.
Sin embargo, la radiación es también un peligro. Si es demasiado intensa, las mutaciones en el ADN pueden provocar esterilidad, cáncer e incluso, posiblemente, la extinción de algunas especies. El que dicha radiación no haya eliminado la vida sobre la Tierra se debe en gran parte al hecho de que nuestro campo magnético desvía la mayor parte del viento solar. Así pues, ¿qué pasaría si el campo magnético terrestre fallara?

17.jpg
El escudo magnético de la Tierra

Si el campo terrestre fallara
Sabemos que nuestro campo magnético apareció hace al menos 3.200 millones de años. La implicación parece evidente: la vida ha evolucionado en un campo magnético, y puede necesitarlo. Tanto la Luna como Marte tenían campos magnéticos hace unos 4.000 millones de años, pero ninguno de estos cuerpos celestes lo posee en la actualidad (ni tampoco albergan vida, hasta donde sabemos).
La mejor hipótesis de los físicos acerca de la razón para ello es que su pequeño tamaño implica que se enfriaron rápidamente, perdiendo el calor necesario para mantener un núcleo líquido y en movimiento. El mayor tamaño de la Tierra mantiene el calor en su núcleo, mientras que sus placas tectónicas enfrían el manto en relación al núcleo. Esta diferencia de temperatura mantiene fuertes las corrientes de convección, que agitan la roca fundida rica en hierro y mantiene nuestro campo.
Y aquí hay otra conexión con la vida: el campo magnético de la Tierra mantiene nuestra atmósfera. La desviación del viento solar por parte del campo magnético supone que la atmósfera no sea golpeada por las partículas del viento solar. Los mapas de la poca ionosfera que le queda a Marte muestran que es más gruesa allí donde las rocas marcianas han conservado su magnetismo. Parece que, si se pierde el campo magnético, la atmósfera se va con él. De modo que la magnetosfera de la Tierra no sólo nos protege de la radiación. También permite que nuestra atmósfera se forme y se desarrolle, lo que nos proporciona oxígeno para que respiremos. ¿Acaso vamos a perder el aire mismo que respiramos?
La respuesta es, casi con absoluta seguridad, no. Es casi totalmente seguro que la inversión se está produciendo, pero todos nuestros experimentos y observaciones parecen indicar que cualquier inversión magnética tomará unos cuantos miles de años, cuando menos. Durante este proceso, el campo magnético de la Tierra se hará más débil y muchísimo más complejo, pero seguirá siendo lo bastante fuerte para mantener nuestra atmósfera. Seguramente, tampoco será un desastre en otros aspectos.
Los humanos que vivan en la Tierra en aquella época correrán el riesgo, con gran probabilidad, de recibir mucha más radiación solar. Pero nadie sabe todavía si ello resultará realmente un problema. Es posible que pueda haber extinciones en masa debido a daños en el ADN, pero hay tantos factores distintos en juego a lo largo de estos tipos de escalas temporales que todo es posible. La última inversión no eliminó a nuestros antepasados, y para entonces quizá hayamos desarrollado la tecnología para crear nuestro propio escudo artificial contra la radiación. Quizá el escudo natural de la Tierra esté fallando, pero esta vez estamos preparados y dispuestos y somos capaces de enfrentarnos a las consecuencias.


Capítulo 12
¿Por qué E= mc2?
La ecuación que socalza el universo

Vamos, piense el lector en una ecuación. Después de todos estos v años de educación, ya sea que el lector los disfrutase o los padeciese, podría pensar que sería fácil acordarse de una ecuación que aprendió en la escuela. Pero no es así. En cambio, ésta, que probablemente aprendió por accidente, es la que irrumpe de sopetón en su cabeza.

Es la ecuación más famosa del mundo. Apareció en la portada de la revista Time en 1946, y desde entonces se ha convertido en parte de nuestra cultura, ha inspirado a artistas y músicos, escritores y cineastas. Se encuentra por todo el globo: el lector la encontrará en el logo de una compañía japonesa de infografía, una compañía de relaciones públicas en la Inglaterra rural y una peluquería de Toronto. ¿Por qué? Porque dicha ecuación resume la manera en que el mundo moderno tornó forma.
Aunque la ecuación, que Einstein escribió en 1905, tenía cuarenta años de edad antes de que el mundo supiera qué podía hacer, nos estremecimos cuando lo descubrimos.
En la portada de Time está escrita sobre una nube en forma de seta que se levanta ominosa sobre un atolón del Pacífico en llamas. E = mc2 es la ecuación que hay detrás de la bomba atómica. Terminó la segunda guerra mundial e inauguró la era de la potencia nuclear y de la amenaza nuclear. Con ella llegó la Guerra Fría y, por vez primera, el espectro de la destrucción total para la raza humana, incluso ahora, con la Guerra Fría ya terminada, la posibilidad de que la persona equivocada pueda aprender a convertir una diminuta masa en una enorme cantidad de energía pende amenazadora sobre nosotros.
Pero la verdad más agradable es que E = mc2 es mucho más potente que una bomba. Es la raíz misma de nuestra vida, nuestra existencia continuada y quizá también nuestro futuro. Describe la naturaleza fundamental de la realidad, y revela lo profunda que es la ilusión de la idea familiar de materia. Si sólo hay una ecuación en la cabeza del lector, al menos ésta la adecuada.
Así pues, ¿de dónde procede esa ecuación? Para ser estrictamente precisos, no, en principio, de Einstein. En el artículo en el que sugería esta relación entre masa y energía, Einstein no escribió realmente E = mc2.

18.jpg
Fisión nuclear

Escribió L = mv2, en la que L es la energía «viva», m es la masa y v es la velocidad. Siete años más tarde, en 1912, empezó a usar de forma rutinaria E para la energía y c para celeritas, rapidez en latín, y un símbolo reconocido internacionalmente para la velocidad de la luz. Incluso si se ignora el cambio de símbolos, Einstein no sacó la expresión del aire. Las semillas de E = mc2 se sembraron en leyes de la física que se formularon por primera vez en el siglo XVII y que después se debatieron durante casi dos siglos.

Dándole cuerda al universo
La palabra «energía» tiene una larga historia, pero sólo recientemente la hemos empezado a usar en conexión con lo que hoy en día queremos decir con energía. Por ejemplo, la Encyclopædia Britannica de 1842 definía energía como «un término de origen griego que significa la potencia, virtud o eficacia de una cosa». Este origen griego, que se remonta a Aristóteles, se halla en realidad algo más cercano a la verdad. Aristóteles definió la energía como el origen del ser y la función de todas las cosas. La ettergeia, dijo, era lo que permitía que algo hiciera su trabajo.

«A lo que parece, no tuvo la suficiente previsión para hacer de ello un movimiento perpetuo.»

Pero en tiempos de Isaac Newton la energía seguía estando poco definida. El concepto estaba allí: las cosas que se movían (una flecha disparada con un arco, por ejemplo) poseían energía. Sin embargo, cuando la flecha se detenía, parecía que la energía se había perdido. Lo mismo ocurría si dos personas chocaban en la calle y ambas caían al suelo. Sus energías, según Newton, se eliminaban mutuamente. Antes de la colisión había energía; después, no había ninguna.
Afortunadamente para nosotros (según Newton, al menos), Dios estaba allí. Newton sentía que Dios, en tanto que deidad viva e inmanente, debe estar actuando en algún lugar del universo. Una de las funciones vitales de la deidad, sugería Newton, era llenar a tope las reservas de energía cósmica. Dios estaba allí para dar cuerda al universo mecánico y mantener a los planetas en movimiento a través de los cielos, pero también se dedicaba a las situaciones cotidianas: a patanes que tropezaban uno con otro, por ejemplo.
No era ésta una idea que compartiera el gran rival de Newton, el ateo Gottfried Leibniz. En un comentario agrio sobre la teoría de Newton, Leibniz dijo que se le hacía difícil entender que Dios Todopoderoso tuviera que darle cuerda a su propio reloj de vez en cuando. «A lo que parece, no tuvo la suficiente previsión para hacer de ello un movimiento perpetuo», escribió Leibniz en una carta de 1715 al filósofo Samuel Clarke. Newton y Leibniz ya eran rivales acerca de la autoría del instrumento matemático llamado cálculo, que había permitido a Newton calcular los movimientos orbitales de los planetas. También este conflicto sobre la energía podía reducirse a otra cuestión matemática.
Newton había formulado la energía de un cuerpo en movimiento como mv, el producto de su masa m por su velocidad v. Leibniz, en cambio, creía que era mv2, el producto de su masa por su velocidad al cuadrado.
La diferencia tenía un efecto importante. En la formulación de Newton, dos cuerpos idénticos que se movieran en direcciones opuestas con la misma velocidad tendrían energías mv y —mv. Si colisionaban, la energía resultante sería cero. Leibniz, al elevar al cuadrado la velocidad, hacía que la dirección «negativa» no supusiera ninguna diferencia, porque una cantidad negativa elevada al cuadrado da siempre un número positivo. En la formulación de Leibniz, la energía no se perdía del universo.
Durante algunos años, la cuestión fue simplemente un asunto de ideología. Si uno era anglófono, prefería el trabajo y las ideas de Newton y se pensaba en la energía como mv. Si uno hablaba alemán, se ponía del lado de Leibniz y elevaba la velocidad al cuadrado. Este patrioterismo se superó gracias a una colaboración holandesa y francesa.
Willem's Gravesande, un científico holandés, había estado dejando caer pesos sobre arcilla blanda desde diversas alturas. La profundidad del agujero que provocaban los pesos era proporcional, presumiblemente, a la energía, que a su vez tiene que ser proporcional a la altura desde la que se dejaban caer y a la velocidad en el impacto. La única manera de que las sumas funcionaran era si la energía era efectivamente proporcional al cuadrado de la velocidad, 's Gravesande no lo vio por él mismo. Fue una noble francesa llamada Emilie du Chátelet quien reunió todas las piezas del rompecabezas en la primera mitad del siglo XVIII y declaró que el ganador era Leibniz. La energía debida al movimiento (viva, o energía cinética) era proporcional al cuadrado de la velocidad. E depende de una velocidad al cuadrado.
Aunque 's Gravesande y (en particular) Du Chátelet habían hecho grandes avances a la hora de clarificar la relación entre el movimiento de un cuerpo y su energía, seguían sin tener ni idea de lo que ocurría con toda la energía una vez que el movimiento se detenía. ¿Acaso desaparecía? La respuesta a dicha pregunta sólo llegó después del descubrimiento de un principio llamado de «conservación».

Trabajo de conservación
Los primeros indicios experimentales de un principio general de conservación llegaron a finales del siglo XVIII. En un conjunto de experimentos asombrosamente meticulosos, realizados sólo unos cuantos años antes de que fuera guillotinado a instancias de los revolucionarios de París, el científico francés Antoine Lavoisier verificó cómo diversos materiales cambiaban al quemarlos, al enmohecerse o por algunos otros procesos naturales de cambio. Encontró que su masa siempre se conservaba de alguna manera.
Cada uno de los experimentos se realizaba en el interior de un recipiente cerrado, y la sustancia que se investigaba (junto con el aire o el agua que hubiera en la cámara) se pesaba antes y después del experimento.
Dentro de los límites de su experimento, la masa total de material en la cámara permanecía constante. Incluso algo tan violento como la combustión, que alteraba tan radicalmente la forma física de un material, no conseguía hacer desaparecer los materiales. Las mediciones de la masa le decían a Lavoisier que ésta permanecía dentro de la cámara experimental; alterada en su forma, pero no obstante seguía allí. Las cosas no desaparecían simplemente del universo, sino que podían transformarse entre formas diferentes.
Probablemente, esto no es ninguna sorpresa para el lector. Gracias a un par de siglos de experimentos como los de Lavoisier hemos llegado a aceptar que el universo es, en efecto, un sistema cerrado, que contiene una cantidad finita de «material» que puede transformarse de un estado en otro. Y la cantidad transformable más fundamental (pero que siempre se conserva) es la energía.
Después de que abordar el concepto de la energía tomara algunos miles de años, hizo falta casi todo el siglo XIX para que los científicos llegaran a la conclusión de que la energía siempre se conserva en la naturaleza. Visto en retrospectiva, parece un poco raro que esta revelación llegara con tanta lentitud. Hacía tiempo que se sabía que la energía cinética puede convertirse en calor. Aquellos que perforaban el alma de un cañón, por ejemplo, sabían que el proceso generaba una enorme cantidad de calor. Pero no fue hasta la invención de la termodinámica, la rama de la ciencia que relaciona la temperatura y el calor con el movimiento de átomos y moléculas (véase ¿Por qué no existe tal cosa como una comida gratis?), que descubrimos exactamente cómo funcionaba la cosa.

La revolución del calor
Si E = mc2 rige el mundo moderno, la termodinámica lo creó. El descubrimiento de que el calor era una forma de energía, y así podía convertirse en energía cinética que realizaría trabajo, fue revolucionario en todos los sentidos. Caliéntese lo suficiente un baño de agua y su conversión a calor (cuando se halla bajo presión) puede mover un pistón. Y mover un pistón podía cambiar el destino de las naciones. El descubrimiento de máquinas tales como el motor y el frigorífico, accionadas por trabajo mecánico o calor, creó la Revolución Industrial, los cimientos de la era moderna, tecnológica.
Esta conversión de energía calórica en energía cinética es sólo un ejemplo de la manera en que se conserva la energía, que se mueve entre múltiples formas pero no desaparece nunca del universo. Los pesos de 's Gravesande, por ejemplo, tenían «energía gravitatoria potencial» antes de que los dejara caer. Dicha energía potencial procedía de la energía, almacenada en sus músculos, utilizada para levantarlos hasta la altura desde la que caían. Dicha energía procedía de la comida que 's Gravesande comía y que, a su vez, procedía del origen energético último de sus alimentos: la luz del Sol. Cuando los pesos caían sobre la arcilla, su energía potencial, que en último término procedía de la luz solar, se convertía en energía cinética (o movimiento) en la arcilla, algo de energía térmica (debido a la fricción) y de energía sonora. La energía no desaparecía del universo.
De la misma manera, una lámpara de queroseno contiene energía potencial. Cuando el queroseno quema, la energía química potencial almacenada se libera en forma de calor y luz. La energía térmica se transmitirá a las moléculas del aire que rodean la lámpara, y se manifestará en forma de energía cinética: las moléculas se moverán más deprisa.
Lo que parece sorprendente, sin embargo, es que la energía pueda tomar la forma de masa. Es evidente que la masa es muy distinta de la energía: mientras la masa se asocia a la solidez, la energía parece transitoria y efímera. Pero hay una conexión, y ésta se encuentra en las ecuaciones del electromagnetismo de James Clerk Maxwell.

El abrazo de Maxwell
En la década de 1830, Michael Faraday demostró la manera en que la electricidad y el magnetismo están interrelacionados: la electricidad produce magnetismo y viceversa. Poco después, Maxwell produjo una serie de ecuaciones que detallaban exactamente cómo funcionaba este proceso. Muchos físicos que estudiaron las ecuaciones de Maxwell vieron que contenían la esencia de la masa.
Por ejemplo, era bien conocido que una caja que contuviera campos electromagnéticos pesaba más que una que no los contuviera. La cuestión era, ¿qué es lo que eso significaba?
La opinión general era que la masa inercial (la resistencia de un cuerpo al movimiento) reside en el hecho de que las partículas cargadas serían difíciles de mover en las inmediaciones de sus propios campos electromagnéticos. Fiel a su carácter, Einstein no siguió la opinión general. En lugar de ello, encontró la respuesta en uno de los errores de las ecuaciones.
Maxwell dijo una vez que estas ecuaciones describen un «abrazo mutuo» entre la electricidad y el magnetismo. Sin embargo, se trata realmente de un abrazo a tres bandas: electricidad y magnetismo no existen sin movimiento; el movimiento de partículas cargadas crea la electricidad y el magnetismo.
Y aquí reside un problema de calado. El análisis de los experimentos demostraba que el movimiento podía invalidar las ecuaciones. Si el emisor de la radiación electromagnética se movía con relación al observador, las ecuaciones ya no predecían los valores correctos para el campo electromagnético.
Esto fue lo que motivó el artículo de Einstein de 1905 «Sobre la electrodinámica de cuerpos en movimiento», en el que introdujo la relatividad especial. El genio de Einstein consistió en insistir en que las leyes de la física fueran consistentes aunque uno se estuviera moviendo a través del espacio. Para conseguirlo, modificó las leyes de Maxwell de manera que uno no pudiera moverse de ninguna manera que modificara la velocidad de la luz de su valor absoluto, c. La velocidad de la luz es una constante irreductible. Si nos movemos hacia una fuente de luz estacionaria, la luz siempre llegará a nosotros con la velocidad c. Si nos alejamos, mediremos que la luz nos está llegando a la velocidad c.
Y aquí es donde encontramos la conexión entre energía y masa.

La luz lleva masa
Einstein sugirió que la existencia de energía (cualquier tipo de energía) lleva consigo una masa asociada. Tal como afirmó en una carta a su amigo íntimo Conrad Habicht, poco después de la publicación del artículo de E = mc2, «El principio de la relatividad, en asociación con las ecuaciones fundamentales de Maxwell, requiere que la masa sea una medida directa de la energía contenida en un cuerpo; la luz lleva masa consigo».
La primera implicación que Einstein advirtió era para la radiactividad: si el radio liberaba energía, también tenía que perder algo de masa. El físico alemán Max Planck vio una implicación más prosaica (pero en cierto sentido más profunda). Un objeto caliente, una sartén, pongamos por caso, pesará más que uno frío. Esto era una idea revolucionaria; incluso hoy en día sigue pareciendo extraño. No obstante, es absolutamente correcto. Ahora tenemos pruebas buenas de que la masa es sólo una manera de transportar energía. Podemos movernos y transportar energía cinética, pero también podemos encerrar nuestra energía por el simple hecho de existir. Para ver por qué hemos de explorar el origen de la masa.

19.jpg
La masa de la radiación

De dónde procede la masa
Estamos hechos de partículas que, en lo fundamental, carecen de masa independiente. Obtienen su masa de un fenómeno cuántico conocido como el «principio de incertidumbre de Heisenberg». En esencia, éste dice que toda cantidad en la naturaleza tiene un carácter borroso; no tiene un valor fijo. Esto es cierto incluso para la energía del espacio vacío: mientras que pensamos que éste tiene energía cero, en realidad chisporrotea de energía que se manifiesta como pares de partículas «virtuales» que desaparecen tan rápidamente como aparecen. Resulta que estas partículas efímeras, fantasmales, confieren a la sartén su masa.
Cuando reducimos la escala, de la sartén a un átomo de hierro y de éste a un núcleo de hierro, terminamos contemplando partículas denominadas quarks, que constituyen los protones y neutrones del núcleo de hierro. Cuando los físicos deducen la masa de los quarks, no hay nada que pueda explicar la pesadez de la sartén. La masa existe en realidad en partículas virtuales que se manifiestan a partir de la energía borrosa del espacio vacío. Experimentos que implican colisiones de partículas de alta energía y el tratamiento de millones de números han confirmado que estos «gluones» actúan para mantener unidos los quarks en el protón y el neutrón, y que la energía implicada es lo que vemos como la mayor parte de la masa de la sartén.
He aquí por qué la sartén caliente pesa más. Puesto que casi toda la masa de una sartén procede de la energía chisporroteante de espacio vacío, no parece tan difícil de creer que añadir un poco más de energía, en forma de calor, contribuya también a la masa. La capacidad de los procesos de energía elevada de liberar dicha energía es lo que se halla en el meollo de nuestra existencia. Cuando en el Sol se funden átomos de hidrógeno, formando finalmente un átomo de helio, el proceso libera algo de energía de gluones (energía que denominamos masa) en forma de calor y luz: los mismos calor y luz que crearon la vida en la Tierra.
Gracias al colosal tamaño de la velocidad de la luz, unido al hecho de que E = mc2, existe una cantidad sorprendente de energía encerrada en la materia ordinaria. Por ejemplo, una única nuez posee suficiente energía potencial encerrada en su interior para proporcionar energía a una ciudad. Memos liberado algo parecido a esto, desde luego, no con nueces, sino con átomos de uranio. Adecuadamente preparados, su energía de gluones puede liberarse para proporcionar energía eléctrica a las ciudades... o para bombardearlas.
Ya sea en bombas o en centrales energéticas, hemos medido la masa de las partículas con las que empezamos, la masa al final del proceso y la cantidad de energía liberada. En todos los casos se ha demostrado que es cierto: E es realmente igual a mc2. La prueba más exacta que tenemos de la validez de la ecuación de Einstein se realizó en 2005.
No resulta sorprendente que implicara medidas extremadamente sensibles. Por ejemplo, la medición de la energía de la parte izquierda de la ecuación requirió que un equipo de investigadores midiera la energía de un fotón de rayo gama con una precisión de alrededor de una parte por millón.
Mientras tanto, para la parte de la masa de la ecuación, los investigadores tuvieron que medir cómo cambia la masa de un ión cuando emite un fotón de rayo gamma. Es un cambio de masa minúsculo, equivalente a ver el cambio en el grosor de un pelo en la distancia desde Nueva York a Los Ángeles. No hubo sorpresas desagradables: los investigadores encontraron una correspondencia asombrosa entre las dos medidas. Parece que E es realmente igual a mc2, en más de una parte por 2 millones. El lector puede descansar tranquilo: la única ecuación que conoce es perfectamente sólida.


Capítulo 13
¿Puedo cambiar el universo con una simple mirada?
Conexiones cuánticas fantasmales y la posibilidad de reescribir la historia

Einstein planteó esta pregunta de una manera algo distinta.
A principios de la década de 1950 se dirigió al joven físico Abraham Pais, levantó las cejas y le preguntó: «¿Cree usted realmente que la Luna sólo existe cuando usted la está mirando?».

Einstein había pasado las dos últimas décadas cada vez más frustrado por los pioneros de la teoría cuántica. Su cabecilla, Niels Bohr, afirmaba que la extrañeza intrínseca a la teoría, como que los átomos existen en dos lugares al mismo tiempo o que los efectos preceden a su causa, sólo podía explicarse si nada (ni tan sólo la Luna) existía realmente hasta que se medía o se observaba.

«¿Cree usted realmente que la Luna sólo existe cuando usted la está mirando?»

La pregunta de Einstein a Pais era una llamada exasperada al sentido común. La idea de que algo tan grande y permanente como la Luna pudiera estar a la merced de un minúsculo observador humano a cientos de miles de kilómetros de distancia no tiene sentido. Pero esto no significa necesariamente que sea disparatada. Con el advenimiento de la teoría cuántica a principios del siglo XX, lo ridículo se había convertido en lo sublime. Pais recuerda que se preguntaba por qué Einstein se hallaba tan pegado al pasado. «¿Por qué razón este hombre, que contribuyó tanto y de manera incomparable a la creación de la física moderna, permanece tan aferrado a la idea de causalidad del siglo XIX?», escribió en El Señor es sutil, su biografía de Einstein.
Incluso en el siglo XVIII ya había quien ponía en cuestión la naturaleza de la realidad. Es famosa la afirmación del obispo George Berkeley de que, si no había nadie que oyera la caída de un árbol en un bosque, el árbol no haría ruido. Afortunadamente, sugería Berkeley, nuestro sentido común se conserva porque Dios siempre está presente para actuar como observador.
Niels Bohr adoptaba la misma aproximación al mundo cuántico: la única interpretación apropiada de los caprichos de la teoría cuántica, decía Bohr, es que nada posee propiedades o existencia alguna hasta que es observado de alguna manera. La negativa de Einstein a aceptar esta idea lo aisló del desarrollo de la teoría cuántica. Más aún: su mejor intento de refutarla acabó con su confirmación. Todos los experimentos que hemos llevado a cabo sugieren que, efectivamente, uno puede cambiar el universo con una mirada. ¿Los medios de nuestro poder? Un fenómeno cuántico conocido» como «enmarañamiento»

Enmarañado en el espacio y en el tiempo
Erwin Schrödinger llamó enmarañamiento al rasgo definitorio de la teoría cuántica. Se dio cuenta por primera vez de ello en 1935 al advertir que las ecuaciones de la teoría cuántica, aplicadas a dos partículas que interactúan, imparten una cualidad insólita. Después de su encuentro, ya no pueden describirse adecuadamente como individuos. Están relacionadas; la descripción cuántica de la partícula A (su momento o espín, por ejemplo) contiene información acerca de la partícula B, y viceversa.
Esto tiene una consecuencia muy extraña. Si cambiamos las propiedades de la partícula B, cambiamos necesariamente las propiedades de la partícula A. Esto no requiere una conexión física: la conexión de enmarañamiento cambia las propiedades cualquiera que sea la separación entre las dos partículas enmarañadas. Dos partículas enmarañadas adecuadamente preparadas pueden cambiar al instante el estado cuántico de la otra, incluso si se hallan en extremos opuestos del universo.
Einstein no aceptaba nada de esto, y lo calificó de spukhafte Fernwirkungen, «acción fantasmal a distancia». Demostraba, decía, que seguía habiendo lagunas en la teoría cuántica. Y, con ayuda de dos amigos llamados Boris Podolsky y Nathan Rosen, se dispuso a probarlo. La situación hipotética que el trío planteó sigue siendo el estándar de oro para probar lo extraño que es el mundo cuántico. Se conoce como la paradoja EPR (de Einstein, Podolsky y Rosen), y se refiere al destino de dos pares de partículas, hallándose cada por separado del otro por una distancia enorme.

Bell y la acción fantasmal
La versión experimental más rigurosa de la paradoja EPR la preparó en 1964 John Bell, de la Organización Europea para la Investigación Nuclear (GERN), el laboratorio de física de partículas radicado en Ginebra, Suiza. Bell imaginó separar dos electrones enmarañados y enviarlos a experimentadores situados en lugares opuestos de la Tierra. A continuación, los experimentadores miden simultáneamente el espín del electrón. Los detalles de la instrumentación son complejos, pero el reto de Bell era que, si la teoría cuántica ortodoxa estaba en lo cierto y Einstein estaba equivocado, determinados tipos de medidas mostrarían una correlación entre los dos espines.
Einstein murió antes de poder ver realizado el experimento de Bell. La primera puesta en práctica la hizo el físico francés Alain Aspect en 1982, pero desde entonces se han realizado innumerables pruebas, y todas ellas confirman que Einstein estaba en efecto equivocado. El enmarañamiento es, realmente, una acción fantasmal a distancia, acción que niega la existencia objetiva de cualquier cosa. Los electrones de Bell sólo adoptan sus propiedades cuando se realiza una medición, es decir, cuando alguien los observa.
Incluso si el lector ya creía que un árbol que cae en un bosque no hace ruido, sigue siendo verdaderamente notable advertir que, para extender la analogía, talar el tronco de un árbol puede hacer caer a otro... aunque se encuentren en bosques distintos. Un par de electrones enmarañados se afectan entre sí instantáneamente, y desde el otro extremo del universo. En realidad, es tan fantasmal como Einstein i decía: la interpretación estándar del tiempo y el espacio parece quedar en nada a la luz del enmarañamiento cuántico.

Teletranspórtame...
Ya se utiliza el enmarañamiento. Por ejemplo, la criptografía cuántica utiliza la función de «control remoto», combinada con el hecho de que las conexiones de enmarañamiento son muy frágiles, para conseguir un medio de asegurar la información. Es algo así como la práctica histórica de cerrar las comunicaciones importantes con un sello; los mensajes codificados mediante enmarañamiento son a prueba de manipulaciones porque cualquier intento de descifrarlos rompe la conexión.
Quizá más impresionante conceptualmente (pero de menor utilidad práctica) es la versión cuántica de la teleportación que el enmarañamiento permite. Se trata de una operación compleja, pero lo fundamental es que una medición en una partícula de un par que estén enmarañadas obliga a un cambio en las propiedades de la otra. Si se hace con la pericia y sutileza adecuadas, a la partícula distante se la puede impregnar con todas las características de la original sin que ni siquiera se halle en el mismo lugar.
Ello afecta también a otras partículas, y por ello la transmisión de alguna información a través de canales «normales» se parece quizá más a un telefax que a una tele- portación. Sin embargo, sigue siendo una innovación impresionante. Aunque hasta ahora sólo puede hacerse con partículas únicas, tales como los fotones, no hay razón fundamental por la que no podamos extender la tecnología para transmitir cada vez más objetos cuánticos: quizá un átomo o más.
Sin duda, esto resultará útil: aunque es improbable que alcancemos nunca la teleportación humana al estilo de StarTrek, desplazar estados cuánticos de esta manera presagia permitir el procesamiento de información a una escala sin precedentes. Muchos grupos de investigación de todo el mundo intentan desarrollar «ordenadores cuánticos» que realizarán cómputos a velocidades que son exponencialmente mayores que las que pueda conseguir un ordenador normal.
La teleportación del estado cuántico desempeñará un papel clave en la manera en que estas máquinas funcionen. Sin embargo, nuestro papel en el modelado del universo no tiene porqué terminar con observaciones que determinen la existencia y propiedades de unas pocas partículas en experimentos cuánticos. Según el malogrado John Wheeler, uno de los científicos más respetados del siglo XX, cada uno de nosotros puede cambiar la historia misma del cosmos.

Un gran dragón humeante
La afirmación de Wheeler surge de consideraciones de la medición cuántica. Ahora se acepta de manera general que una de las manifestaciones más extrañas de la teoría cuántica es el fenómeno por el que, si tiene la opción, algo como un fotón de luz tomará todas las trayectorias disponibles. Esta « superposición» resulta del carácter ondulatorio de los objetos cuánticos. Un único fotón disparado contra una pantalla dotada de dos rendijas estrechas producirá un patrón de bandas claras y oscuras sobre una pantalla situada al otro lado de las rendijas. Esto es un «patrón de interferencia» y está asociado con el comportamiento ondulatorio. Sin embargo, para producir interferencia el fotón tiene que haber pasado a través de ambas rendijas. ¿Cómo puede hacer esto un fotón único?
Parece razonable que podamos resolver esto observando el fotón. Si contemplamos las rendijas, descubriremos a través de cuál de ellas pasó el fotón. Pero cualquier intento de determinar qué camino siguió el fotón destruye el patrón de interferencia. En este supuesto teórico, el fotón se comporta como una bala, que atraviesa una u otra de las dos rendijas y no produce patrón de interferencia.
De manera extraña, parece que el fotón se comporta como una onda cuando nadie mira, y como una partícula cuando alguien lo hace. La idea de que un fotón haga algún tipo de elección consciente en relación con objetos de su ambiente suena ridícula a los oídos de los físicos. Esta es la razón por la que Einstein y otros decían que teníamos que estar pasando algo por alto; tiene que haber algunas «variables ocultas» que determinan el comportamiento del fotón.
Wheeler sugirió una manera de comprobarlo. ¿Qué ocurriría, dijo, si sólo miráramos la trayectoria del fotón después de que éste hubiera hecho su «elección» de cómo comportarse? ¿Alteraría esto el comportamiento del fotón? El experimento de «elección retardada» de Wheeler no es fácil de realizar, pero los físicos han logrado hacerlo.
En dispositivos experimentales en los que un fotón tarda sólo 14,5 nanosegundos en atravesar el aparato, los investigadores han conseguido cambiar el dispositivo después que el fotón haya hecho su «elección» de si comportarse como una onda o como una partícula. Nueve nanosegundos después de que el fotón entrara en el aparato, cuando el fotón ya se ha dividido como una onda para atravesar las dos rendijas o, como una bala, ha pasado directamente por una rendija, los investigadores fijaron un detector a una de las rendijas.
¿Cuál fue el resultado? Con un detector en su lugar, no hubo interferencia. Sin detector, hubo interferencia. Esto es exactamente lo que predecía la teoría cuántica estándar: la presencia de un detector obliga al fotón a comportarse como una partícula, y las partículas no producen interferencia. Si el extraño comportamiento pudiera explicarse por la presencia de variables ocultas, el fotón ya se hubiera «comprometido» a un comportamiento o al otro. Antes de que los experimentadores eligieran si detectar o no el fotón, éste se habría manifestado como una onda o una partícula, sin opción para guardar la elección hasta después de haber atravesado las rendijas. Wheeler se refirió al resultado diciendo que revelaba que los procesos cuánticos son un «gran dragón humeante». Su cola (lo que entra) podemos conocerla. Su boca (el resultado) es también claro. Pero el cuerpo del dragón es una nube de humo impenetrable, y «no tenemos derecho a hablar acerca de lo que está presente», dijo Wheeler.
Más aún, añadió Wheeler, podemos decir lo mismo acerca de los procesos del universo. La emisión de luz procedente de las estrellas es un proceso cuántico, después de todo: los fotones individuales de la luz de las estrellas tienen el mismo carácter que los fotones de la luz de láser que usamos en los experimentos cuánticos.
Y un experimento de elección retardada realizado a una escala cósmica es lo mismo que uno realizado en el laboratorio... pero con implicaciones mucho más profundas.

Cambiar la historia cósmica
En un experimento teórico provocador, Wheeler utilizó el fenómeno de la lente gravitatoria para ilustrar este punto. Cuando la luz de una estrella distante viaja hacia la Tierra, puede pasar cerca de una galaxia enorme. La masa de la galaxia pandea la luz, lo que nos produce la ilusión de dos galaxias donde sólo hay una. Einstein citó este fenómeno como una predicción de la relatividad general, y la predicción se confirmó cuando el astrónomo inglés Arthur Eddington midió el efecto en 1919.
En opinión de Wheeler, este efecto de la lente gravitatoria no es más que un experimento de rendija a una escala enorme. Un fotón procedente de la estrella puede tomar dos trayectorias. Si tuviéramos una manera de observar efectos de interferencia como resultado de las dos trayectorias, veríamos un patrón de interferencia. El objeto elegido por Wheeler fue el cuásar 0957+561A, B. Se halla a algo más de 7.000 millones de años luz de distancia, y gracias a una galaxia que se sitúa entre nosotros y el cuásar, vemos dos imágenes de este en nuestro telescopio.
La luz del cuásar tarda 7.000 millones de años en llegar hasta nosotros, y una buena fracción de este recorrido se halla después de la galaxia que actúa como lente.

20.jpg
El experimento de elección retardada

Así pues, dijo Wheeler, podemos tomar nuestro tiempo y pensar si queremos medirla con un detector de partículas o con un detector de ondas. Lo que sea que decidamos habrá determinado si dicho fotón tomó una trayectoria alrededor de la galaxia o ambas.
Y podemos tomar dicha decisión miles de millones de años después de que el fotón haya pasado la galaxia en cuestión. «Este es el sentido en el que, en una manera vaga de hablar, decidimos qué es lo que el fotón tiene que haber hecho después de que ya lo ha hecho «realmente», escribió Wheeler en 1981. La idea de Bohr de que nada tiene propiedades hasta que se ha tomado una medida parece extraña. Pero, con su experimento mental cósmico, Wheeler había planteado una situación todavía más absurda. De repente, la idea de Bohr parece mucho menos difícil de tragar.
Los fenómenos cuánticos, dijo Wheeler en 1992, «no son ondas ni partículas, pero son intrínsecamente indefinidos hasta el momento en que son medidos. De modo que, en un cierto sentido, el obispo Berkeley estaba en lo cierto cuando afirmó que "ser es ser percibido"». Pero podríamos igualmente darle la vuelta a eso y afirmar que el hecho de que se haya realizado con éxito en el laboratorio el experimento de elección retardada, aunque sólo en teoría en el cosmos, demuestra que podemos participar en la historia del universo, y ello quizá desde sus mismos inicios.
«¿Cómo llegó a ser el universo? ¿Se trata de algún proceso extraño, remoto, que no podemos esperar analizar? ¿O acaso el mecanismo que lo puso en marcha es uno que se muestra todo el tiempo?» Esta cita presenta a Wheeler preguntándose si el Big Bang fue un acontecimiento cuántico: el universo arrastrado a la existencia por algo que también rige la vida cotidiana.
Su universo «participativo», en el que el papel de los observadores cambia la naturaleza cuántica de la historia cósmica, va parcialmente en este sentido, Pero Stephen Hawking, el cosmólogo de la Universidad de Cambridge, va incluso más allá. El mundo cuántico, dice, nos permite determinar toda la historia del universo, desde donde estamos ahora mismo. Llama a esto «cosmología de arriba abajo», y cree que resuelve aquella pregunta perenne: ¿qué hubo antes del Big Bang?

¿Qué fue primero?
Muchos físicos dirían qué intentar discutir cosas anteriores al Big Bang es tan ridículo como preguntar que hay al norte del Polo Norte. Después de todo, el tiempo empezó a existir con el Big Bang (véase ¿Qué es el tiempo?), y hasta que el reloj del tiempo no empieza a funcionar no podemos considerar conceptos tales como «antes» y «después».

«El mundo cuántico nos permite determinar toda la historia del universo.»

Sin embargo, Hawking no quiere detenerse en el momento de la creación. Dice que es completamente razonable preguntarse qué fue lo que hizo que el universo existiera. Es un razonamiento sutil y difícil, como cabría esperar, pero se basa en ideas bien establecidas en física. La primera de ellas es una interpretación de la teoría cuántica que propuso el más famoso estudiante graduado de Wheeler, Richard Feynman.
Se denomina «historias múltiples» y sugiere que los procesos cuánticos siguen todas las direcciones posibles simultáneamente. Por ejemplo, en el experimento de doble rendija, el patrón de interferencia procede del fotón que atraviesa no sólo las dos rendijas, sino que recorre cualquier otra trayectoria posible, como rebotar en la superficie de la Luna antes de impactar en el detector.
Todas las diferentes trayectorias tienen una probabilidad asociada, que se da en sabores positivos y negativos, de manera parecida a una onda. Cuando todose suma, el total obtenido describe lo que tendemos a observar en un experimento.
Cuando Hawking aplica al universo la idea de las historias múltiples, realmente quiere decir historias. Esto tiene una cierta relación con un enorme experimento del tipo «¿qué pasaría si?» que reuniera todas las situaciones hipotéticas posibles para la historia del universo. En una de tales situaciones hipotéticas, nuestro sistema solar no se formó. En otra, la gravedad aumenta muchísimo. También los acontecimientos cambian: por ejemplo, Hawking ha de considerar una historia en la que Elvis todavía está vivo. Cada una de esas situaciones hipotéticas lleva asociada una probabilidad.

Nuestro universo siempre cambiante
Lo que es más inquietante todavía que todas estas posibilidades extrañas, es el hecho de que están sujetas a las mediciones que hacemos hoy. De la misma manera que decidir medir una partícula o una onda cambia el resultado de un experimento cuántico de doble rendija, Hawking considera que la manera en que hoy contemplamos el universo puede cambiar la manera en que evolucionó hace miles de millones de años.
Hawking admite que es una idea extraña, pero sólo parece extraña porque estamos dentro del universo en cuestión, dice. Alguien que observara desde fuera del universo no vería nada raro, en opinión de Hawking.
Y un tal observador podría ver cómo el universo se formaba a partir de la nada. Esto es posible porque las historias múltiples de Feynman (y, por tanto, los cálculos de Hawking) se basan en un concepto de «tiempo imaginario».
Aunque utilizar un tiempo imaginario parece fantástico, no violenta la realidad tanto como puede parecer. Los ingenieros utilizan de forma rutinaria números compuestos de componentes reales e imaginarios para describir y predecir el comportamiento de circuitos eléctricos.
En la cosmología de arriba abajo de Hawking, las historias múltiples del universo, calculadas utilizando, tiempo imaginario, cambian el tiempo normal en una dimensión espacial.
El resultado de ello es que el problemático «inicio» del universo desaparece. Previamente, cuando la energía del universo estaba concentrada en el más diminuto de los volúmenes, todo funcionaba según reglas cuánticas, y lo que ahora llamamos tiempo era en realidad una dimensión espacial.
Así, al menos según esta interpretación de la teoría cuántica, el tiempo surgió de un cambio en la naturaleza del espacio. El universo flexible y cambiante de Hawking es, en algunos niveles, muy atractivo. Nos proporciona participación en el universo y deja de lado el problema del estado previo al Big Bang. Pero está lejos de ser universalmente aceptado como la respuesta que hemos estado buscando.
El punto importante que hay que tener presente es que nadie comprende cómo funciona realmente el mundo cuántico. La interpretación que se siga, ya sea la de las historias múltiples de Feynman o el rechazo de Bohr de una realidad objetiva, es, en muchos aspectos, sólo cuestión de gustos.
Esta es la razón por la que muchos físicos se consideran partidarios de la interpretación «cállate y calcula» de la teoría cuántica. En esta posición pragmática nadie sabe qué significa todo eso, pero nos divierte jugar con ello; y esto puede ser suficiente.
David Mermin, un físico de la Universidad de Cornell, fue quien mejor lo dijo. El poder predictivo de la teoría «es tan hermoso y tan potente que, por sí mismo, puede adquirir el carácter persuasivo de una explicación completa». Pero no es una explicación. Así, mientras que la teoría cuántica dice que podemos cambiar el universo con una sola mirada, recuérdese que todavía vemos la teoría cuántica a través de una niebla de ignorancia e incomprensión que la enmascara. Está muy bien creer que podemos hacer que la Luna aparezca. Pero no intentemos convencer a nadie más de nuestros poderes.


Capítulo 14
¿Significa desastre la teoría del caos?
La influencia del efecto mariposa sobre el tiempo meteorológico, el clima y
los movimientos de los planetas

No se trata de una idea especialmente nueva. El lector puede haber crecido con el concepto; está escrito en un verso infantil familiar:
«Por falta de un clavo se perdió la herradura;
Por falta de la herradura se perdió el caballo;
Por falta del caballo se perdió el jinete;
Por falta del jinete se perdió el mensaje;
Por falta del mensaje se perdió la batalla;
Por falta de la batalla se perdió el reino.»

Esta es la teoría del caos, que a veces se conoce como el «efecto mariposa». ¿Puede la falta de un simple clavo desestabilizar la geopolítica? ¿Puede el batimiento de las alas de una mariposa provocar una tormenta a miles de kilómetros de distancia? La respuesta es sí, y ocurre constantemente. No necesariamente de esta manera exacta, desde luego. El verso infantil es, claro está, una consideración festiva de las consecuencias. E incluso la mariposa nació en el texto de un folleto.
Edward Lorenz, que inició la investigación en este campo, tenía que impartir una conferencia en una reunión de la Asociación Americana para el Progreso de la Ciencia, en 1972, pero no había dado el título de la misma. El meteorólogo Philip Merilees, presidente de la sesión, terminó encontrando algo. Nueve años antes, en un artículo, Lorenz había mencionado que un meteorólogo se había mofado de la teoría del caos diciendo que, si fuera correcta, «un solo batir de las alas de una gaviota podría cambiar para siempre el funcionamiento del tiempo atmosférico». Era evidente que Merilees recordaba esta frase, y se inventó una variante que ha entrado en la cultura popular como pocos otros conceptos científicos. El título de la charla de Lorenz era: «¿Acaso el batir de las alas de una mariposa en Brasil genera un tornado en Texas?».
El término oficial para el efecto mariposa es «dependencia sensible de las condiciones iniciales». La idea básica es que la mayoría de los sistemas que cambian a lo largo del tiempo (ya sean naturales, como el tiempo atmosférico, o artificiales, como el resultado numérico de un programa informático) darán resultados muy diferentes si se hace incluso el más mínimo ajuste a su punto de partida. Esta simple observación tiene consecuencias tan profundas que ha dado origen a todo un nuevo campo de investigación.

«¿Acaso el batir de las alas de una mariposa en Brasil genera un tornado en Texas?»

La repercusión de la teoría del caos, como se conoce este campo, se ha notado en toda la ciencia. Desde la dinámica de los planetas a la manera en que las epidemias se extienden por las poblaciones humanas, la influencia de la teoría del caos es tan amplia como importante. Todo el universo, a lo que parece, se halla en un estado de caos. Este descubrimiento habría supuesto una conmoción terrible para el aristócrata Pierre-Simon, marqués de Laplace.
En el siglo XVIII había aceptado con deleite la revolución newtoniana. Su libro sobre los mecanismos del universo, en el que tomaba la teoría de la gravitación de Newton y la utilizaba para cartografiar los movimientos de todos los planetas, era una obra maestra. Unos años después se jactaba de manera atrevida del poder de la ciencia para domeñar cualquier fenómeno conocido:
Una inteligencia que en un instante dado conociera todas las fuerzas que actúan en la naturaleza y la posición de cada objeto en el universo (si estuviera dotada de un cerebro lo bastante grande para realizar todos los cálculos necesarios), podría describir con una única fórmula los movimientos de los cuerpos astronómicos mayores y los de los átomos más pequeños. Para una tal inteligencia nada sería incierto; el futuro, como el pasado, sería un libro abierto.

Sin embargo, a las pocas décadas de la muerte de Laplace, esa visión había comenzado a deshilacharse. La cosa empezó en 1860, cuando el físico escocés James Clerk Maxwell discutió la amplificación de cambios pequeños cuando consideraba lo que ocurre cuando las moléculas colisionan. Treinta años después, Henri Pontearé descubrió que la atracción gravitatoria mutua de tres objetos en movimiento presentaba una dependencia sensible a las condiciones iniciales. Después, en la década de 1920, el ingeniero holandés Balthasar van der Pol encontró caos en los tonos producidos por un microteléfono conectado a un tubo de vacío. La corriente eléctrica que accionaba el tubo desencadenaba ocasionalmente lo que reconoceríamos como retroalimentación, y Van der Pol pudo escribir una ecuación que la describía.

«Para una tal inteligencia nada sería incierto; el futuro, como el pasado, sería un libro abierto.»

Aunque dicha ecuación era de gran utilidad para los ingenieros que intentaban construir tubos de vacío para sistemas electrónicos tales como equipos transmisores de radio, el propio silbido no era más que una molestia. En realidad, varios matemáticos e ingenieros estudiaron el fenómeno sin notar nada especialmente notable en él. Aunque en la historia de la teoría del caos hay muchos actores, fue realmente Edward Lorenz quien la sacó a la luz.

Un atajo al caos
Lorenz había sido un observador meteorológico desde la infancia y pasó la segunda guerra mundial como pronosticador del tiempo para el Cuerpo del Ejército del Aire. Algunos años después, mientras trabajaba como investigador en el Instituto de Tecnología de Massachusetts, Lorenz combinó la meteorología con las matemáticas y con la ciencia relativamente nueva de la informática. Construyó un procesador que podía modelar una versión sencilla del tiempo. Y fue aquí que descubrió el efecto mariposa.
Tal como ha sucedido con muchos de los descubrimientos más importantes en ciencia, ocurrió por accidente. Una tarde de 1961, Lorenz andaba escaso de tiempo y se encontraba hacia la mitad de una simulación del tiempo en su ordenador. Mirando en una impresión de los datos dónde quería empezar, tecleó los números que habrían de hacer correr de nuevo la simulación, desde la mitad en adelante. Esta salió mal, o al menos completamente diferente de la original.
Alarmado por el aparente error, Lorenz comprobó lo que había usado como datos de entrada. Advirtió que había cortado los números después del tercer lugar decimal, porque suponía que el detalle fino no representaría ninguna diferencia. Allí donde el ordenador había estado usando 0,506127, Lorenz había entrado sólo 0,506. Ésta constituía toda la diferencia del mundo. Lorenz había descubierto la dependencia sensible de las condiciones iniciales: una impredecibilidad que surge debido a nuestro conocimiento limitado.
Nuestras reglas no son infinitamente pequeñas, nuestras acciones no son infinitamente uniformes, nuestras máquinas no son infinitamente potentes. Así, cada medición que efectuamos y cada cómputo realizado utilizando dichas medidas tendrán un error pequeño pero finito. Antes de Lorenz se hubiera considerado que esto causaba un problema tan pequeño como el error. Pero la dependencia sensible de las condiciones iniciales significa que, con mucha frecuencia, el error acabará por ser enorme.
Dondequiera que miremos encontramos caos. El sistema solar, por ejemplo, es caótico porque implica la interacción de más de dos cuerpos.
Tal como demostró Henri Poincaré, mientras que hay soluciones a las ecuaciones que describen las interacciones entre dos cuerpos, si se añade uno más (o muchos más) no se pueden encontrar soluciones exactas. Sencillamente, las ecuaciones matemáticas que describen el sistema no pueden resolverse.
Con ocho planetas y un sol a tomar en consideración, por no mencionar las innumerables rocas, asteroides y cometas, el caos reina en los cielos. Pero un sistema solar que funciona de una manera caótica y no con la precisión de un reloj no quiere decir que en cualquier momento estemos en peligro de colisionar con otro planeta. Las órbitas caóticas suelen estar «circunscritas», y se mueven en círculos que casi nunca se repiten, pero dentro de un espacio limitado, con lo que se reduce el peligro de colisión.

Belleza extraña
Esta limitación, en la que el caos opera dentro de límites estrictos, ha dado origen a otro icono del caos: el «atractor extraño». Imagine el lector un sistema sencillo que muestra un comportamiento caótico, algo parecido a un péndulo doble, en el que dos bastones rígidos se hallan articulados de forma laxa y pueden oscilar libremente. El movimiento libre del péndulo doble es parecido al movimiento de nuestra pierna desde la cadera, pero en que la rodilla pudiera doblarse en dos direcciones.
Hasta que se ha podido ver con los propios ojos, es casi imposible comprender el grado de impredecibilidad que muestra el péndulo doble. Oscila hacia delante y hacia atrás, y el punto final de cada oscilación parece ser aleatorio.

21.jpg
El péndulo doble

Oscilando libremente desde algún punto inicial arbitrario, la parte inferior del péndulo doble traza un dibujo compuesto de bucles que configuran formas definidas. Aunque nunca resigue dos veces el mismo recorrido, tampoco se desvía demasiado del patrón establecido. Esta «atracción» a una forma particular es lo que dio su nombre al atractor extraño. Quizá el ejemplo más famoso es el atractor de Lorenz en forma de mariposa. Este es un mapa del movimiento de un sistema caótico en tres dimensiones. A medida que el movimiento continúa, las líneas se hacen cada vez más densas. Pero la trayectoria nunca se entrecruza y nunca se repite.
Un patrón similar surge de un péndulo de acero que se pone en movimiento inmediatamente encima de tres imanes dispuestos como los ángulos de un triángulo. Cada imán ejerce una atracción en la plomada de acero, y la atracción varía cuando la plomada se desplaza hacia el campo magnético del imán y se aleja de éste. La suma de todas las atracciones en competencia fuerza al péndulo a seguir una trayectoria caótica que es sensible a la más mínima variación en su posición o velocidad iniciales. Ello queda ilustrado en su atractor extraño.

22.jpg
El atractor de Lorenz

Cuando el caos ataca
El hecho de que estas órbitas caóticas estén circunscritas no quiere decir que no puedan tener consecuencias extremas. Esto queda demostrado por los efectos que los planetas pueden tener uno sobre otro. Aunque las mismas órbitas no se apartan demasiado de sus trayectorias previstas, los movimientos caóticos podrían crear ocasionalmente una amenaza cataclísmica. Los cálculos demuestran que un pequeño golpe a Saturno, debido a las partículas que componen el viento solar, por ejemplo, puede hacer que su órbita se vuelva «aperiódica». Esto significa que tomará una dirección ligeramente distinta cada vez que gire alrededor del Sol.
Es una perspectiva alarmante porque abre la posibilidad de que Júpiter, Saturno y el Sol se alineen en algún momento. La atracción gravitatoria combinada de esta trinidad es suficiente para arrancar rocas del cinturón de asteroides que se encuentra entre las órbitas de Marte y Júpiter, y podría desencadenar una tormenta de asteroides. Existen hipótesis de que un tal acontecimiento precedió al impacto del asteroide que parece haber terminado con la era de los dinosaurios. Si esto es lo que ocurrió, no sería la primera vez que el caos ha tenido un impacto en la biología... y ciertamente no fue la última. El efecto mariposa rige la biología con la misma certeza con que rige la oscilación de un péndulo doble.

El caos de la naturaleza
La teoría del caos ha tenido un impacto enorme en la ciencia de la ecología. La idea de que las poblaciones crecen en las épocas favorables y se reducen en las desfavorables ha sido siempre una parte fundamental del pensamiento biológico, pero el auge de la teoría del caos y del efecto mariposa creó un momento «¡Eureka!». Antes de que apareciera el caos, los biólogos de inclinación matemática escribían ecuaciones que se aproximaban a las situaciones en las que estaban interesados. Por ejemplo, podían describir cuántas ardillas vivían en un kilómetro cuadrado, lo abundantes que eran sus recursos alimentarios, con qué frecuencia se reproducían y cuántos depredadores compartían el territorio.
A partir de aquí, podían deducir cómo dicha población de ardillas aumentaría y disminuiría a lo largo del tiempo. Pero cada vez que las ecuaciones daban resultados que parecían descontrolarse, los biólogos matemáticos «replanteaban» la situación hipotética, al suponer que en el sistema existía alguna inestabilidad que había que contener. Con el advenimiento de la teoría del caos, quedaba claro que los cambios erráticos podían muy fácilmente ser una parte natural del sistema.
Imaginemos, por ejemplo, una población de ardillas sin depredadores. Si, por término medio, cada adulto produce menos de un descendiente por generación, la población se irá reduciendo hasta llegar a cero. Si el número de descendientes es entre uno y tres, hay una cierta estabilidad. Sin embargo, si el número promedio de hijos por generación es superior a tres, las cosas se vuelven extrañas.
En la estadística de la población aparece una tendencia al «auge y caída». Esencialmente, es lo mismo que aquel silbido de la válvula de la línea telefónica que se mencionó antes: un proceso de retroalimentación crea oscilaciones erráticas. Los teóricos del caos lo llaman una «bifurcación». Significa que la población es especialmente sensible al número de descendientes por generación. En un año, la población explotará, pero en el siguiente se reducirá drásticamente. No hay una situación intermedia. Después, la bifurcación se divide una vez y otra y otra y las cosas acaban pareciendo aleatorias: no hay un patrón aparente. Pero sólo durante un período: a medida que pasa el tiempo, el número de descendientes aumenta de nuevo y, apareciendo de la nada, otra bifurcación entra en juego.
Esta complejidad se encuentra en todas partes en el mundo natural, y comprenderla puede salvar vidas. Por ejemplo, las pautas de acierto y fallo, arriba y abajo y auge y caída se dan en las epidemias de enfermedades como el sida, el sarampión y la poliomielitis. Debido a que el número de casos sigue una trayectoria caótica, ésta es sensible a un golpe tal como un programa de vacunación.

Patrones fractales
La secuencia del copo de nieve de Koch
He aquí una pregunta sencilla: ¿Qué longitud tiene la costa de Inglaterra? Si se hace la consulta en unas cuantas enciclopedias, las respuestas que se encontrarán serán totalmente distintas: las diferencias pueden ser de hasta un 20 %.23.jpg Ello se debe a que la respuesta más directa que se puede dar es que depende del tamaño de la regla con que se mida. Si se trabaja con una regla muy pequeña, siempre habrá rasgos del terreno más pequeños que medir. La línea de costa, como multitud de características del mundo natural, son autosimilares, o «fractales».
Como resultado, siempre se puede medir con más precisión una costa fractal, y aumentar la longitud total que ya se tiene. A medida que nos acercamos o nos alejamos de una estructura fractal, la esencia de nuestra visión no cambia. A cada escala de tamaño se repiten los mismos patrones. Si hay una imagen que no muestra nada más que dunas de arena de un desierto, u olas de un océano, por ejemplo, no podemos decir si estamos viendo unos cuantos kilómetros cuadrados o unos cuantos centímetros. Lo mismo ocurre con la línea de costa.
Crear un fractal es sólo cuestión de dibujar formas sencillas pero repetidas. El copo de nieve de Koch, por ejemplo, está compuesto de triángulos que se añaden al centro de cada lado de un triángulo ya existente. Los triángulos que se añaden tienen lados de un tercio de la longitud del lado sobre el que descansan. Después de unas cuantas iteraciones, el resultado es un patrón asombrosamente detallado.
Esta intrincación es la marca distintiva de los fractales, y es el punto en el que se relacionan con la teoría del caos.
La teoría del caos dice que generar una imagen perfectamente precisa depende de empezar con información perfectamente precisa, lo cual es imposible. En un sistema caótico, cualesquiera inexactitudes en la información se amplifican de manera grotesca para dar una imagen muy distorsionada. Los fractales son algo así como la teoría del caos cabeza abajo: la precisión de la información que se obtenga de una imagen depende de lo cerca que se la esté observando... y uno no puede acercarse nunca lo bastante para conseguir Información perfectamente precisa.
Como resultado, las manifestaciones del comportamiento fractal intrigan y enfurecen en igual medida. Los investigadores se han visto intrigados al encontrar estructuras fractales fuera del mundo natural. Los datos financieros (por ejemplo, los registros de las operaciones de bolsa) suelen tomar una forma fractal, lo que sugiere que su estructura detallada surge de reglas absurdamente simples. Pero inferir información útil acerca de tales reglas resulta difícil y frustrante hasta lo absurdo.
La estructura fractal más famosa es el conjunto de Mandelbrot. Creada por primera vez por el matemático francés Benoît Mandelbrot, está definida por una ecuación relativamente sencilla, pero forma un montaje complejo de globos, pinchos, espirales y chorros, todos los cuales contienen estructuras similares. Su atractivo estético casi no tiene parangón en matemáticas, pero ¿qué significa?
Esto todavía no está claro. Los investigadores han sugerido que la estructura fractal de los mercados financieros puede significar que los mercados se rigen por reglas sencillas y, por lo tanto, son mucho más fáciles de analizar (y así, quizá, de predecir) de lo que se pueda imaginar. La ubicuidad de estructuras fractales en los sistemas naturales y artificiales y en la cultura humana (muchas pautas musicales comunes, y el arte de Jackson Pollock, por ejemplo) ha llevado a Mandelbrot a afirmar que son una clave para descubrir grandes secretos del universo. Sin embargo, hasta el presente, el estudio de los fractales no ha producido ninguna revelación que podamos calificar de verdaderamente importante.

Pero dicho golpe no siempre elimina la enfermedad; lo que ocurre es que los números pueden adoptar un régimen inestable; por ejemplo, alrededor de una región de bifurcación. Esto significa que pueden aumentar las cifras de la enfermedad a corto plazo, lo que sugeriría que el programa de vacunación ha fracasado. Ser conscientes del caos permite que los investigadores médicos vean más allá de la respuesta inicial, y facilita la respuesta caótica, que dibuja lo que es de esperar sea una trayectoria descendente a largo plazo.
Comprender el caos biológico y el efecto mariposa también está salvando vidas en todo el mundo de una manera más inmediata. El corazón del lector bate debido a pulsos coordinados de electricidad que actúan a través de las células en una especie de onda, lo que provoca que el músculo se contraiga de maneras específicas y en momentos específicos. Cuando esto se altera, tiene lugar una «arritmia». Las arritmias cardíacas matan anualmente a cientos de miles de personas; por multitud de razones, el corazón puede dejar de latir normalmente (o dejar de latir del todo). A menudo todos los músculos se contraen aleatoriamente, y el corazón ya no es una bomba, sino un agitado revoltijo de tejido pulsante. Es un sistema caótico, un sistema en el que una sacudida adecuada puede hacer que el caos desaparezca.
Los médicos saben desde hace tiempo que una sacudida eléctrica puede resolver este problema, pero no se puede efectuar simplemente cualquier descarga en un corazón humano. Para volver a establecer el ritmo adecuado es necesario comprender su dinámica caótica. El corazón es, efectivamente, un oscilador como un péndulo. Y cuando se sabe cómo se puede controlar un péndulo caótico, también se puede diseñar un desfibrilador que funcione mucho mejor que los diseñados mediante prueba y error. Pero la otra área principal en la que el efecto mariposa se ha aplicado es precisamente aquella en la que empezó: el tiempo atmosférico.
Predeciblemente impredecible
A los meteorólogos les gusta producir simulaciones complejas de los sistemas meteorológicos de la Tierra en enormes superordenadores. Las simulaciones se basan en las leyes de la física, y modelan cosas tales como la manera en que las corrientes oceánicas y los vientos se desplazan alrededor del globo. Antes de la era de la mariposa podríamos haber pensado que una simulación adecuadamente potente podría predecir el tiempo meteorológico con semanas, meses e incluso años de adelanto. El caos nos dice que esto no es posible.
La dificultad es que la física de los modelos es aproximada, y los datos utilizados para establecer la simulación lo son todavía más. Las estaciones meteorológicas que se emplean para obtener información están dispersas por toda la Tierra, con grandes espacios vacíos entre ellas: no tenemos información procedente de los lugares que hay entre las estaciones meteorológicas. Ahora los científicos saben que, en sólo unos pocos días, estas fuentes de error son suficientes para hacer que los modelos meteorológicos sigan una trayectoria que no tendrá ninguna relación con el tiempo atmosférico que realmente ocurra. Una mariposa que bata sus alas en algún lugar entre las estaciones meteorológicas puede causar una tormenta que nadie vio venir.
Desde luego, los meteorólogos ponen de nuevo en marcha sus modelos cada vez que obtienen nuevos datos. También preparan predicciones «de conjunto», en las que introducen en el modelo condiciones iniciales ligeramente diferentes y observan cuánto varían los resultados. Esto les permite obtener un pronóstico promediado que tiene más probabilidades de ser más exacto que cualquier predicción. También permite una medida de la fiabilidad de su pronóstico. No es suficiente tener una predicción del tiempo; es mejor tener una idea de la medida en que se puede confiar en dicha predicción.
Irónicamente, las predicciones a más largo plazo funcionan muy bien: la ciencia de la predicción del clima no es tan sensible a las condiciones iniciales como lo son las predicciones meteorológicas a corto plazo. Ello se debe en esencia a que la predicción del clima trata más de generalidades que de aspectos concretos. El batir de las alas de una mariposa puede causar una tormenta en Texas, pero otro batir puede calmar una tormenta que ya estaba produciéndose. A lo largo de los 30 años de media que constituye un análisis climático, el número de tormentas se compensa y cada mariposa se vuelve irrelevante.
Lorenz utilizó las ecuaciones de la teoría del caos para demostrarlo. Cuando se observa un atractor extraño, se ve una forma determinada. Aplicado a la ciencia del clima, la forma que se ve indica el clima futuro. La línea que fluye y que se desplaza de manera impredecible, que crea gradualmente la forma, es como el ruido de la señal; no es el parámetro que interesa. Esto significa que al efectuar simulaciones del clima, por caóticas que sus predicciones puedan ser a corto plazo, se revela una imagen grosera pero fiable de lo que va a ocurrir. Así pues, ¿significa desastre la teoría del caos? Más bien lo contrario: esta mariposa que batía las alas ha sido fundamental a la hora de advertirnos acerca de la mayor de las amenazas a las que se enfrenta la humanidad: el cambio climático desbocado inducido por la actividad humana. El caos no siempre es un problema.


Capítulo 15
¿Qué es la luz?
Un extraño tipo de onda y un tipo de partícula todavía más extraño

¿Qué es poesía? Pues, señor, es mucho más fácil decir lo que no es. Todos sabemos lo que es la luz, pero no es fácil decir lo que es.» Samuel Johnson pensaba que ésta era una justificación convincente para las dificultades de definir la poesía. Lamentablemente, la idea de que todos sabemos lo que es la luz tiene un fallo fundamental. No está claro que lo sepamos.

Cuando Johnson escribió estas palabras en la Inglaterra del siglo XVIII, la teoría de Isaac Newton de que la luz eran partículas o «corpúsculos» de energía era aceptada universalmente. A los 20 años de la muerte de Johnson, Thomas Young había «demostrado» que la luz era una onda, no una partícula. Un siglo más tarde, Albert Einstein demostró que la luz era, de nuevo, partículas. Ahora hemos de pensar en ella como ambas cosas... o como ninguna. La luz, la metáfora universal para la comprensión y la revelación, es asombrosamente opaca.
Una cosa acerca de la luz es cierta: es esencial para nuestra existencia. Sin la luz procedente del Sol, las plantas no podrían emplear la fotosíntesis para captar energía y crecer, y nosotros no tendríamos nada que comer. Los seres humanos desprovistos de luz sufren depresión; investigadores que mantuvieron a ratas en la oscuridad durante seis meses vieron que sus células cerebrales morían por falta de luz. La exposición insuficiente a la luz solar directa crea problemas esqueléticos como el raquitismo. Sea lo que sea la luz, la necesitamos.
Esto lo reconocieron las civilizaciones antiguas. El monumento neolítico de Stonehenge es, a lo que parece, un templo al Sol que confiere la vida. Los egipcios adoraban a Ra, el dios sol, como dador de vida. Pero los primeros que intentaron una definición de la luz fueron los antiguos griegos, que eran algo más circunspectos que los egipcios: para ellos, la luz no era algo que reverenciar, sino un subproducto del fuego, uno de los cuatro elementos fundamentales que constituían el universo.
Había diversas ideas griegas acerca de la naturaleza de la luz y de la visión. La más desarrollada era la de Euclides. La luz procedente de un objeto se mezclaba con la luz procedente del ojo, decía, pero una persona sólo podía ver el objeto cuando el fuego del ojo se reflejaba directamente desde el objeto. Sin embargo, sólo se aproximaba a la teoría científica moderna en que la luz viajaba en línea recta. Y tuvimos que esperar casi dos milenios antes de que alguien intentara hacer avanzar nuestra comprensión de la luz. Dicho progreso lo realizó un francés, Rene Descartes, a principios del siglo XVII.

De ondas a partículas, de partículas a ondas
La contribución de Descartes no fue duradera. Su idea era que el espacio está lleno de un fluido invisible que denominó «pleno». El pleno, decía Descartes, tiene una «tendencia al movimiento», de manera que una bujía crea una presión en el pleno de forma muy parecida a como un tambor crea ondas sonoras en el aire. Esta presión se transmite al globo ocular y se manifiesta como luz. Casi tan pronto como empezó a pensar en ella, Isaac Newton desprestigió esta teoría.
Si la luz no es otra cosa que la presión del pleno en el ojo, argumentaba Newton, entonces ponerse a correr en una noche oscura tendría que inundar el mundo de luz. Newton era un gran partidario de la idea emergente del átomo: de que, a las escalas más pequeñas, todo puede dividirse en partes componentes. La luz, aducía, no tiene por qué ser diferente. Sugirió que estaba compuesta de elementos atómicos a los que Newton se refería como «corpúsculos».
La teoría corpuscular reinó durante 150 años, pero no lo tuvo fácil. Robert Hooke, el gran rival de Newton, había producido una teoría ondulatoria que competía con la corpuscular (las teorías ondulatorias de aquella época suponían la existencia de un «éter» en el que la luz creaba vibraciones), y lo mismo había hecho el matemático y astrónomo holandés Christian Huygens. Ambas ideas se comprobaron experimentalmente; realmente, fue sólo la reputación de Newton lo que dio a los corpúsculos su capacidad de perdurar. Después, en 1803, Thomas Young realizó la demostración definitiva de la naturaleza ondulatoria cié la luz.
La demostración de Young se centraba en el hecho de que la interacción de dos ondas de agua produce patrones geométricos predecibles (véase ¿Qué le pasó al gato de Schrödinger?). Allí donde se encuentran las crestas de las olas, hay una «interferencia constructiva»: una cresta cuyo tamaño es el doble. Allí donde coinciden dos valles, la «interferencia destructiva» hace que el valle sea el doble de profundo. Donde coinciden una cresta y un valle, el resultado es agua plana. Conociendo la velocidad y la dirección de desplazamiento de las ondas de agua y su separación inicial, era posible predecir los patrones ondulatorios resultantes en el agua. Si la luz es una onda, debe producirse el mismo fenómeno cuando la luz pasa a través de una doble rendija. Las dos ondas luminosas que interactúan deben producir un «patrón de interferencia».

Interfiriendo con el éter
El experimento de la doble rendija de Young, que en la actualidad es algo rutinario en el laboratorio de ciencias de los institutos, funcionó la mar de bien. Mató de golpe la teoría corpuscular: la luz era ondulatoria, sin ninguna duda. Sólo quedaba una cuestión: si la luz es una onda, ¿a través de qué se desplaza dicha onda? La respuesta original era parecida al pleno de Descartes: el éter, una sustancia fantasmagórica que llenaba espacio y tiempo y proporcionaba el medio a través del cual se transmitían la electricidad, la luz y el magnetismo. Sin embargo, un experimento realizado a finales del siglo XIX demostró que el éter no existía, al menos no de ninguna manera que permitiera la transmisión de la luz.
En 1887, Albert Michelson y Edward Morley se dispusieron a demostrar que el éter sí que existía. Su experimento de interferometría comprendía una mesa giratoria que mediría la velocidad de la luz en direcciones variables. La idea era que, si soplaba un «viento de éter», la luz se iba a mover a diferentes velocidades en direcciones diferentes. Dicha diferencia se mostraría en el interferómetro, que modificaría el patrón de interferencia.

«Probablemente se os dijo que la luz se comportaba como ondas. Os voy a decir de qué manera se comporta: como partículas.»

El experimento no consiguió detectar un éter, cosa que asombró a los físicos de la época. Incluso aunque era evidente que la luz podía desplazarse a través de un vacío, con lo que era fundamentalmente distinta del sonido, se suponía que todavía necesitaba viajar a través de algo. La luz presentaba características ondulatorias, pero si no había éter a través del que pudiera desplazarse, la luz no era el tipo de onda con que se habían encontrado anteriormente. Hemos llegado a un acertijo que sigue sin haberse resuelto. Sí, la luz es una onda. Pero es distinta de cualquier otra onda.
Y algunas de las mejores mentes de la física insisten en que no es ninguna onda en absoluto.

El corpúsculo cabalga de nuevo
Quizá Richard Feynman fue quien lo planteó de manera más enérgica. «Quiero destacar que la luz aparece en esta forma: partículas —les dijo una vez a sus estudiantes—. Es muy importante saber que la luz se comporta como partículas, en especial para aquellos de vosotros que habéis ido al instituto, donde probablemente se os dijo que la luz se comportaba como ondas. Os voy a decir de qué manera se comporta: como partículas.»
Si la insistencia de Feynman no es razón suficiente para que el lector abandone la imagen de una onda, considere esto. Albert Einstein demostró que la luz llega en forma de partículas. Su experimento, que publicó en 1905, se llamó «efecto fotoeléctrico», y su física se halla detrás del funcionamiento de la energía solar. Hacía algún tiempo que se sabía que la luz que incide sobre la superficie de un metal puede liberar electrones del mismo. Sin embargo, nadie comprendía por qué el flujo de electrones liberados parecía aumentar cuando la frecuencia de la luz se desplazaba hacia el extremo ultravioleta, de alta frecuencia, del espectro luminoso. El sentido común (tal como dictaba la teoría electromagnética de Maxwell) decía que la corriente debería aumentar con la intensidad de la luz, no con su frecuencia.
Einstein resolvió el problema con la hipótesis de un fotón: un paquete de energía que era la partícula cuántica de luz. En la predicción de Einstein, el número de electrones liberados del metal dependería de la energía del fotón, que es proporcional a la frecuencia de la «onda» luminosa. Sólo los fotones con un determinado mínimo de energía podrían liberar un electrón. Los fotones que golpearan el metal con energía superior a dicho umbral no sólo liberarían un electrón, sino que le conferirían su energía adicional. Experimentos que medían la energía cinética de los electrones emitidos demostraban que esto era lo que ocurría, y Einstein recibió el premio Nobel de Física de 1921.
Quizá es desafortunado que el mayor físico del siglo XX, el creador de la relatividad general y especial, obtuviera su premio Nobel por el descubrimiento del fotón. A pesar del premio Nobel y a pesar de la insistencia de Feynman, la idea de partículas de luz sigue siendo uno de los conceptos más vacilantes de la física.

24.jpg
El efecto fotoeléctrico

Es fácil pensar en los fotones como partículas de la misma manera en que pensamos en los electrones o protones como partículas. Pero los fotones son mucho menos particulados que esto. Por ejemplo, carecen de masa.
El físico Willis Lamb, que hizo muchos descubrimientos importantes durante una carrera estelar en los famosos Laboratorios Bell, llegó incluso a afirmar que el término «fotón» tenía que prohibirse en física. En el mejor de los casos, dijo, el término debería utilizarse con autorización; y Lamb sólo daría las autorizaciones en aquellos casos en que creyera que había una necesidad real de apartarse de la imagen ondulatoria de la luz.

Iluminando el cosmos
Si todavía no podemos poner el dedo sobre los aspectos fundamentales de la naturaleza de la luz, aún podemos decir muchas cosas acerca de la primacía del papel de la luz en nuestras descripciones del universo. Lo más importante de todo es el hecho de que la luz es la cosa más rápida del cosmos. Hubo un tiempo en el que los físicos creían que la luz se desplaza infinitamente deprisa, y que la luz procedente de estrellas o planetas distantes aparecía instantáneamente en nuestros ojos cada vez que mirábamos hacia el cielo. A finales del siglo XVII esta idea había muerto ya, pues había experimentos que demostraban que una velocidad finita de la luz podía explicar anomalías tales como la órbita irregular de Io, la luna más interna de Júpiter. Pero la idea de que nada podía viajar a mayor velocidad que la luz parecía al principio como si se hubiera extraído de ninguna parte.
Dicha idea surgió de consideraciones de las ecuaciones de Maxwell que describen los fenómenos electromagnéticos. Sabemos que el movimiento de una carga eléctrica (la electricidad) hace que en sus inmediaciones aparezca un campo magnético. Este mismo campo magnético genera electricidad a medida que crece. Y de esta manera el ciclo se repite. Maxwell encontró que esto resultaba en algo que se movía con la intensidad ondulante de una onda, y que podía calcular la velocidad a la que se desplazaba hacia delante. Era un valor bien conocido, la misma velocidad que los astrónomos habían encontrado (midiendo el momento en que se producían eclipses y las órbitas de planetas y lunas) que era la velocidad de la luz. Por lo tanto, razonó Maxwell, la luz tiene que ser un fenómeno electromagnético.
Esto estuvo muy bien hasta que los físicos se dieron cuenta de que no todos los fenómenos electromagnéticos se comportaban como debieran. Si se analiza la radiación que emite algo que se mueve en relación a nosotros, se encontrará que no obedece exactamente las ecuaciones de Maxwell. Einstein estableció esto con un paso radical. A partir de la presunción de que las leyes de la física han de ser las mismas con independencia de cómo se desplace uno, propuso una nueva ley: que la velocidad de la luz siempre es constante y que nada puede moverse más rápido que ella.

Fijando la velocidad de la luz
Cuando los faros de un automóvil pasan junto a nosotros, la luz que emiten no se acelera por el movimiento del coche. Más aún, si entonces el automóvil reduce la velocidad, la luz no lo hace. Siempre viaja a un poco menos de 300 millones de metros por segundo. Esta idea contraintuitiva, que se encuentra en el meollo de la teoría especial de la relatividad de Einstein, tiene consecuencias enormemente extrañas (véase ¿Qué es el tiempo?). Pero se ha demostrado que es cierta en innumerables experimentos. Y, según la relatividad de Einstein, cuanto más cerca nos hallamos de la velocidad de la luz, más difícil resulta acelerar más.
Este efecto restablece el orden en el universo, lo que permite que las ecuaciones de Maxwell describan cualquier situación, sin importar cuánto movimiento relativo hay entre el emisor y el detector de la radiación. Al poner las cosas al día, ahora tenemos una versión cuántica de la obra de Maxwell, llamada electrodinámica cuántica, o QED, y ésta escribe perfectamente el comportamiento de la luz. Sea lo que sea la luz, darnos cuenta de que viaja a una velocidad constante con independencia de las circunstancias nos ha permitido cartografiar el pasado, el presente y el futuro del cosmos.
Cuando vemos luz procedente de una estrella distante, sabemos que ha viajado a través del tiempo así como del espacio. Nuestra visión del Sol es siempre como era hace ocho minutos; la luz procedente de otras estrellas proporciona una visión mucho más profunda del pasado. Más aún: al ver estrellas en sus diversos grados de desarrollo, al tiempo que sabemos lo alejadas que están, podemos decir lo que ocurrirá durante la vida de una estrella: información que podemos utilizar para predecir lo que ocurrirá en el futuro. Por ejemplo, ahora se comprende bien el camino que seguirá nuestro Sol: pasarán unos 5.000 millones de años antes de que empiece a morir, un proceso que lo verá hincharse hasta una «gigante roja» y absorber la mayoría de planetas, incluida la Tierra.

Un poder misterioso
La otra gran aplicación que ha surgido de nuestra comprensión más profunda de la luz es la tecnología que quizá define mejor el siglo XX: el láser. En una época de reproductores de CD, escáneres de comprobación en los supermercados, cables ópticos telefónicos de alta velocidad y cirugía correctora ocular, es difícil creer que los inventores del láser no sabían para qué podría utilizarse.
El láser es un acrónimo de amplificación de luz mediante la emisión estimulada de radiación (Light Amplification by Stimulated Emission of Radiation). La luz de una bombilla corriente, o incluso la del Sol, procede de átomos que liberan luz de manera individual.

Se puede viajar a mayor velocidad que la luz
La idea de desplazarse a la velocidad de la luz tomó un giro extraño cuando, en 1999, Lene Hau redujo la velocidad de la luz a la de una bicicleta que pasa. Esto es posible mediante el uso de dos láseres: uno para «preparar» algunos átomos de sodio, y otro para proporcionar un pulso de luz para «retardar». La energía del haz de preparación se sintoniza en un valor que hace que los átomos de sodio se encuentren en un estado en el que no pueden absorber el «pulso de luz que se retarda». Esto significa que el pulso, que normalmente se absorbería, viaja a través de la nube de átomos.
Pero, a medida que viaja, cede algo de su energía a los átomos de sodio. Esos átomos retienen la energía por un momento, y después la sueltan de nuevo en el pulso que viaja. El resultado es parecido a desconectar los vagones delanteros de un tren y volverlos a conectar al final del mismo. Aunque los vagones se mueven a una velocidad normal, el avance del tren en su conjunto queda afectado.
Así, aunque la velocidad de la luz se reduce, en realidad se trata de un juego de manos. Dos años después, Hau fue un paso más allá y asombró al mundo al detener completamente la luz. Para hacerlo, se altera todavía más el estado cuántico de los átomos, hasta el punto de que conservan la energía tanto tiempo como se quiera. Al hacer salir a los átomos de dicho estado, Hau podía liberar la luz.

El principio que hay detrás del láser es bombear energía en un gas de átomos y después liberarla de manera controlada: los pulsos son «coherentes», lo que significa que están trabados entre sí para dar un haz intenso y potente.
Esto puede conseguirse cebando los átomos con una descarga de energía que haga pasar a uno de sus electrones a un estado energético elevado. Una segunda descarga hace que ese electrón vuelva a su estado anterior. Cuando cae, emite un fotón de luz, lo que desencadena una reacción en cadena. Cada fotón hace que otro caiga de su estado de energía elevada, estimulando así la emisión ele más fotones de otros átomos del gas, que a su vez estimulan más emisión. El resultado es un haz de láser.
Es más fácil explicar el mecanismo que subyace a los láseres utilizando la aproximación del fotón, pero la potencia del haz se ajusta más a una descripción ondulatoria. Sabemos que las ondas, como las olas de agua, pueden sumarse si se encuentran «en fase», es decir, cuando sus picos coinciden. El resultado es una onda enormemente potente que es, esencialmente, a lo que se parece un haz de luz de láser.
No es sólo la potencia de los láseres lo que los hace tan útiles. El hecho de que la luz esté tan firmemente controlada, con los fotones trabados entre sí, hace de ellos una gran herramienta científica, utilizada de múltiples maneras, desde encontrar la distancia a la Luna hasta hurgar en los secretos del átomo. Las aplicaciones secundarias, tales como el escaneo de códigos de barras, la lectura de información grabada en CID y el haber hecho posible la industria moderna de las telecomunicaciones, son sólo la alcorza del pastel del láser.
Sin embargo, nada en relación con el láser resuelve el debate acerca de si la luz es una onda o una partícula. A pesar de toda nuestra capacidad para interpretar lo que la luz nos dice acerca del universo, y de usar su potencia para cambiar el mundo que nos rodea, la naturaleza misma de la luz sigue siendo escurridiza. Thomas Young se sorprendería al descubrir que ahora podemos duplicar su experimento de la doble rendija (el experimento que demostró que la luz es una onda) y modificar su disposición de manera que la única explicación viable es que la naturaleza de la luz es particulada. Todavía no tenemos una manera buena de unir las teorías ondulatoria y particulada. Este enigma se halla en el meollo de la teoría cuántica, y sigue siendo un misterio (véase ¿Qué le pasó al gato de Schrödinger?).
¿Qué es la luz? Es una ondícula.


Capítulo 16
¿Trata realmente de cuerdas la teoría de cuerdas?
Las vibraciones que crean nuestro universo

Bueno, no. En realidad, tiene que ver con un universo compuesto de lazos elásticos que se forman a partir de hebras extensibles de energía unidas entre sí. Pero, tal como ha dicho al menos un físico, una teoría que se llame de cinta de goma carece de dignidad, y un poco de dignidad parece apropiado para una teoría que es nuestra mejor esperanza de comprender finalmente el universo.

Podemos calificar la teoría de cuerdas como una idea nueva, ultramoderna, pero no lo es. Apareció por primera vez en 1968 como resultado de nuestra infatuación con la física de partículas posterior a la guerra. El descubrimiento del núcleo atómico se hizo sólo en 1911. Aprendimos a escindir el átomo en 1938, y al cabo de 20 años ya habíamos descubierto casi todo lo que hay que saber sobre física nuclear. Diez años después nació la teoría de cuerdas, un intento audaz de ampliar estos nuevos horizontes para abarcar todo el universo.
Surgió porque un físico italiano llamado Gabriele Veneziano pasó su juventud examinando atentamente los resultados de experimentos que hacían chocar entre sí protones a altas energías. Finalmente empezó a ver un patrón en los datos: dos protones que colisionaban provocaban que determinados tipos de partículas salieran disparadas del lugar del choque en ángulos predecibles.
Los productos iniciales de estas colisiones eran quarks, las partículas que constituyen los protones. Sin embargo, posteriormente los quarks se combinaban para dar distintos tipos de partículas. La mayoría de dichas partículas eran inestables y de vida corta. Cuando Veneziano llamó la atención de los físicos acerca de la predecibilidad de su formación, algunos de ellos empezaron a pergeñar una explicación.
Los resultados tienen sentido, decían, si olvidamos la idea de que las partículas son puntos diminutos de materia y, en cambio, las imaginamos como fragmentos de cuerda. La energía que llevan hace que vibren, y a medida que las partículas ganan y pierden energía, estas cuerdas se alargan y se acortan. Cuando las cuerdas vibrantes colisionan, la gama de vibraciones resultante origina lo que interpretamos como diferentes tipos de partículas subatómicas. Ahora parece impresionante, pero entonces nadie la consideró de entrada una «teoría del todo» triunfante. De hecho, a uno de los autores de la teoría de cuerdas le rechazaron su artículo por ser más bien insignificante. Pero los problemas que tuvo fueron significantes.

Problemas de dentición
En la naturaleza, podemos dividir (de una manera aproximada) las partículas en dos tipos. Los «fermiones», como el electrón o el quark, constituyen la materia. Los «bosones», como el fotón, son las partículas que transmiten fuerzas. La teoría de cuerdas estableció las reglas para los bosones, pero no tenía nada que decir acerca de la existencia o el comportamiento de los fermiones. Puesto que los fermiones explican los constituyentes básicos de la materia, esto era un defecto grande. Pero no era el único.
Si los físicos tuvieran que tomarse en serio la teoría de cuerdas tendrían que hacerla consistente con los pilares gemelos de la física en el siglo XX: la mecánica cuántica y la relatividad. La única manera en que los teóricos de las cuerdas podrían consumirlo sería plantear un universo que contuviera 25 dimensiones del espacio, al tiempo que admitiera la existencia de partículas a las que nunca se pudiera detener y la de otras que se desplazaran a velocidad mayor que la de la luz.

25.jpg
Vibraciones de cuerdas

Todo esto era demasiado que soportar, y durante unos pocos años la teoría de cuerdas permaneció olvidada y sin ser explotada. No ayudaba el hecho de que la teoría de cuerdas estaba pensada para ser una manera de describir lo que se conoce como interacción fuerte de la física nuclear, la fuerza que mantiene unidos a los quarks para formar protones y neutrones. Mientras la teoría de cuerdas permanecía en barbecho surgió lo que ahora se conoce como «modelo estándar» de la física de partículas. Este relacionó todo lo que sabíamos de las partículas subatómicas en un todo muy pulcro. La teoría de cuerdas parecía superflua, incluso un poco disparatada.
Así pues, ¿cómo fue que la teoría de cuerdas se convirtió en la respuesta a las plegarias de los físicos? La mayor parte del trabajo duro la realizó en 1970 un físico francés llamado Pierre Ramond. Encontró las vibraciones de las cuerdas que dieron origen a los fermionex Por añadidura, esto también eliminó la necesidad de partículas más veloces que la luz y redujo el número de dimensiones adicionales requeridas a sólo nueve. Ahora la teoría de cuerdas se convirtió en la «teoría de supercuerdas» y (¡aleluya!) era consistente con la teoría cuántica y la relatividad. Sólo quedaba un problema que tratar: la sugerencia de los teóricos de las cuerdas de que algunas partículas no podían dejar de moverse nunca.
La solución a esto fue la que realmente importaba. El ascenso meteórico a la fama de la teoría de cuerdas se consiguió con el descubrimiento de que sus partículas imposibles de detener eran las que los físicos hacía tiempo que tenían la esperanza de crear en una teoría fundamental: el fotón, la partícula cuántica de la luz y, lo que era todavía más excitante, el gravitón, la partícula cuántica de la gravedad.

De dónde proviene la gravedad
Si encontrar una justificación teórica para el fotón era una buena noticia, posteriormente el descubrimiento de que la teoría de cuerdas producía el gravitón fue la sustancia de los sueños de los físicos. Desde el inicio de la teoría cuántica en la década de 1930, los físicos han querido encontrar dónde se encuentran la gravedad y las demás fuerzas. Quizá aquí estaba la respuesta.
Las diversas fuerzas de la naturaleza (las fuerzas fuerte y débil que actúan en el núcleo, y la fuerza electromagnética que actúa entre partículas cargadas) parecen tener una naturaleza fundamentalmente distinta de la fuerza gravitatoria. La gravedad funciona con reglas diferentes. Por ejemplo, sólo atrae, mientras que el electromagnetismo atrae y repele. En último término, los físicos pretendían explicar este carácter único. Y la teoría de cuerdas parecía ser capaz de hacer precisamente eso.
En la teoría de cuerdas, los extremos de las cuerdas están asociados a una partícula y a su antipartícula; un electrón y un positrón, pongamos por caso. La vibración de la cuerda lleva la fuerza que actúa entre este par de cargas. Una cuerda puede romperse en dos o colisionar con otra cuerda. El resultado de todo esto produce cuerdas que en ocasiones se cierran formando una lazada. No hay carga asociada con esta lazada de la cuerda, sólo una fuerza que se corresponde con las características de la fuerza que conocemos como gravedad.
Darse cuenta de que la teoría de cuerdas incluía la gravedad encendió una bombilla sobre la cabeza de innumerables físicos.
Todo el tiempo habían considerado que la teoría de cuerdas era un medio para describir las interacciones nucleares, pero lo que tenían realmente era una teoría cuántica de la gravedad, una gran teoría unificada, una teoría del todo. Casi de la noche a la mañana, la teoría de cuerdas se convirtió en la gran y nueva esperanza para la física. Sin embargo, dicha esperanza hace tiempo que se ha postergado. Fue en 1984 cuando la teoría de cuerdas parecía dispuesta a completar la tarea que Einstein había empezado. Y de esto ya hace casi tres décadas. De manera que, ¿dónde está la teoría final prometida? Esta pregunta resulta ser muy discutible.

¿Una teoría final?
Nadie duda de que necesitemos una teoría final. La mecánica cuántica y la relatividad son mutuamente inconsistentes, casi hasta un grado absurdo. Las leyes de la física, por ejemplo, son diferentes para partículas cuánticas que se desplazan de maneras diferentes a través del universo. La descripción cuántica de un electrón en reposo es distinta de la descripción cuando el electrón se mueve a una velocidad cercana a la de la luz. Albert Einstein había construido la teoría de la relatividad precisamente para evitar tales problemas.
Si se considera desde la otra dirección, la relatividad no tiene sentido cuando se la observa a través de una lente cuántica. Los cálculos cuánticos pueden hacerse sin referencia al tiempo o a la distancia, por ejemplo, pero la relatividad no puede arreglárselas con nada que no necesite tiempo o espacio. En potencia, la teoría de cuerdas puede salvar todos estos problemas. Pero todavía no lo ha hecho, al menos no hasta el punto en el que resulte abrumadoramente atractiva como teoría. Antes de que se la pueda aclamar como la nueva «überteoría (superteoría), antes de que podamos decir que el universo está realmente hecho de cuerdas, la teoría tiene que conquistar sus propios demonios.
Uno de ellos fue inmediatamente evidente desde el inicio. Vivimos en sólo tres dimensiones del espacio, pero para ser consistente con la relatividad y la teoría cuántica, la teoría de cuerdas necesitaba inicialmente 25. Estas se redujeron luego a sólo Ó, pero eso sigue representando seis dimensiones que nunca se han visto. ¿Dónde están?
La respuesta breve es que, desde nuestra perspectiva, al menos, las dimensiones adicionales están arrolladas muy apretadamente, o «compactadas». Imagine el lector una manguera vista a una cierta distancia. Parece una línea unidimensional y no el objeto tridimensional que realmente es. Los teóricos de cuerdas dicen que así es como hemos de pensar con respecto a las dimensiones suplementarias. Están allí, pero apenas suponen ningún impacto en nuestras Un espacio de Calabi-Yau tres dimensiones espaciales.
Este no es sólo un razonamiento para salir del paso, sino que se ha llegado a él mediante matemáticas: las dimensiones adicionales pueden enrollarse en un toro de seis dimensiones, o cualquiera de las más de un millón de formas complejas hexadimensionales conocidas como espacios de Calabi-Yau. Esto, naturalmente, aporta mucha flexibilidad a la teoría de cuerdas. Por ejemplo, cada una de estas formas de Calabi-Yau lleva anexo un conjunto de variables que especifican su naturaleza exacta. Estas conferirán características distintas a las dimensiones compactadas, y tienen efectos impresionantes en las dimensiones que son aparentes a la vista.
El resultado de todo ello es que la teoría de cuerdas no describe un universo, sino muchos, todos ellos con propiedades algo diferentes. Por lo tanto, la teoría de cuerdas crea una multitud de universos de todas formas y tamaños... y aquí es donde empiezan realmente los argumentos acerca de la utilidad de la teoría de cuerdas. El debate es sencillo: ¿vemos esta multiplicidad de mundos posibles como un problema o como una oportunidad?

Un universo para cada uno
Los críticos de la teoría de cuerdas la llaman una teoría de cualquier cosa en lugar de una teoría del todo. Cualquier cosa vale, dicen: a menos que alguien encuentre una manera de entresacar nuestro uní verso de entre todas las posibilidades, la teoría de cuerdas no puede hacer ninguna predicción falsable acerca de la naturaleza de nuestro universo.

26.jpg
El espacio de Calabi-Yau

Así, ¿podemos llamarla realmente una teoría científica verdadera? Muchos teóricos de cuerdas rechazan de plano esta crítica. Si la teoría de cuerdas nos proporciona tantos universos, argumentan, quizá ello se deba a que existen tantos universos.
Es cierto que hay algo de verdad en este razonamiento. La cosmología moderna nos dice que es muy probable que el universo atravesara un período de «inflación» rápida justo después del Big Bang. Para decirlo de manera simple, el universo se hinchó como un globo y su tamaño aumentó por un factor de 1030 (es decir, se hizo un quintillón de veces mayor) en sólo una fracción de un milisegundo.
Nadie sabe por qué tuvo que ocurrir esto, pero es la mejor explicación para algunas características del cosmos que, de otro modo, resultan enigmáticas. El universo es homogéneo: en todas partes tiene el mismo aspecto. Esto es raro, porque el Big Bang tendría que haberlo creado de otra manera. Pero el misterio puede resolverse mediante la inflación: el universo que atraviesa un período de expansión rápida en los momentos tempranos de su vida se convertirá en homogéneo.
La inflación resulta ser también un apoyo útil para la teoría de cuerdas. Si la inflación tuvo lugar una vez, no hay razón por la que no tenga que ocurrir de nuevo. Cada retazo del espacio-tiempo está sometido a las mismas leyes, de modo que cada retazo puede, en teoría, generar un universo burbuja que crece hasta que se desgaja y se va flotando. De modo que incontables otros universos surgirán burbujeando de cada universo, se hincharán y se desgajarán para llevar una existencia independiente. Cada uno tendrá propiedades ligeramente diferentes a las de los demás. En otras palabras, las leyes de la física serán distintas: podría haber un universo sin gravedad, o uno en el que hubiera 17 tipos distintos de electrones. Según esta hipótesis, el universo es en realidad un multiverso: un paisaje de universos que toma todas las formas posibles. En algún lugar entre todos estos universos está el nuestro.
Hay que decir que no hay pruebas experimentales que apoyen esta idea, sólo una argumentación deductiva: que la inflación, aunque desprovista de apoyo experimental explícito de su parte, es la mejor explicación de las características de nuestro universo, y así podría ser de aplicación una y otra vez. Peor todavía: no puede haber pruebas, al menos en los términos científicos de la falsación que planteó el filósofo Karl Popper.

¿Es eso ciencia?
La idea estándar en ciencia es que uno plantea una hipótesis y ve si los experimentos pueden falsificarla (o falsaria). Las hipótesis que resisten los intentos de falsación obtienen apoyo, y a la larga pueden desarrollarse en teorías. La idea de la teoría de cuerdas del paisaje de universos no puede falsarse en estos términos. No hay manera de realizar ninguna predicción acerca de las propiedades de nuestro universo comparadas con las de otro; simplemente, los otros universos no son accesibles a nuestros experimentos.
Es posible hacer una virtud de ello; por ejemplo, los teóricos de cuerdas han insistido mucho en la observación de que la expansión de nuestro universo se está acelerando. No hay una buena explicación de por qué ello es así, y los teóricos de cuerdas se han aferrado a la falta de explicación como una especie de prueba indirecta: quizá no hay explicación, dicen; quizá es un ejemplo de cómo nuestro universo no es más que una posibilidad. En otros universos, las leyes de la física operan para mantener la expansión constante, y otros todavía tienen una expansión que se desacelera. La diversidad es la única ley. Si esto convierte a la teoría de cuerdas en un elefante blanco para la ciencia es un debate abierto entre los físicos. Pero sigue siendo cierto que por el momento no tenemos una mejor manera de progresar.
Hay otros intentos de construir una teoría del todo. Quizá el más avanzado sea el de la «gravedad cuántica de bucles», o LQG. Sugiere ésta que el espacio está compuesto en último término por cuantos indivisibles que tienen un tamaño de 1035 metros. Una red de conexiones entre estos nodos cuánticos (imagine el lector un mapa de las rutas de una compañía aérea) crea el espacio-tiempo en el que vivimos. Las partículas que se unen para crear nuestro mundo familiar de átomos y moléculas se crean cuando fluctuaciones cuánticas inducen nudos y marañas en este espacio-tiempo.
O ésta es la idea. La LQG todavía no es una respuesta bien definida al problema de unificar la teoría cuántica y la relatividad. De hecho, probablemente sólo haya un centenar de investigadores trabajando en ella en todo el mundo. Lo que significa que la teoría de cuerdas, con su fuerza laboral de miles de investigadores, mantiene su predominio. Pero, finalmente, el plan es sustituirla por otra teoría: la teoría M.

Lo que hay debajo
De manera un tanto sorprendente, nadie está seguro de qué significa M. Sin embargo, sea cual sea su origen, la M de la teoría M ha terminado asociándose a membranas. Para hacer que las matemáticas funcionen, los teóricos de cuerdas han postulado que las 11 dimensiones de la teoría de cuerdas están pobladas por superficies llamadas «branas» (abreviación de membranas) así como por las cuerdas. Dichas branas pueden tener hasta nueve dimensiones.
Aunque contribuyen a la riqueza de la teoría de cuerdas, al envolver las dimensiones compactadas, proporcionar un punto de anclaje para las cuerdas errantes y permitir nuevos tipos de universos que pudieran existir, el papel más famoso de las branas pudiera darse a la hora de establecer lo que (según la teoría de cuerdas) ocurrió antes del Big Bang. La idea es que nuestro universo surgió debido a una colisión entre dos branas tetradimensionales. La enorme energía cinética de las branas que colisionaron creó una enorme cantidad de calor: la bola del fuego del Big Bang y, de manera crucial, el zoo estándar de partículas que la física conoce. Se denomina a esta situación hipotética universo «ecpirótico», término griego que significa «nacido del fuego».
Resulta interesante que el universo ecpirótico elimina la necesidad de la inflación porque es creado homogéneo. Suprimir la inflación socava la idea de un paisaje infinito de universos variados.
Y esto significa que no tenemos que desistir de crear hipótesis falsables acerca de por qué nuestro universo es como es. Después de haber dicho todo esto, sólo una minoría de teóricos de cuerdas suscribe la hipótesis ecpirótica del universo, y puede ser que sólo una minoría de físicos tenga algo de fe en la capacidad de la teoría de cuerdas de explicar el universo. Así pues, ¿adónde conducirá esto? ¿Podemos al menos poner a prueba la teoría de cuerdas? He aquí otra pregunta que suscita debate. Por ahora, después de cuatro décadas de trabajo, hemos de encontrar todavía una manera de comprobar adecuadamente la idea de las cuerdas. Pero hay algunas posibilidades.

Fisgando las dimensiones adicionales
Una de las esperanzas ha sido que podamos ver indicios de las dimensiones adicionales ocultas. Un tal indicio podría ser una anomalía en la gravedad cuando examinamos sus efectos a escalas cada vez más pequeñas. La gravedad es una «ley cuadrática inversa»: si se duplica la distancia entre los dos objetos que se están comprobando, la fuerza entre ellos se reduce por un factor de cuatro. Si se triplica la distancia, se reduce por un factor de nueve. Pero si está en juego una dimensión minúscula y enrollada, dicha ley cuadrática inversa puede no describir exactamente lo que ocurre. La gravedad puede funcionar de manera algo diferente entre objetos que se encuentren separados por menos de un milímetro, por ejemplo.
Hasta ahora no hemos visto prueba alguna de ello. Pruebas de la ley cuadrática inversa hasta menos de seis décimas de milímetro no han mostrado dicha anomalía. Pero esto quizá no debería sorprendernos. Las propias cuerdas son diminutas, después de todo: menos de una milésima de trillonésima del diámetro de un átomo. ¿Cómo podríamos detectar una cosa tan increíblemente pequeña? Una esperanza es que algunas cuerdas hayan aumentado de tamaño debido a la expansión del universo. A medida que el cosmos crecía, algunas cuerdas cósmicas pueden haberse expandido hasta «supercuerdas» que podrían hallarse dispersas por el espacio. Es posible que podamos detectar su presencia por su efecto sobre la luz que viaja a través del universo: la elevada masa de las supercuerdas combaría la luz cuando ésta pasara, creando una ilusión óptica conocida como lente gravitatoria.
Después está la idea de que en la situación del universo estándar, no ecpirótico, la inflación habría creado rizos en el campo gravitatorio del universo primitivo. Esas «ondas gravitatorias» deben haberse conservado en la radiación cósmica de fondo de microondas (CFM), el eco del Big-Bang, pero la teoría de cuerdas impone límites a los fuertes que dichos rizos deben ser. Si fueran grandes, habrían desenrollado algunas de las dimensiones compactadas y tendríamos más de las tres dimensiones del espacio que normalmente experimentamos. De modo que los teóricos de cuerdas esperan que no haya ondas gravitatorias en la CFM. Pero tampoco aquí se trata de una prueba concluyente. Hasta el momento, no hay experimentos que «den en la diana» y que nos proporcionen un sí o un no, definitivos para la teoría. ¿Está el universo hecho de cuerdas? La respuesta es un preciso «quizá».


Capítulo 17
¿Por qué hay algo en lugar de nada?
El Big Bang, la antimateria y el misterio de nuestra existencia

¿Podría existir una pregunta mayor? ¿Por qué nosotros, la galaxia, el universo, todo, existimos? Para comprender la pregunta, hemos de volver al principio de todo; esto es, si podemos encontrar uno.

En muchas culturas, no existe tal cosa como un principio. Los antiguos griegos, por ejemplo, reverenciaban el concepto del círculo, y todo lo que era esencial para el universo, incluyendo el propio universo, existía en ciclos que se repetían continuamente.
Hasta el principio del siglo XX, el consenso entre los astrónomos era muy parecido: nuestro universo había existido durante toda la eternidad y no tenía sentido hablar de un principio. Lo que, desde luego, intranquilizaba algo a las autoridades eclesiásticas.
El libro del Génesis empieza con un principio: algo se creó a partir de nada. Quizá ésta fue la razón por la que un joven sacerdote belga llamado Georges Lemaître decidió que la astronomía necesitaba considerar un punto de génesis para el universo. Lemaître, profesor de física y consumado astrónomo, fue el primero en sugerir la idea que terminó conociéndose como el Big Bang. Su hipótesis era que todo surgió de un «átomo primordial» que se dividió para producir toda la materia del universo. Empezando con las ecuaciones de Einstein de la relatividad general, que describen las dimensiones del universo, demostró que su radio podía cambiar; en otras palabras, el universo podía expandirse.
Era más que una consideración teórica: también había pruebas de ello. Observaciones astronómicas recopiladas por Lemaître y otros demostraron que la mayoría de galaxias se alejaban de la nuestra. Para Lemaître resultaba clara una implicación intrigante. ¿Quizá las galaxias se alejaban porque el espacio-tiempo de Einstein se expandía? El artículo resultante de Lemaître sugería que vivimos en un universo en expansión, generado por la explosión de lo que llamó «el huevo cósmico».

Algo a partir de nada
El Papa estaba emocionado con el trabajo de Lemaître; los astrónomos no tanto. La idea de que el Papa fuera a aprobar una teoría científica (de que sus datos y teorías apoyaran la doctrina de la creación ex nihilo) cayó de manera incómoda. No obstante, a los pocos años el astrónomo inglés Edwin Hubble había impulsado la idea de un inicio para el universo hasta la primera línea de la cosmología. Hubble hizo avanzar la idea de Lemaître, reunió datos procedentes de muchos astrónomos diferentes y los complementó con los propios. Demostró de manera definitiva que casi todas las galaxias se alejaban volando de nosotros a velocidades enormes, y que el universo tenía que expandirse.
Sin embargo, la idea de que el universo no había sido siempre tal como ahora lo vemos continuó siendo un tema de debate intenso durante décadas. No fue hasta 1963 que se encontró la radiación cósmica de fondo de microondas, a la que a veces se ha calificado de «eco del Big Bang». En aquel punto, casi todos los oponentes del Big Bang se convencieron de que era realmente nuestra mejor explicación para la historia cósmica. Con la llegada de la cosmología del Big Bang; apareció la respuesta a por qué hay algo en lugar de nada. Pero sólo era una respuesta parcial. La idea plantea preguntas obvias: «¿Qué causó el Big Bang» y «¿Qué fue lo que estalló?».
Aquí los físicos han tomado diversos caminos. Algunos dicen que estas preguntas no tienen sentido porque el tiempo empezó a existir en el momento del Big Bang; por lo tanto, la idea de «antes» carece de sentido. Es, dicen, como preguntar qué hay al norte del Polo Norte. Otros intentan dar alguna respuesta, pero las respuestas son poco más que especulaciones no comprobables. Invocan fenómenos cuánticos tales como el principio de incertidumbre de Heisenberg, que dice que nada puede tener una cantidad exacta de energía, y ello incluye un universo con energía cero. Por lo tanto, las fluctuaciones cuánticas darán origen a un universo con una cierta cantidad de energía, y hay procesos que pueden amplificarla para crear un Big Bang.
Hay algunos físicos (notablemente Stephen Hawking) que dicen que el Big Bang no fue el principio de todo, sino que fue el resultado de procesos que tuvieron lugar en otras dimensiones (véase ¿Puedo cambiar el universo con una simple mirada?). Otros llevan la cosa más allá y sugieren que nos hallamos en un «universo cíclico» que está atrapado en un ciclo interminable de creación y destrucción cuando objetos conocidos como «branas», que existen en estas otras dimensiones, chocan entre sí y se separan continuamente (véase ¿Trata realmente de cuerdas la teoría de cuerdas?). Dicho razonamiento es satisfactorio para los que quieren creer que no hay necesidad de una mano divina en la creación, pero no es convincente para los que no. Estos temas, a lo que parece, pueden hallarse más allá del alcance de la ciencia.
Pero incluso teniendo en cuenta los problemas de describir cómo surgió un Big Bang, hay otra cuestión, posterior, que tendría que haber asegurado que, muy poco después de que este algo se creara, de nuevo no hubiera nada. Antes de que Edwin Hubble hubiera sentado los cimientos de la teoría del Big Bang como una explicación de nuestra existencia, otro inglés, Paul Dirac, los estaba socavando. La cuestión queda completamente abierta gracias a la mayor contribución de Dirac a la física: la antimateria.

¿A donde fue toda la antimateria?
Dirac era un hombre extraño y callado con pocas habilidades sociales. Una conversación que se ha difundido mucho resume su carácter de manera bastante clara. Durante una cena formal en Cambridge, Dirac se sentaba junto al igualmente reticente E. M. Forster. Toda su conversación a lo largo de toda la cena consistió en un solo intercambio de palabras. En referencia a una escena de la novela de Forster Pasaje a la India, Dirac le preguntó: «¿Qué ocurrió en la cueva?». Forster, mucho más avanzada la cena, contestó: «No lo sé».
Era evidente que ambos entretenían el tiempo en su cabeza. En el caso de Dirac, ello fue ciertamente productivo. La existencia de la antimateria, que ahora se sabe que constituye una parte esencial del zoo de partículas subatómicas, no se sugirió debido a un resultado experimental en busca de una teoría. Surgió directamente de las consideraciones de Dirac de la ecuación que rige la teoría cuántica: la ecuación de Schrödinger (véase ¿Qué le pasó al gato de Schrödinger?).
Cuando describía la energía de una partícula cuántica, la ecuación de Schrödinger arrojaba algo que, a primera vista, era un rompecabezas imposible. La energía de una partícula que se moviera célere, decía, implicaba dos números. Dichos dos números, cuando se multiplicaban entre sí, daban un resultado de 0. Cada uno de ellos multiplicado por sí mismo, sin embargo, tenía que dar el resultado de 1.
En cualquier matemática normal, esto simplemente no se puede hacer. Pero utilizando conjuntos de números llamados matrices, Dirac lo hizo. El único precio que había que pagar era que la energía de la partícula cuántica podía ser tanto negativa como positiva. Y, mediante una tortuosa cadena de razonamiento, Dirac demostró que las partículas de energía negativa podían manifestarse en nuestro mundo. Su aspecto sería el de partículas familiares, pero con algunos ajustes extraños.
En 1928, en una serie de charlas, Dirac propuso la existencia de un antielectrón. Su aspecto sería exactamente el de un electrón, pero tendría una carga positiva. Se le ridiculizó. Los físicos de la época consideraban que la materia estaba constituida por electrones cargados negativamente y protones cargados positivamente, y nada más (habrían de pasar cuatro años antes de que se descubriera el neutrón). Impertérrito, Dirac publicó su teoría tres años después. El antielectrón, dijo, sería «un nuevo tipo de partícula, desconocido para la física experimental». Cuando encontrara un electrón, habría una aniquilación explosiva, predijo Dirac. Y lo mismo ocurriría con cualquier partícula: cada una de ellas tenía una némesis de antimateria.
Puede que este anuncio no arrojara el guante a la comunidad de la física, exactamente: Dirac estaba muy poco interesado en lo que pensaban los demás. No obstante, allí quedaba la predicción. Y, desconocidas para todos, también las pruebas estaban allí. Los físicos que estudiaban rayos cósmicos, las partículas cargadas que embisten contra la atmósfera de la Tierra creando una cascada de otras partículas, habían visto (pero no comprendido) la rúbrica de un antielectrón cinco años antes de que Dirac hiciera su anuncio. Cuando se las hacía atravesar un campo magnético, algunas de estas partículas se desviaban en la «dirección equivocada». Se señaló el caso como anómalo y se discutió en reuniones científicas por la misma época en que Dirac planteaba sus ideas teóricas. Pero no fue hasta 1932 que alguien sumó dos y dos, cuando Carl Anderson descubrió el antielectrón en los residuos de colisiones de rayos cósmicos. El descubrimiento le valió a Anderson un premio Nobel.

Antimateria en el universo
Una vez estuvo claro que la antimateria podía existir, fue algo natural preguntar cuánta hay en el universo. ¿Se halla por todas partes? ¿Se encuentra inadvertida en estrellas de antimateria y galaxias de antimateria? Y, si es así, ¿hay menos antimateria que materia en el universo? ¿Explicaría esto por qué hay algo en lugar de nada? El problema es que para dar respuesta a estas preguntas hay que saber muchas más cosas acerca de la antimateria. Pero ¿cómo se estudia algo que se aniquila al impactar con todo lo que nos rodea?
Hemos encontrado algunas respuestas en el espacio y ahora estamos razonablemente seguros de que no hay estrellas de antimateria ahí afuera, aunque en el universo existen fuentes naturales de antimateria. Una de ellas, captada por el telescopio INTEGRAL, es una fuente de electrones cargados positivamente, o positrones, que surge de algún lugar cercano al centro de la Vía Láctea. También hay pistas en la Tierra. Tal como demostró Carl Anderson, podemos estudiar la antimateria observando los residuos creados cuando los rayos cósmicos embisten contra la atmósfera de la Tierra. Pero no es una fuente abundante: los rayos cósmicos de energía elevada que impactan en las nubes de gas producen sólo alrededor de 3 o 4 toneladas de antimateria por hora en todo nuestro sistema solar.
En realidad, nuestros esfuerzos para crear antimateria en la Tierra son incluso más ineficaces. La principal fuente de antimateria es la Organización Europea para la Investigación Nuclear (CERN), en Ginebra, pero es un proceso increíblemente tosco.

Propulsión de antimateria
Comprender por qué la materia triunfó sobre la antimateria puede resultar crucial para la supervivencia de la humanidad. Incluso si nuestra especie sobrevive a desastres «locales», como el cambio climático desenfrenado, acabaremos por enfrentarnos a retos mucho mayores. Por ejemplo, en 5.000 millones de años, nuestro Sol agonizante se expandirá y absorberá a la Tierra. Incluso antes, en sólo 2.000 millones de años, nuestra galaxia colisionará con Andrómeda, lo que nos lanzará a un torbellino galáctico de estrellas y planetas en colisión.
Sobrevivir a tales situaciones futuras puede requerir encontrar un nuevo lugar donde vivir. Lamentablemente, las mejores formas de transporte que tenemos no nos llevarán a ningún lugar cercano a la Tierra sustituta más cercana. Pero la antimateria podría ayudar. Tomemos el mejor planeta candidato que hemos encontrado hasta ahora. Gliese 581c está a veinte años luz de distancia. Para llegar allí en el transcurso de una vida humana una nave necesitaría viajar a aproximadamente la mitad de la velocidad de la luz, y nuestros cohetes impulsados por energía química no se desplazan en absoluto a este tipo de velocidad.
Nuestra única esperanza es conseguir una nueva tecnología de propulsión... algo como la energía liberada cuando la materia colisiona con la antimateria. Un kilogramo de antimateria, aniquilada con la misma cantidad de materia normal, liberaría alrededor de 10.000 millones de veces la energía que libera la explosión de un kilogramo de TNT. Esto la hace 1.000 veces más eficiente, en términos de energía por kilo, que la fisión nuclear. Los cálculos de la NASA sugieren que una nave impulsada por 100 toneladas de antimateria podría alcanzar velocidades de 100.000 kilómetros por segundo.
Esto sería posible al crear un chorro de antimateria. La aniquilación crea partícula cargadas de alta energía que se desplazan a velocidades monstruosas. Utilícese un sistema de imanes para disparar esas partículas desde la parte posterior de la nave espacial, y la tercera ley de Newton (cada acción tiene una reacción igual y opuesta) supondrá un enorme impulso hacia delante para la nave espacial. Ahora, todo lo que tenemos que hacer es resolver el problema de cómo construir un sistema de propulsión de antimateria.

Los investigadores del CERN bombardean haces de protones cargados positivamente sobre un burujo de metal (cobre o tungsteno). El resultado de esto es una enorme rociada de partículas, algunas de las cuales son antiprotones cargados negativamente. Algunas de dichas partículas se esparcen en la dirección adecuada para ser capturadas en una trampa.

27.jpg
Antimateria en la trayectoria de los rayos cósmicos

Por cada 10.000 millones de joules de energía que los investigadores del CERN ponen en el proceso, obtienen el equivalente de un joule en forma de antimateria. Si se aniquilara toda la antimateria que se ha producido en el CERN, la energía liberada permitiría mantener encendida una única bombilla eléctrica durante no más que unos pocos minutos.
Tampoco es posible almacenarla para que suministre electricidad a una red. No puede permitirse que la antimateria toque la materia normal, de modo que sólo puede mantenerse mediante los campos electromagnéticos de una «trampa de Penning». Esta emplea campos magnéticos para mantener a las partículas alejadas de las paredes físicas de un recipiente. Los científicos sólo pueden almacenar antimateria en una trampa de Penning durante unos pocos minutos cada vez, y cada trampa puede contener únicamente un determinado número de partículas: tan pronto como su repulsión mutua supera la repulsión debida al campo magnético de la trampa, la antimateria se aniquila en las paredes del recipiente.
Más aún: las trampas del CERN sólo pueden contener un billón de partículas, que parecen muchas pero no lo son. Es aproximadamente la centésima parte del número de átomos que contiene la pelota de un niño; y esto se conseguiría sólo después de cientos de millones de años de producción en el CERN. El sueño de naves espaciales impulsadas por energía de la antimateria (véase el recuadro Propulsión de antimateria) tendrá que esperar a que dispongamos de una fuente de combustible mejor. Pero la escasez de antimateria no ha detenido al CERN para ofrecernos pistas de por qué algo sobrevivió y nada no lo hizo.

Perder el equilibrio
Los experimentos en el Gran Colisionador de Electrones y Positrones (GCEP) del CERN nos dicen que el Big Bang habría creado un universo en una situación en la que cinco metros cúbicos de espacio contenían 10 000 millones de antiprotones y 10.000 millones de protones más uno. Hoy en día, el mismo espacio contiene un protón y ningún antiprotón. En algún punto de nuestra historia, la materia y la antimateria se aniquilaron una a la otra, dejando sólo un protón por cada cinco metros cúbicos. Estos protones acabaron por unirse y formaron el universo que conocemos actualmente. Así, ¿qué creó este desequilibrio inicial de partículas?
A finales de la década de 1960, el físico y disidente ruso Andréi Sájarov dedicó su mente a resolver este enigma. La historia detectivesca todavía no ha terminado, pero ya tenemos una pista acerca de qué creó el desequilibrio inicial entre materia y antimateria. Parece que fue una partícula pequeña y extraña llamada neutrino. La pista mayor de Sájarov llegó en 1964, cuando los físicos encontraron algo raro acerca de la fuerza débil, que rige la desintegración radiactiva y otros varios procesos que tienen lugar en el núcleo de un átomo. La fuerza débil, a diferencia de cualquier otra fuerza, no actúa exactamente de la misma manera sobre la materia que sobre la antimateria.
Dentro de cada protón hay tres partículas denominadas quarks. Los quarks poseen sus propias partículas de antimateria, los antiquarks. Resulta que la fuerza débil trata de forma diferente a quarks y antiquarks. Esta disparidad en la manera en que la fuerza débil trata a la materia y a la antimateria significa que las leyes de la física deben ser sutilmente diferentes para las dos. Esto, a su vez, significa que las leyes de conservación que cubren cosas tales como la energía y el momento no pueden aplicarse a la materia y la antimateria. Tienen que existir procesos naturales que permitan que el equilibrio entre los dos cambie.

28.jpg
Aniquilación entre el hidrógeno y el antihidrógeno

¿Y cuáles son estos procesos? Una pista es que tuvieron que haber ocurrido en un período de trastornos cósmicos, en los que tenían lugar reacciones entre partículas, antipartículas y radiación. Si las reacciones tuvieron lugar a una tasa para las partículas y a otra para las antipartículas, se tendría una diferencia neta en las cantidades que sobrevivieron. El universo primitivo, que ya hacía mucho tiempo que había salido del equilibrio térmico y por lo tanto zumbaba de transformaciones de energía en partículas, y de partículas en partículas distintas, era perfecto para crear un desequilibrio de este tipo.

La aniquilación no es el único fruto
Las investigaciones de fenómenos extraños en el espacio podrían decirnos más cosas acerca de por qué hay algo en lugar de nada. Cuando materia y antimateria se encuentran, el resultado es un rayo gamma. Así, cuando, en 1997, un satélite de la NASA vio un chorro de rayos gamma que surgía de algún lugar cerca del centro de la Vía Láctea, la conclusión evidente fue que había nubes de materia que se aniquilaban con nubes de antimateria, produciendo lo que se ha dado en llamar un «manantial de antimateria».
Hay otras explicaciones posibles. Podría ser que un agujero negro produzca un chorro de partículas, o que fragmentos de una supernova experimenten desintegración radiactiva. Pero la idea más interesante es que esté operando todo un nuevo tipo de química: la química de la antimateria.
La predicción de Paul Dirac de que materia y antimateria se aniquilarán cuando entren en contacto se ha demostrado en innumerables experimentos, pero ciertamente ocurren más cosas que una mera explosión. Para empezar, se sabe que en algunas circunstancias la antimateria puede saltar de la materia. Los investigadores del CERN han colocado antiprotones y antielectrones (positrones) en las mismas trampas de antimateria, y los han combinado para producir átomos de antihidrógeno (el hidrógeno tiene un electrón y un protón; el antihidrógeno tiene un positrón y un antiprotón). El antihidrógeno no fue lo único que encontraron. Durante unos pocos microsegundos, los antiprotones se unieron con los protones de las moléculas de hidrógeno sin explotar para dar pura energía. A lo que parece, la aniquilación no es inevitable; al menos, no inmediatamente.

Hasta aquí llegó Sájarov, pero ahora hemos ido mucho más allá. Sabemos que las condiciones calientes y densas inmediatamente posteriores al Big Bang eran perfectas para crear una serie de partículas que nunca se verían en nuestro universo frío y vacío. Y una de ellas, conocida como «majorón» en honor al físico Ettore Majorana, es la razón por la que hay algo en lugar de nada.

Se presenta el majorón
Cuando el majorón envejece, la teoría sugiere que no respeta las leyes de simetría que crean un número igual de partículas y antipartículas a partir de una partícula que se desintegre. El majorón se desintegra para formar partículas llamadas neutrinos, que son partículas minúsculas y sin carga que zumban por el universo a casi la velocidad de la luz. Los majorones producen también la antipartícula del neutrino, el antineutrino. Pero no hay compulsión para que el majorón produzca números iguales de neutrinos y antineutrinos.
Durante su vida, neutrinos y antineutrinos colisionarán con electrones y positrones para formar quarks y antiquarks. Si hay un exceso de neutrinos con respecto a los antineutrinos, esto significa que se formarán más quarks que antiquarks. De modo que cuando tiene lugar la aniquilación entre quarks y antiquarks, hay materia que sobra.
Esta es una solución agradable al problema planteado, pero hay una pequeña pega. Esta es una teoría que no se ha comprobado: todavía no tenemos pruebas directas del majorón. Puede que algunas pruebas indirectas puedan verse en el Gran Colisionador de Hadrones del CERN, pero nuestros experimentos todavía no son lo bastante potentes para recrear las condiciones en el momento antes de que la aniquilación tuviera lugar y poder observar el majorón en acción. Cuando se trata de descubrir por qué hay algo en lugar de nada, el viaje en el tiempo a los primeros momentos de la creación podría proporcionar nuestra única respuesta segura.


Capítulo 18
¿Vivimos en una simulación?
La naturaleza humana
, las leyes de la física y la marcha del progreso tecnológico

En 1998, casi ninguna persona que hubiéramos encontrado en la calle habría dedicado ni un momento de su tiempo a pensar en esta cuestión. A finales de 1999, esta posibilidad la habían discutido millones de personas en todo el globo. ¿Por qué? Debido a que habían visto Matrix. La premisa principal del filme es que la población humana de la Tierra se halla dentro de cubas de nutrientes, y que su energía es recolectada por una raza de máquinas.

Para evitar que reaccionemos ante este horror, se nos permite la existencia en una realidad simulada a la que se accede mediante una conexión directa a nuestro cerebro. Todas nuestras experiencias conscientes, pues, no son más que el producto de un programa informático.
No es una idea que carezca de precedentes. Desde Descartes, los filósofos han debatido si nuestra percepción de la realidad podría ser producto del engaño, y los escritores de ciencia ficción han empleado muchas veces una premisa similar. Por ejemplo, en 1966 Philip K. Dick publicó un relato en el que la gente compraba «recuerdos implantados» que les permitían experimentar cosas que nunca habían hecho. La serie televisiva Doctor Who introdujo en 1976 un sistema informático enorme llamado «Matriz»; éste podía conectarse directamente al cerebro para permitir experiencias extracorpóreas.
Pero es evidente que Matrix, el filme de 1999, llegó a las pantallas en el momento preciso. A los pocos años de su estreno, los físicos discutían la idea en las conferencias científicas, y cada vez que lo hacían se mencionaba la película. Por extraño que parezca, había buenas razones para ello. La idea de que vivimos en una realidad simulada era una de las pocas respuestas plausibles a una pregunta muy antigua que acababa de reaparecer en física.
Al observar el universo, los astrónomos se han dado cuenta de algo extraño. Dudan a la hora de mencionarlo, pero es como un elefante en la habitación, y tiene que reconocerse. Este universo es notablemente bueno para nosotros. Si se lo cambia un poquito (modificando ligeramente una de las leyes de la naturaleza, pongamos por caso), nosotros no hubiéramos aparecido. Es casi como si el universo hubiera sido diseñado a propósito para que lo habitáramos. Si éste es el caso, ¿podría el diseñador ser una raza de seres superinteligentes que tengan alguna razón (quizá trabajo, quizá placer) para desear nuestra existencia?
Desde luego, es un gran «si», quizá el mayor «si» de la física. La discusión de dicho «si» tiene incluso un nombre: el «principio antrópico». Realmente, es un nombre inapropiado. Para empezar, es más una sugerencia que un principio. Y, aunque antrópico significa «centrado en el hombre», no es eso realmente de lo que se trata. La persona que acuñó el término, el astrofísico Brandon Carter, quería con él abarcar no sólo la vida humana, sino la existencia de vida inteligente en general.
Carter propuso el principio antrópico en un momento en el que los físicos llegaban a un acuerdo sobre un nuevo paradigma: el Big Bang. Hasta que la idea de un principio para el universo se aceptó de manera general, los físicos habían supuesto que no existía tal cosa como un tiempo «especial» en la historia del universo. El universo siempre había existido y siempre existiría, en buena medida tal como es en la actualidad.
Con el descubrimiento en 1963 de la radiación cósmica de fondo de microondas, sin embargo, todo cambió. Una vez se hubo reconocido que dicha radiación es un eco del momento de la creación, se vio que el universo tenía una historia que se desarrollaba, interrumpida por acontecimientos importantes. El problema era que una de las premisas fundamentales de la astronomía ha sido siempre el principio copernicano, que afirma que los humanos no ocupan ningún lugar especial en el espacio ni en el tiempo. Con el Big Bang, el principio copernicano se veía amenazado.
Pero, decía Carter, cualesquiera que sean nuestros prejuicios, hemos de reconocer que hay algo especial en nuestra relación con el universo. «Aunque nuestra situación no sea necesariamente central, es inevitablemente privilegiada en cierta medida», le dijo a una reunión de científicos en 1974. Dicho privilegio procede, primero, de las leyes que rigen la evolución del universo.
Hay varias razones por las que se podría pensar que estas leyes fueron diseñadas para proporcionarnos una existencia confortable. La primera es la intensidad de la gravedad, que es relativamente conveniente. Después del Big Bang', el espacio se expandía, lo que forzaba a todas las partículas de materia a separarse cada vez más unas de otras. Pero la fuerza de la gravedad operaba contra dicha expansión: la atracción gravitatoria mutua de las partículas las impelía unas hacia las otras.
Hay tres maneras en las que esto podría haber funcionado. En primer lugar, la expansión del espacio pudo haber superado la atracción de la gravedad. En este supuesto hipotético, conocido como universo «abierto», cada partícula de materia habría sido impelida cada vez más lejos de las demás, y la separación creciente habría hecho que la atracción gravitatoria fuera cada vez más débil. En esta situación), Lis galaxias (y quizá las propias estrellas) no se habrían formado.
¿Y qué ocurriría si la atracción de la gravedad superara la atracción del espacio en expansión? En este caso, estrellas y galaxias se hubieran formado brevemente, pero la intensidad de la gravedad implica que rápidamente se habrían hundido sobre sí mismas y sobre las demás, y el universo habría implosionado en un enorme colapso gravitatorio. Este es el universo «cerrado».
La tercera situación hipotética «crítica» implica un delicado equilibrio entre expansión y atracción. Aquí la densidad de la materia en el universo es tal que, inmediatamente después del Big Bang, la atracción gravitatoria equilibra casi perfectamente la expansión del espacio. Atrae a la materia lo justo para que se formen las estrellas y para que las estrellas se reúnan en galaxias. Gracias a su atracción gravitatoria mutua, la expansión del espacio entre ellas se hace más lenta y el universo tiene garantizada una vida larga y fructífera.

Una coincidencia cósmica
Así, ¿cuál es la diferencia entre estas situaciones hipotéticas? Cuando los astrónomos trabajan los números, primero consideran el universo crítico. Para ello, necesitan examinar la densidad de la materia en el universo, un parámetro que se denomina «omega». Resulta que para que tenga lugar la situación hipotética del universo crítico, omega ha de tener un valor determinado un segundo después del Big Bang. Los astrónomos establecieron que dicho valor era uno. Y si omega hubiera sido mayor o menor que uno por una cantidad asombrosamente pequeña (uno en un millar de billones), el universo se habría cerrado y colapsado o habría dispersado la materia muy fuertemente muchísimo antes de que la vida pudiera establecerse en el ambiente benigno que rodea a una estrella joven como nuestro Sol.
No es la única coincidencia cósmica. Si la intensidad de la gravedad está equilibrada de manera conveniente pero ajustada frente a la expansión inicial del espacio, permitiendo así que se formen estrellas como nuestro Sol, considérese la eficiencia con la que el Sol libera energía mediante la fusión de átomos de hidrógeno para formar helio. La eficiencia es de alrededor del 0,007. Esto es, cuando las masas atómicas de los átomos de hidrógeno se comparan con la masa del helio acabado de formar, ha desaparecido el 0,7 %. Esta es la energía (principalmente calor) que pone en marcha la vida en la Tierra.
Así, ¿qué margen de acción hay aquí? Elevar la eficiencia de la transformación significa permitir una «cola» algo mayor entre las partículas del núcleo de un átomo. Si la eficiencia fuera superior a 0,008, todo el hidrógeno creado en el Big Bang se habría convertido en helio casi inmediatamente y no habría quedado nada para quemarse en las estrellas. Esto produciría un universo muerto, en otras palabras. En el otro extremo, reducir la eficiencia al 0,006 significaría una cola nuclear tan débil que nunca se formaría helio, y el Sol nunca se inflamaría. De nuevo, no habría vida posible.
Después está el hecho de que la fuerza eléctrica es unas 1040 veces mayor que la gravedad. Esto confiere a los átomos sus características fundamentales. Existe una repulsión mutua entre el núcleo cargado positivamente y los electrones que orbitan, cargados negativamente, pero también existe una atracción mutua debida a la gravedad. Altérese la proporción entre ellos en una pequeña cantidad y se cambiarán tanto las características de los átomos que se alterarán las características de las estrellas. Si ello se hace en una dirección, se creará un universo en el que no se formarán los planetas alrededor de estrellas como nuestro Sol. Si se hace en la otra dirección, se amenaza la existencia de las supernovas que forjaron los átomos de carbono que socalzan la química de la vida. Hay otros ejemplos. He aquí uno: redúzcase la masa del neutrón en una fracción del 1 % y no se formarán átomos.

Jugar con el universo
Todo esto parece un arreglo, ¿verdad? El gran astrónomo inglés Fred Hoyle así lo creía. Una vez se quejó de que el universo era tan amable para la vida que parecía «una confabulación». Alguien o algo, sugería, estaba «jugando» con las leyes de la física para facilitar la producción de vida.
¿Y qué hace un científico al respecto? Aparte de decir que Dios lo hizo (cosa que lleva a los científicos a ninguna parte en la búsqueda de una respuesta), hay tres opciones. La primera es considerar el problema a fondo. No estaríamos aquí para preocuparnos por estas cosas si el universo fuera distinto. Desde luego, está equilibrado de manera precisa para la vida. No podríamos estar en un universo que fuera sólo un poco diferente. Un tal esfuerzo nos obliga a considerar la existencia de otros universos en los que las leyes de la física confieren valores distintos a aquellos números cruciales. Sin embargo, además de ser universos muertos, son callejones científicos sin salida. No podemos acceder a ellos, de modo que hemos de contentarnos con no encontrar una respuesta satisfactoria a la pregunta del ajuste fino de nuestro universo en relación con la vida. Una segunda aproximación es insatisfactoria de manera parecida: atribuimos el ajuste fino a la existencia de un diseñador sobrenatural, un ser que trasciende las leyes naturales. Tampoco aquí tenemos ninguna esperanza de discernir si la aproximación es la adecuada.
La tercera opción es hacia la que hemos ido acercándonos: que el universo está tan bien adecuado a nuestra existencia porque fue diseñado para nuestra existencia. En este caso, los diseñadores no son dioses. Son seres como nosotros. Sólo que muchísimo más avanzados en su control de la tecnología. Tan avanzados, en realidad, que pueden crear dos cosas asombrosas. Primero, seres que muestran lo que consideramos que es consciencia. Y segundo, un mundo para que estos seres lo experimenten con su consciencia. Esta es la secuencia lógica conocida como la argumentación de la simulación. La primera persona que planteó esta posibilidad fue un filósofo llamado Nick Bostrom. En 2001 empezó a hacer circular un artículo titulado «¿Estamos viviendo en una simulación informática?». Su respuesta era: sí, muy posiblemente.

Creando el mundo de nuevo
El razonamiento de Bostrom es bastante directo. Párese un momento a pensar el lector en la capacidad informática que tenemos ahora a nuestra disposición. Compárese con la capacidad de que se disponía hace una década, ¿Y qué pasa con la que había hace dos décadas? Ahora traslademos esto al futuro. Si nuestra civilización sobrevive al próximo milenio, la capacidad informática de que dispondrá su población será de una magnitud tal que es inimaginable para nosotros en la actualidad.
Volvamos ahora al presente. ¿Cuál es uno de los tipos más populares de juegos de ordenador? La simulación. Tómese el éxito extraordinario de la simulación Second Life, por ejemplo. Proporciona a la gente la oportunidad de una existencia alternativa, una oportunidad a la que millones de personas se han aferrado con ambas manos.
Otros juegos de simulación permiten que el jugador haga de dios, controlando a otros, o simplemente viendo cómo se desarrolla su existencia. Hay algo en la mente humana a lo que le gusta implicarse en otro mundo. ¿Y por qué habrían de ser diferentes las cosas en el futuro, dentro de mil años?
El razonamiento de Bostrom es que una de las siguientes tres proposiciones ha de ser cierta.
La primera es que resulta abrumadoramente probable que los humanos se extingan antes de llegar a un nivel de refinamiento tal que puedan hacer funcionar simulaciones informáticas (realidad virtual) que copien exactamente lo que experimentamos como realidad.
La segunda plantea que es muy improbable que cualquier civilización de este tipo que logre sobrevivir opere simulaciones de este tipo. La tercera es que, casi con total seguridad, vivimos en una tal simulación informática.
La primera proposición parece improbable. A priori no hay ninguna razón por la que nos aniquilemos a nosotros mismos, o seamos aniquilados. La segunda parece todavía más improbable: nuestra fijación en las simulaciones no da lugar a suponer que, dada la posibilidad de mayor potencia de simulación, no la vayamos a utilizar.
Lo que nos deja la tercera proposición. Puesto que estamos hablando de un futuro lejano en el que un número casi infinito de civilizaciones dispersas por el universo «original» estarán haciendo funcionar simulaciones, ¿qué probabilidades tenemos de estar en este universo original y no en una simulación? Infinitesimales. En otras palabras, casi con toda seguridad vivimos en una simulación.

29.jpg
El argumento de la simulación

No es algo para deprimirse; el mundo es tan real como siempre ha sido. Más aún, a diferencia de las ideas sobre universos operados por dioses sobrenaturales, el razonamiento de la simulación podría estar abierto a comprobación. El primer punto que hay que reconocer es que responde realmente a la pregunta sobre ajuste fino. Los creadores de la simulación han de tener una razón para crearla. Por lo tanto, parece sensato sugerir que la mayoría abrumadora de simulaciones tendrán que funcionar lo suficientemente bien para ser interesantes para sus creadores y usuarios. Nuestra experiencia con la creación de ambientes de simulación sugiere que esto significa poblarlos con seres que puedan gozar de su «existencia», que, a su vez, tiende a implicar una capacidad de interaccionar con el mundo simulado y sus habitantes.
Por lo tanto, una simulación plausible estimulará el desarrollo de algo que consideremos como vida compleja. Tal como hemos visto con nuestra ojeada a las leyes de la naturaleza, esto proporciona una gama relativamente restringida de posibilidades para el escenario. Esto proporciona al menos una explicación plausible para el ajuste fino. Ahora tenemos que buscar una prueba científica para dicha explicación. De nuevo, ésta puede encontrarse dentro de nuestra propia experiencia de crear simulaciones.

Infortica conservadora
Una de las reglas básicas de la programación es que no se malgastan recursos informáticos preciosos. Esto significa que cualquier simulación no será infinitamente uniforme. Se construirá lo bastante bien para dar a sus avatares conscientes un sentido de continuidad en el mundo que les rodea, pero no mejor de lo que sea necesario. Esto significa que una mirada repentina y escrutadora podría exponer los fallos en la programación.
En realidad, puede que ya lo hayamos hecho. Ya sabemos que las teorías que hemos inventado para describir nuestra realidad tienen inconsistencias aparentes. Por ejemplo, el mundo cuántico, que parece describir las cosas que encontramos a escalas subatómicas, no tiene sentido para la mente humana. Permite que las partículas tengan una existencia múltiple, que ocupen dos posiciones espaciales al mismo tiempo o que se desplacen simultáneamente en direcciones opuestas.
De forma parecida, la relatividad, que utilizamos para describir la realidad cuando consideramos escalas grandes, cosmológicas, no consigue describir la más extrema de las condiciones cosmológicas, como el interior de un agujero negro o la geometría del momento del Big Bang. ¿Acaso estas limitaciones frustrantes de nuestras teorías reflejan los límites de la programación que hay detrás de nuestra realidad?
Hay más indicios que considerar. Uno de los objetivos más importantes de la ciencia moderna es «unificar» las leyes de la física. En la actualidad, el impulso principal se dirige a casar la relatividad y la teoría cuántica. Sin embargo, se trata de un maridaje que nadie ha conseguido todavía arreglar. ¿Podría ello deberse a que es fundamentalmente imposible?
Cuando los programadores crean las simulaciones actuales, emplean un método particular para codificar los detalles más finos: el movimiento de los pelos en el pelaje de un oso polar, pongamos por caso. Los métodos para crear un facsímil de un paisaje pastoral son diferentes. De forma parecida, los creadores de nuestra simulación pueden haber usado métodos diferentes para programar nuestra realidad a escalas diferentes, de manera que no hemos de esperar conseguir que casen. Si tal hiera el caso, las frustraciones de la ciencia podrían ser una pista de la naturaleza de nuestra existencia.
Otra pista podría encontrarse en nuestro código genético. Nuestro ADN tiende a cometer errores cuando se replica. Si no se corrigieran, estos errores serían suficientes para conferir a cualquier especie una vida corta, quizá demasiado corta para evolucionar. El relato simulado de la vida habría fracasado rápidamente si no hubiera sido por rutinas de corrección de errores implantadas en la función de nuestros genes. Hacemos lo mismo con nuestros programas informáticos: incorporamos rutinas de corrección de errores que ponen las cosas en su sitio antes de que éstas se tuerzan de manera irrecuperable. Por lo tanto, no hay tanta diferencia en imaginar que los programadores de la simulación habrían tenido que emplear los mismos métodos.
Físicos serios han hecho la siguiente sugerencia: una corrección de la simulación podría crear grietas, o incluso roturas, en las leyes de la física. Algunas cosas pueden no comportarse como se espera. ¿Se han hecho ya tales observaciones? En realidad, sí. Por ejemplo, los astrónomos han sugerido que la luz que llega a la Tierra desde las galaxias más lejanas observables muestra señales de que las leyes de la física han experimentado un pequeño cambio en algún punto del distante pasado. La luz se emitió hace 12.000 millones de años, y sus interacciones con la materia durante su recorrido por el universo tienen un carácter ligeramente distinto del que se podría esperar razonablemente.
La observación parece sugerir que una de las constantes de la física, la constante que rige los detalles finos de cómo interactúan luz y materia, era sutilmente diferente en el pasado. ¿Se trata de un error de programación o de parte de una rutina de corrección de errores? Aunque la inferencia científica acerca de la constante que varía parece lo bastante sólida, la sugerencia de que proporciona un respaldo a la idea de que vivimos en una simulación sigue siendo controvertida.
Ninguna de estas «pruebas» es totalmente convincente. La idea de que vivimos en una simulación informática es intrigante, y en muchos aspectos ofrece una respuesta muy plausible a uno de los problemas más fastidiosos de la física moderna. Que pueda ser probada o falsada sigue siendo una cuestión abierta. Quizá es por esto que algunos filósofos han aducido que la única manera de que lo sepamos con seguridad es si los humanos que propagan la idea son «borrados» misteriosamente de la simulación porque suponen una amenaza para su éxito continuado. Otros han hecho una sugerencia igualmente juguetona, pero mucho más atractiva. Ahora que hemos hecho este descubrimiento, parece completamente posible que pronto encontremos un enorme mensaje que divida el cielo en dos partes: «¡Enhorabuena! Por favor, siga hasta el Nivel 2».


Capítulo 19
¿Cuál es la fuerza más fuerte de la naturaleza?
Las ligaduras que atan el universo y su origen en la súper fuerza

Es una cuestión que parece sacada directamente de Hollywood.
Tómense dos bestias imponentes, pero muy distintas, y póngaselas una frente a otra. Hemos tenido ya Alien contra Predator y King Kong contra Godzilla. ¿Qué tal la Gravedad contra la Fuerza Fuerte? ¿O la Fuerza Nuclear Débil contra el Electromagnetismo? El lector no se sorprenderá al saber que las respuestas a tales preguntas son inalcanzables. Pero la razón para ello puede resultar sorprendente.

Si las sospechas de los físicos se confirman, no estamos tratando con cuatro fuerzas, sino con una. De la misma manera que un titiritero diestro puede controlar más de una marioneta, parece haber una superfuerza detrás de lo que vemos como las diferentes fuerzas de la naturaleza. Podría ser que la gravedad, el electromagnetismo y las fuerzas nucleares fuerte y débil (véase la figura Cómo se dividió la superfuerza) estuvieran unidas en el pasado.
En el prefacio a su gran obra Philosophiae Naturalis Principia Mathematica, Newton escribió que albergaba la profunda sospecha de que todos los fenómenos de la naturaleza «dependían de determinadas fuerzas por las que las partículas de los cuerpos, por algunas causas hasta ahora desconocidas, o bien se ven impelidas mutuamente unas hacia las otras y se adhieren en figuras regulares, o bien son repelidas y se apartan unas de otras». Las fuerzas de la naturaleza, en otras palabras, se encuentran en el meollo de la física.
Esta idea contrastaba mucho con lo que había habido antes. El método griego de investigación científica era suponer y respetar el papel de un «primer motor», una causa última que regía asimismo las nociones de justicia y moralidad. Buscar mecanismos puramente físicos para los acontecimientos naturales, sin indagar las dimensiones éticas y morales con los que estaban relacionados, era algo que simplemente no se hacía. Pero ahora sabemos que las fuerzas de la física son ciertas para todos pero no significan nada en términos morales. La gravedad, parafraseando el Evangelio de San Mateo, hace que «llueva sobre justos e injustos».
No todas las fuerzas son tan inclusivas. La fuerza electromagnética, por ejemplo, actúa únicamente entre partículas que contienen carga eléctrica. La fuerza fuerte sólo actúa sobre un espacio reducido, y entre las partículas en el núcleo. Esto plantea una pregunta. Si todas son tan diferentes, ¿por qué creemos que todas tienen el mismo origen? Para contestar a esto, veamos primero nuestras ideas de la gravedad y dónde se quedan cortas.

La domesticación de la gravedad
La gravedad, que para nosotros es la más débil de las fuerzas, fue la primera en ser domesticada. Newton dio el primer paso en su ley universal de la gravitación, al ofrecer una fórmula que describía de qué manera interaccionarían cualesquiera cuerpos con masa. Según el modelo de Newton, la atracción de la gravedad explicaba los movimientos de los planetas con un grado de precisión asombroso. Sin embargo, las ideas gravitatorias de Newton se quedaron cortas en dos aspectos. Uno era que ofrecían una descripción, pero no una explicación, de la gravedad. El otro era que no describían todas las facetas de cómo funciona la gravedad en el universo: algunos fenómenos se resistían a la explicación.
Quizá la precesión del perihelio de Mercurio sea el ejemplo más famoso. El perihelio es el punto de aproximación máxima en una órbita elíptica. El viaje de Mercurio alrededor del Sol posee dicho punto, que se mueve, o precede, con órbitas sucesivas. La precesión es un resultado de la atracción gravitatoria de los demás planetas del sistema solar y, en 1845, el astrónomo francés Urbain Joseph LeVerrier empleó la ley de Newton para calcular cuál debería ser. Parecía haber un error. El cálculo de LeVerrier se desviaba de la precesión observada en 43 segundos de arco por siglo. Cada cien años, los cálculos se desviaban en sólo una centésima de grado, pero no obstante eran erróneos.
Por suerte, la teoría general de la relatividad de Einstein proporcionó la corrección requerida. La relatividad describe que los campos gravitatorios surgen a partir de la influencia de la masa y la energía sobre la urdimbre del universo: la gravedad procede de una deformación del espacio-tiempo. Se trata de una teoría asombrosamente exitosa, y nunca ha fallado una sola prueba experimental. No obstante, a pesar de los éxitos enormes de la relatividad a la hora de describir lo que vemos en el universo, una explicación adecuada del por qué y el cómo de la gravedad sigue siendo escurridiza. Y, hasta que tengamos una, no podemos estar seguros de que la gravedad sea realmente tan débil; especialmente cuando examinamos la siguiente fuerza que sucumbió ante la ciencia.

Cargado y listo
El electromagnetismo es una fuerza mucho más fuerte que la gravedad. Tomemos dos electrones: la repulsión electromagnética entre ellos es 1043 veces mayor que su atracción gravitatoria mutua. Pero esta fuerza relativa puede ser una ilusión. La pista reside en el hecho de que el electromagnetismo es una unificación de dos teorías: la electricidad y el magnetismo.
En la década de 1840, el físico inglés Michael Faraday había dado con el concepto de campo para explicar por qué las limaduras de hierro formaban líneas cuando se esparcían alrededor de un imán. Para Faraday, estas «líneas de fuerza» estaban asociadas con algunas propiedades físicas del espacio que rodeaba el imán. La conexión con la electricidad llegó fácilmente: Faraday descubrió también que un campo magnético cambiante crea un campo eléctrico.
Pero había una complicación. Cuando James Clerk Maxwell, el amigo de Faraday, intentó conciliar los descubrimientos de éste y las ecuaciones que los describían, sólo podía dar sentido al resultado si añadía otro factor a la mezcla. No es suficiente que los campos magnéticos cambiantes creen campos eléctricos. También lo contrario tiene que ser cierto: si se cambian los campos eléctricos, dijo Maxwell, han de crearse campos magnéticos.
Las nuevas ecuaciones de Maxwell resplandecían con una hermosa consistencia: electricidad y magnetismo eran dos caras de la misma moneda. Esta unificación condujo a otro hermoso resultado. Cuando Maxwell estudió la consecuencia de que un campo magnético cambiante produjera un campo eléctrico, que a su vez generaba un campo magnético, y así hasta el infinito, se dio cuenta de que había descubierto la base de la radiación electromagnética. Más aún, la velocidad de la propagación de esta perturbación era la velocidad de la luz. La luz, resultó claro de inmediato, es una onda electromagnética.
Es difícil pasar por alto la importancia de este hallazgo. Condujo al descubrimiento del espectro electromagnético, las ondas de radio y los rayos gamma, y todo lo que hay entremedias. Demostró que la energía podía transferirse de un punto a otro a través del espacio, lo que eliminaba la idea de algunas interacciones fantasmagóricas que no tenían origen físico. Y, quizá lo más importante, preparó el camino para una revolución instantánea en física. Las ecuaciones de Maxwell no funcionaban cuando el origen de la radiación se desplazaba con relación a un observador, una observación que condujo a Einstein a resolver la anomalía con la relatividad especial (véase ¿Qué es el tiempo?) en 1905. Además, la unificación de la electricidad y el magnetismo fue sólo el principio. Ahora sabemos que otra de las fuerzas de la naturaleza es repartida por la misma mano.

El tendón de Aquiles de Einstein
Einstein estaba muy motivado por la idea de la unificación. Después del éxito de la relatividad, pasó su vida intentando construir una «teoría del campo unificado» que sacara al electromagnetismo de la geometría del espacio-tiempo, tal como había hecho con la gravedad. Como resultado, él y sus pocos seguidores ignoraron el desarrollo de la teoría cuántica. A Einstein nunca le había gustado y esperaba que aquella moda pasara.
Pero no pasó, y las exploraciones de la nueva teoría, junto con el rápido desarrollo de la física de partículas después de la guerra, señalaban la existencia de dos fuerzas nuevas: las fuerzas nucleares fuerte y débil. Einstein nunca se ocupó de ellas, sino que siguió trabajando exclusivamente con el electromagnetismo y la gravedad. Para cuando murió en 1955, la física había avanzado sin él.
Es una verdadera lástima, porque hoy se sabe que la fuerza nuclear débil, que actúa entre las partículas del núcleo (el neutrón y el protón) y tiene un alcance extremadamente corto, de 10-17 metros, está muy relacionada con la fuerza electromagnética. Lo sabemos porque la fuerza débil es responsable de la radiación «beta», en la que un átomo emite un electrón o su contraparte cargada positivamente, un positrón. La emisión beta de un electrón implica que un neutrón se convierta en un protón, lo que sólo puede suceder si primero se emite un «bosón W», el origen de la fuerza débil; es esta partícula la que después se desintegra para producir el electrón.
La conexión se hizo más robusta cuando nos dimos cuenta de que la fuerza débil y la fuerza electromagnética resultan del mismo proceso, conocido por los físicos como «ruptura espontánea de simetría». Esto se parece a lo que ocurre cuando se reúne en una sala un grupo de personas que no se conocen. A medida que entablan conversación, algunos encontrarán puntos comunes de interés en un ámbito, otros en otro y, si se da el tiempo suficiente, se organizarán en grupos distintos que terminarán hablando de cosas diferentes. Inicialmente había «simetría»: no había nada que distinguiera a esos extraños entre sí, ninguna manera de agruparlos. Pero, a medida que hablaban, dicha simetría se rompió espontáneamente y se formaron grupos.
En la década de 1960, Steven Weinberg, Sheldon Glashow y Abdus Salaant demostraron que el mismo proceso de ruptura espontánea de simetría creaba las fuerzas electromagnética y débil a partir de otra fuerza. La llamaron «fuerza electrodébil» y sugirieron que sólo había existido en su forma intacta en las condiciones de elevada energía del inicio del universo. El trabajo fue un golpe maestro y les valió a los tres el premio Nobel de Física de 1979. La teoría hacía predicciones teóricas específicas: la existencia de los bosones W y Z, por ejemplo, que se encontraron, completos y con todas las características que se les suponía, en 1983.
Pero lo que quizá fue más importante de todo es que este descubrimiento sugería que las fuerzas aparentemente diferentes podían no ser tan diferentes en el fondo, aunque la fuerza débil actúa sobre las distancias más pequeñas y sobre neutrones no cargados, mientras que la fuerza electromagnética actúa sobre distancias enormes y sobre partículas cargadas. De hecho, no sólo no podemos decir cuál es la fuerza más fuerte, sino que de pronto nos encontramos ante una pregunta sorprendente.
Si las fuerzas electromagnética y débil fueron una vez la misma fuerza, ¿quién puede decir que la ruptura espontánea de simetría no diera origen a todas las fuerzas de la naturaleza? Quizá no podamos decir que una fuerza es la más fuerte, simplemente porque todas ellas son manifestaciones de una antigua superfuerza. Con el fin de explorar dicha posibilidad, hemos de considerar el elemento que queda: la fuerza nuclear fuerte.

El enlace nuclear
De la misma manera que la fuerza débil tenía que existir para poder explicar la desintegración beta, la repulsión mutua entre protones en un núcleo hizo de la fuerza fuerte una necesidad, pues de otro modo el núcleo no podría mantenerse unido. Fuerte es un nombre apropiado para la fuerza: típicamente, parece tener cien veces la intensidad de la fuerza electromagnética que desbarataría el núcleo. Pero medir su potencia fue la parte fácil de domesticar la fuerza fuerte; explicar su existencia fue mucho más difícil. No es suficiente saber que una fuerza tan colosal es la única manera de que un núcleo pueda mantenerse unido. ¿Qué la crea?
Las ideas que hay detrás de esta fuerza fuerte se desarrollaron a principios de la década de 1970. Se sabía que los quarks constituyen los protones y neutrones del núcleo. Cada quark tiene una característica que los físicos denominan su color. Por esta razón, la teoría que relaciona la fuerza fuerte con los quarks se denomina «cromodinámica cuántica», o QCD. Según la QCD, la fuerza fuerte une entre sí a los quarks utilizando una interacción que, a diferencia de las fuerzas electromagnética y gravitatoria, no se reduce con la distancia. La fuerza se hace más intensa a medida que los quarks se separan, como si estuvieran unidos por un muelle.
Esta propiedad peculiar, que surge de las ecuaciones de la QCD, confiere a la fuerza fuerte la capacidad de unir a los quarks donde sea que se encuentren. Su naturaleza se confirma por el hecho de que, a pesar de muchas pesquisas, nunca hemos encontrado un quark solitario que vague libremente. La QCD dice que la fuerza fuerte es creada por un bosón llamado gluón. Los gluones se vieron por primera vez en experimentos en 1979. Sin embargo, para entonces la teoría ya estaba bien establecida; cuando los quarks, completos con sus características predichas, empezaron a avistarse en aceleradores de partículas en los últimos años de la década de 1960 y primeros de la de 1970, se consideró que la QCD era una teoría comprobada.
Pero lo que realmente entusiasmó a los físicos es el hecho de que la QCD está construida sobre la misma idea de ruptura de simetría que la fuerza electrodébil. Parecía totalmente plausible que estuvieran muy relacionadas y que pudieran reunirse en una descripción del comportamiento de la materia: la «gran teoría unificada» o GUT. Y aquí es donde la búsqueda perdió valor. Después de tres décadas de investigación, todavía no estamos seguros de si la fuerza fuerte es realmente de la misma escudería que la fuerza electrodébil.

La pugna por la unificación
El problema es que la unificación está lejos de ser directa. Lo que se necesita es otra simetría, como los extraños que se reúnen en una sala; pero esta vez son incluso más numerosos. De alguna manera, este puñado de extraños indistinguibles tiene que segregarse espontáneamente de una manera que describa cinco tipos diferentes de partículas (los tres quarks de colores diferentes y el electrón y su neutrino asociado) y tres fuerzas.
Es casi imposible recrear la unificación en la Tierra: alcanzar la energía para romper la simetría de esta manera requiere aceleradores de partículas 100.000 millones de veces más potentes que el Gran Colisionador de Hadrones (GCH), nuestro destructor de átomos más potente. Sin embargo, hay otras maneras de comprobar la idea. Según cualquier gran teoría unificada, los quarks han de poder cambiarse a electrones y neutrinos, y el candidato con más posibilidades para esta gran teoría (conocida como SU(5) debido a las cinco partículas que surgen de ella) tiene precisamente un proceso de este tipo escondido en la manga. Implica al protón en una especie de desintegración radiactiva y hace una predicción acerca de la frecuencia con que ello se producirá.
Es una lástima que esté tan equivocada. La teoría dice que un protón durará aproximadamente 1033 años antes de desintegrarse. Hace cerca de un cuarto de siglo, los físicos construyeron enormes tanques de agua muy purificada, rodeados de detectores que registrarían estos eventos cuando se produjeran. A partir de la teoría y del número de protones en sus depósitos, esperaban unas pocas desintegraciones por año. Sin embargo, hasta el presente no han visto nada. Pero todavía tenemos otra bala en la recámara, y ésta puede vindicarse en el GCH. Se llama «supersimetría».

SUSY llama a la puerta
La supersimetría surge del hecho de que los físicos dividen las partículas en dos campos: los fermiones, como el electrón y los quarks, que constituyen la materia, y los bosones, como el fotón y el gluón, que crean las fuerzas. Estos dos tipos diferentes de partículas siguen dos conjuntos de normas diferentes. Y la supersimetría, o SUSY, dice que cada uno tiene un «supersocio» del otro campo que se comportará igual en cualquier experimento.
Esto es posible porque la diferencia esencial entre fermiones y bosones procede de la propiedad cuántica llamada espín. Los bosones poseen espines enteros (1,2, 3, etc.), mientras que los fermiones poseen espines que son mitades de enteros (1/2, 3/2, etc.). SUSY implica aplicar una especie de cambio de perspectiva, algo parecido a mirar un reloj por delante o por detrás. Este cambio de perspectiva altera el espín cuántico (de la misma manera que el sentido de rotación de las manecillas del reloj es diferente cuando se lo mira por detrás), pero no otras cualidades, como la carga eléctrica o el color del quark.
Podría parecer como una ficción conveniente, pero es un modo muy respetado de pensar, que sobresale entre las mejores ideas en física. Desde luego, la pregunta candente es si es verdad. Además del espín, hay otra propiedad de las partículas supersocias que cambia: su masa. Son muchísimo más pesadas que el conjunto de partículas con las que estamos familiarizados. Esto significa que, gracias a E = mc2, sólo existirán a energías elevadas. Por suerte, sin embargo, la energía de colisión del GCH de 14 TeV debería ser lo bastante alta para ver las más ligeras de dichas partículas, que se cree que entran en juego alrededor de 1 TeV.
Aunque esto parece prometedor, dichas partículas siguen siendo difíciles de detectar. Apenas interaccionan con la materia normal, y saldrán disparadas de la máquina casi sin dejar traza. Esto significa que el único indicio de supersimetría podría ser algo de energía que faltara de los detectores del GCH. Puesto que otras teorías sugieren que algunas partículas normales pueden estar desapareciendo en otras dimensiones «ocultas» de la realidad, aquí tenemos una receta para falsos positivos y avistamientos que se pasan por alto.
Pero si vemos realmente avistamientos incuestionables de partículas supersimétricas, podemos estar seguros de que la gran teoría unificada de las fuerzas de la naturaleza se encuentra sobre bases sólidas. Será completamente razonable suponer que las fuerzas fuerte, débil y electromagnética surgen de un origen común, un «primer motor», como dirían los griegos. Pero hay sólo una pequeña dificultad. ¿Qué pasa con la gravedad? ¿Forma también parte de la unificación o es una entidad separada? Si no podemos decir que hay una fuerza más fuerte, ¿podemos decir al menos que la gravedad es la más débil?
Ciertamente, la gravedad es débil. Cuando dibujamos el esquema de unificación probable para las fuerzas, indicando la energía donde (podrían) unirse, es difícil situar allí la gravedad, a menos que nuestro gráfico sea mayor que el universo conocido. Mientras que las demás fuerzas convergen desde una distancia que supone un factor de 100, aproximadamente, la gravedad queda claramente fuera de escala. Pero hay una salida. Es enormemente técnica, pero, si se simplifica, dice que la interacción gravitatoria depende de la masa, que es proporcional a la energía implicada. En el panorama de la SUSY, cuando se consideran las condiciones de alta energía de la unificación, la gravedad se integra en la imagen a una escala tentadora: casi, pero no exactamente, donde las demás fuerzas se unen.

30.jpg
Cómo se dividió la superfuerza

No es una respuesta totalmente convincente, pero sí que sugiere que la gravedad y todas las demás fuerzas de la naturaleza pudieran surgir de una fuerza última. Esta superfuerza sólo existió en los primeros momentos posteriores a la formación del universo. En dicha situación, preguntar cuál de las fuerzas es la más fuerte es como preguntar cuál de las partículas es más típicamente una partícula. Aunque diferentes, todas ellas son aspectos de una característica. Gravedad contra electromagnetismo es algo que no funcionará; parecen estar luchando desde el mismo rincón.

El quinto elemento
Los antiguos griegos pensaban que el mundo estaba compuesto por cuatro elementos; tierra, fuego, agua y aire. Pero también especulaban acerca de un quinto elemento, al que denominaban «quintaesencia». Le conferían una pureza metafísica: de alguna manera, era un elemento más «elemental», pero nunca especificaron nada más acerca de éste. En la actualidad, los físicos se encuentran en una situación parecida.
Observaciones de la luz procedente de supernovas distantes sugieren que la expansión del universo se acelera. Esto significa que alguna fuerza desconocida (se la conoce como energía oscura) está operando a escalas cosmológicas. La mejor hipótesis de los físicos para el origen de la energía oscura eran las fluctuaciones energéticas en el «vacío» del espacio vacío, pero sus cálculos les dijeron otra cosa. Cuando hicieron las sumas, la teoría les dio un valor para la expansión acelerada que era 1020 veces demasiado grande.
Se ha dicho que era el resultado más embarazoso de la historia de la física. Una de las soluciones que se propusieron para este problema es que la aceleración es causada realmente por una fuerza, desconocida hasta el momento, que actúa a través del vacío. Aunque los físicos no tienen muchas pistas sobre de dónde puede proceder dicha fuerza, al menos tienen un nombre para ella: quintaesencia.

Capítulo 20
¿Cuál es la verdadera naturaleza de la realidad?
Más allá del mundo cuántico se halla el reino de la información

Esta será la última pregunta a la que la física dé respuesta (si es que, claro está, es posible hacerlo). Construir una gran teoría unificada de fuerzas está muy bien, y la caza de la gravedad cuántica, la teoría que une la ciencia de lo muy pequeño con la ciencia de lo muy grande, es apasionante y útil. Pero ninguna de ellas dará respuesta a la pregunta fundamental: ¿de qué está hecha la realidad?

Algunos aducirán que esta averiguación se encuentra más allá del alcance de la ciencia. Pero está en la naturaleza misma de la física encontrar respuestas a preguntas aparentemente imposibles. La historia de la física está sembrada de tareas «imposibles» que han resultado ser muy posibles, en realidad. Es fácil olvidar que Arquímedes asombró al mundo antiguo con su innovadora manera de pensar. Dedujera o no una manera para decir si la corona del rey estaba hecha de oro puro, consiguió la reputación científica suficiente para que su vida fuera protegida por un decreto romano. De manera parecida, la descripción de Newton de cómo funciona la gravedad parece obvia ahora, pero su formulación fue un verdadero tour de forcé en su época.
San Agustín describió el magnetismo como algo no diferente de un milagro, pero ahora conocemos los procesos microscópicos que se encuentran detrás de toda una gama de fenómenos electromagnéticos. La física hecha en el pasado parece en la actualidad un poco prosaica; de hecho, los conceptos son tan directos para nosotros que muchos de ellos los aprendemos de niños. Así pues, ¿aburriremos a los escolares del futuro con lecciones sobre la naturaleza fundamental de la realidad?
Un reino perfecto
La naturaleza de la realidad es una vía que los humanos han intentado explorar al menos desde la época de los antiguos griegos, y es a dicha época a la que podemos hacer remontar nuestra propia indagación de la naturaleza de la realidad. Los griegos tenían varias escuelas de pensamiento sobre esta cuestión. Quizá la más influyente fuera la de Platón, quien creía en un reino de abstracciones perfectas de entidades físicas. Todo en el mundo material extrae su existencia de estas «formas ideales», y nada es más que una sombra del objeto ideal.

«Asignemos, pues, la forma cúbica a la Tierra, puesto que es la menos móvil de los cuatro tipos y la más maleable de entre los cuerpos, y es de toda necesidad que tales cualidades las posea el elemento que tenga las caras más estables.»

Dicho reino, al que sólo se pue­de acceder a través del adiestramiento de la mente, no se ocupaba sólo de obje­tos físicos, como árboles o montañas. Se aplicaba asimismo a ideas matemáti­cas: Platón imaginaba una realidad ma­temática ideal poblada por los sólidos ideales. Estas cinco formas geométricas creaban una conexión entre lo matemático y lo físico. Por ejemplo, en su diálogo Timeo, Platón relacionaba el cubo con la Tierra: «Asignemos, pues, la forma cúbica a la Tierra, puesto que es la menos móvil de los cuatro tipos y la más maleable de entre los cuerpos, y es de toda necesidad que tales cualidades las posea el elemento que tenga las caras más estables». Una lógica similar relacionaba el tetraedro con el fuego y el icosaedro con el agua, el octaedro con el aire y el dodecaedro con un misterioso «quinto elemento» o quintaesencia.
Aunque puede parecer una especie de conjuro místico, no podemos rechazar completamente la idea de reinos de ideales. Todas las herramientas de la física moderna que se han acumulado para usarlas en la búsqueda de la naturaleza última de la realidad tienen su raíz en las matemáticas... y los matemáticos todavía no se han puesto de acuerdo acerca de si las matemáticas son un invento de nuestra mente o un mundo abstracto en el que los matemáticos se aventuran con el fin de realizar descubrimientos.
El matemático Roger Penrose ha sugerido que, si hemos de comprender qué es la realidad, necesitaremos plantearnos esta cuestión fundamental. Nuestra mejor descripción de la realidad podría tener que implicar una especie de trinidad, sugiere: la realidad física sólo es discernible debido a la «realidad mental» (o consciencia) construida por nuestro cerebro, y sólo puede describirse si creemos que nuestras ecuaciones y leyes de la física proceden de alguna «realidad matemática» que existe en paralelo a nuestro mundo físico.
En una versión filosófica del juego «piedra, papel, tijeras», Penrose sugiere que hay una dependencia cíclica entre las tres realidades. Sólo a través de las ecuaciones de las matemáticas podemos describir las partículas físicas fundamentales como el electrón, de manera que la realidad matemática gana a la realidad física. Pero la realidad física, en la forma de las neuronas del cerebro, da origen a la realidad mental. Y debido a que las matemáticas son abstractas, la realidad mental da origen a la realidad matemática. La realidad matemática gana a la física, la física vence a la mental y la mental triunfa sobre la matemática.

31.jpg
La trinidad de la realidad

Una nueva realidad

La información es física

Sin embargo, hay algo que parece hallarse más allá de estas tres nociones de realidad, algo que empuja a nuestra idea de la naturaleza última de la realidad hacia un reino todavía más abstracto. Este algo es la información. En nuestra mente damos cabida a información que puede ser manipulada matemáticamente y que siempre está casada con cosas físicas: la información no puede existir sin algo (una mancha de tinta sobre papel, ADN, un fotón de luz) sobre que posarse. Ésta es la razón por la que, en 1991, Rolf Landauer, investigador de IBM, hizo una afirmación extraña que sigue pareciendo rara en la actualidad: «La información es física».
Lo que Landauer quería decir es que la información no es un concepto abstracto, una abreviación conveniente para lo que se transfiere en las comunicaciones. Allí donde encontramos información, ésta se halla inextricablemente ligada a algún sistema físico. La disposición de las moléculas en una hebra de ADN lleva información, que permite la propagación y evolución de la vida. Está codificada en la carga de un condensador de un circuito eléctrico, lo que nos permite construir los dispositivos de almacenamiento y procesado de información que llamamos ordenadores. Está escrita en el estado cuántico de un fotón de luz, que permite enviar conversaciones telefónicas a través de fibras ópticas. Allí donde existe información, ésta toma una forma física.
Esta idea ha acabado conociéndose como el «principio de Landauer» y ha incitado una manera de pensar revolucionaria acerca de la información. Si la información es física, ¿podría ser que todo lo que es físico sea en realidad información? Existen al menos tres buenas razones para creer que esto es cierto. La primera es el hecho de que la información parece estar conectada de manera fantasmagórica a leyes que rigen el universo.

La velocidad de información
Quizá la idea más profunda en nuestra comprensión del cosmos es la afirmación de la relatividad especial de que existe un límite de velocidad inquebrantable: la velocidad de la luz (véase ¿Qué es el tiempo?). Esto nos ha permitido dar sentido a incontables fenómenos en astronomía y cosmología. Pero bien pudiera ser que la velocidad limitada de la luz sea un resultado de la velocidad limitada de la información. ¿Es la teoría de la relatividad en realidad una rama colateral de la teoría de la información?
La teoría de la información no se inició como algo profundo. La desarrolló Claude Shannon, un matemático e ingeniero que trabajó en los Laboratorios Bell en la década de 1940. La motivación principal de su trabajo era encontrar maneras de aumentar la velocidad a la que se podía transmitir información a través de una línea telefónica o de un circuito eléctrico. Desarrolló técnicas para «comprimir» información para optimizar esto, pero encontró asimismo limitaciones fundamentales. Shannon descubrió que cada canal de comunicaciones tiene una capacidad máxima, y que hay asimismo una eficiencia máxima con la que puede enviarse información sin que ésta se pierda en la transmisión.
La medida de información es el «bit», abreviación de dígito binario que, además, en inglés significa pedacito, algo muy pequeño. Los ordenadores, por ejemplo, funcionan sobre la base del sistema binario de numeración: cada número, cada instrucción, están codificados como una serie de ceros y unos. Aunque puede almacenarse información de maneras que ofrecen más de dos alternativas (el ADN utiliza las cuatro moléculas de «bases»: adenina, timina, citosina y guanina, por ejemplo), éstas siempre se pueden construir a partir de un sistema binario. El sistema de dos alternativas del bit es el medio más sencillo y más fundamental de almacenar y transmitir información.
El otro factor importante de la teoría de la información es la «anchura de banda» del canal de información. Ya se trate de una conexión a internet o de la conexión entre la memoria y el procesador de nuestro ordenador, la anchura de banda proporciona una medida del número de bits que pueden pasar a través de ella en cada segundo. Todo canal de información contendrá una cierta cantidad de ruido que causará errores en la transmisión de información. Por ejemplo, cuando la NASA envía señales de radio a través de la atmósfera terrestre, la señal puede resultar distorsionada por las condiciones atmosféricas, que transforman un 0 en un 1, o viceversa.
Shannon dedujo que, dada una determinada relación de señal a ruido y una determinada anchura de banda, existe un límite superior a lo velozmente que se puede transmitir información a través del canal sin que haya pérdidas. Los últimos teléfonos móviles y sistemas de televisión vía satélite funcionan dentro del 1 % de este «límite de Shannon». Sin embargo, no pueden llegar a dicho límite ni sobrepasarlo. Ocurre un poco como con la velocidad de la luz en la relatividad: cuanto más nos acercamos a este límite fundamental, más difícil es mejorar el rendimiento.
¿Por qué tendría que ser la información como la velocidad de la luz? ¿Será acaso porque, como la luz, la información está relacionada con la estructura fundamental subyacente de la realidad física? Esto es ciertamente lo que cree un número cada vez mayor de investigadores, especialmente los que investigan los agujeros negros.

¿A dónde se fue la información?
Los agujeros negros son la segunda razón para pensar que la información es parte de la respuesta a nuestra pregunta sobre la naturaleza de la realidad. Nada de lo que cae dentro de la región esférica conocida como «horizonte de sucesos» que rodea un agujero negro consigue escapar jamás. Esto significa que los agujeros negros son, efectivamente, sumideros para la información. Todo lo que tragan posee información codificada en forma de estados atómicos, espines de partículas, etc. Así pues, ¿qué le ocurre a dicha información?
En la década de 1970, Stephen Hawking demostró que los agujeros negros se evaporan lentamente, emitiendo «radiación de Hawking». El problema es que dicha radiación no contiene ninguna información. Las leyes de la física dictan que la información, como la energía, no puede destruirse, lo que significa que tiene que ir a alguna parte. Después de décadas de debate, los físicos creen ahora que la información está codificada en la estructura microscópica del espacio y el tiempo en el «horizonte de sucesos» del agujero negro, el punto de no retorno para la materia o la luz que caen en su interior.
Puesto que el horizonte de sucesos es una estructura bidimensional (la superficie de una esfera que rodea el agujero negro), esto significa que la información que describe objetos tridimensionales, como los átomos, puede codificarse en una superficie bidimensional. Extrapolando a partir de esta idea, algunos investigadores han demostrado que todo el universo puede considerarse de la misma manera. El límite de nuestro universo es esencialmente la superficie bidimensional de una esfera. La información que parece existir dentro de la esfera podría contenerse en realidad sobre la superficie bidimensional que la rodea. De la misma manera que un holograma aparentemente tridimensional resulta de una proyección de luz cuidadosamente diseñada sobre una superficie bidimensional, nuestra realidad tridimensional bien pudiera ser un holograma proyectado desde la información que se contiene en el borde del universo. En otras palabras, todo lo que pensamos que es físico surge de la información.
Incluso hay algún indicio de respaldo experimental para esta idea. En 2008, Craig Hogan, un físico de partículas estadounidense, intentaba averiguar de qué manera podría poner a prueba la idea de la proyección holográfica. Dedujo que el límite del universo sólo podía contener una cantidad limitada de información y que, cuando la información se proyectaba en el espacio tridimensional del universo, dicho límite se manifestaría como una especie de efecto de pixelación en nuestra realidad física. Efectivamente, veríamos los puntos; espacio y tiempo, sugería Hogan, tendrían un aspecto granuloso si los pudiéramos ver a escalas lo bastante pequeñas.
Los tipos de escalas implicadas significaban que ello sólo sería detectable en los instrumentos más sensibles que tenemos: los detectores de ondas gravitatorias que buscan las arrugas en el espacio y el tiempo que resultan de acontecimientos cosmológicos violentos como la colisión de dos agujeros negros. Y así Hogan envió a los científicos del GE0600 (un detector de ondas gravitatorias situado en Hannover, Alemania) su mejor idea de cómo este carácter granuloso del espacio-tiempo afectaría a sus instrumentos.
Resulta que los investigadores del GE0600 habían tenido problemas con ruido en sus detectores. Y dicho ruido tenía exactamente las mismas características que la señal que Hogan había anticipado. No se trata todavía de una prueba concluyente, pero sugiere que al menos vale la pena tomarse en serio el «principio holográfico» (que dice que, en último término, todo está compuesto de información que reside en el borde del universo).

Información cuántica
La tercera razón para considerar tan importante la información proviene de la teoría cuántica, nuestro mejor conjunto de reglas para conocer cómo funcionan las cosas a escalas subatómicas. La teoría cuántica ha sido asombrosamente exitosa, y sus predicciones se han demostrado experimentalmente sin falta. Pero no es la respuesta final para comprender la naturaleza de la realidad. Aunque proporciona una manera para describir lo que sucede en sistemas subatómicos, no nos dice por qué las cosas se comportan como lo hacen (véase ¿Qué le pasó al gato de Schrödinger?). En realidad, nos deja perplejos sobre muchos aspectos del comportamiento de esos sistemas, lo que deja margen a los filósofos para que se pongan líricos sobre la ausencia de realidad objetiva y los límites de la ciencia experimental.
Hay más de media docena de interpretaciones filosóficas del panorama limitado que la teoría cuántica nos ofrece. No hay manera de elegir entre ellas porque todas son consistentes con todos los experimentos. La única salida, a lo que parece, es encontrar qué hay debajo de la teoría cuántica... y esto parece ser la información. Hay una conexión evidente entre la teoría cuántica y la información: con bits y cuantos, tanto la teoría de la información como la teoría cuántica se basan en una cantidad fundamental, indivisible. Pero también hay una conexión más sutil. El carácter extraño del mundo cuántico podría surgir de los límites en la cantidad de información que lleva una partícula cuántica.
Una razón para pensar esto es el principio de incertidumbre de Heisenberg, que dice que, si se conocen algunas cosas acerca de un sistema cuántico con exactitud perfecta, hay otras cosas que no podemos conocer en absoluto (véase ¿Acaso todo es, en último término, aleatorio?). Heisenberg dedujo su principio a partir de las ecuaciones de la teoría cuántica, y hasta ahora hemos tenido que aceptar que «así es tal como es». Sin embargo, si consideramos aspectos de la teoría de la información podemos conseguir una explicación algo más satisfactoria.
Una partícula cuántica, tal un electrón, tiene una propiedad denominada espín que es binaria (arriba o abajo) y puede medirse en cualquiera de las tres dimensiones espaciales. Si el espín de un electrón sólo puede llevar un bit de información, la primera medida en el electrón usará este bit; no hay más información del espín disponible para medidas en las demás dimensiones. El resultado de cualquiera de estas medidas siguientes será al azar: exactamente lo que predice el principio de incertidumbre de Heisenberg.
Hay indicaciones de que la teoría de la información puede también dar algún sentido al fenómeno enigmático del enmarañamiento cuántico, que permite una conexión «fantasmal» entre dos partículas. Es claro que el enmarañamiento está relacionado con transportar información y compartirla. Para decirlo de manera simple, dicta que, después de que dos partículas interaccionen, el estado cuántico de cada partícula (la descripción completa de su posición, momento, espín, etc.) no reside en dicha partícula, sino que es compartido entre ambas.
El carácter fantasmal del enmarañamiento radica en el hecho de que las partículas pueden colocarse en un estado cuántico que es «indefinido». De la misma manera que el gato de Schrödinger está vivo y muerto hasta que se lo observa (véase ¿Qué le pasó al gato de Schrödinger?), el par enmarañado puede tener una mezcla de espines (pueden ser, al mismo tiempo, «arriba» y «abajo») hasta que alguien mide el espín.
Cuando una medición obliga a que una partícula tenga un espín determinado, el espín de la otra partícula se hará definido. Einstein odiaba esta situación, porque parece como si la observación de una partícula pudiera cambiar el estado de otra, con independencia de lo alejadas que estén una de otra (véase ¿Puedo cambiar el universo con una simple mirada?). Sin embargo, si un par de partículas enmarañadas sólo puede llevar una cantidad limitada de información en sus estados de espín, esto proporciona una salida a su carácter misterioso.
La versión cuántica de la teoría de la información dice que un par enmarañado puede llevar sólo dos bits de información. Si estos dos bits codifican algo del estilo «los espines son los mismos cuando se miden en la dimensión X» y «los espines son opuestos cuando se miden en la dimensión Y», esto proporciona una descripción de los estados de los espines de ambas partículas... pero no deja margen para la información acerca del espín de una partícula concreta.
Esta es la razón por la que la primera medición parece dar un resultado aleatorio, pero el resultado de la segunda medición puede predecirse con exactitud perfecta. Aunque esto da la ilusión de una transferencia de información «fantasmal» entre las partículas, en realidad lo que ocurre es que la primera medición nos proporciona más información. Dado el primer resultado y la naturaleza de la conexión entre los espines, el espín de la segunda partícula puede deducirse mediante lógica sencilla.
Los investigadores cuánticos apenas han empezado a apreciar que la información podría ser la clave para comprender su disciplina, y todavía no tienen muchas explicaciones sólidas para cómo puede funcionar esto. Pero si la información se encuentra realmente en la base de la teoría cuántica, esto parece de alguna manera apropiado. Vivimos en lo que se ha calificado como la «era de la información», en la que las fibras ópticas y las transmisiones vía satélite descargan información a todo el mundo a velocidades e intensidades asombrosas. Todas estas tecnologías funcionan debido a nuestra comprensión del mundo cuántico: tanto el láser como el microchip son secuelas de la teoría cuántica. Parece absolutamente pertinente que la última pregunta de la física una la teoría de la información y la teoría cuántica.

Escépticos refinados
Así pues, ¿dónde nos deja esto en la búsqueda de la naturaleza fundamental de la realidad? Si podemos describir algo como «esto», como una entidad real, en último término parece proceder de un bit de información o de un conjunto grande de bits. Tal como lo planteó el físico John Archibald Wheeler, obtenemos «esto a partir del bit». En 1990, Wheeler declaró que «Mañana habremos aprendido a comprender y a expresar toda la física en el lenguaje de la información».
Este «mañana» no ha llegado todavía, pero quizá está apareciendo finalmente por el horizonte.

«Mañana habremos aprendido a comprender y a expresar toda la física en el lenguaje de la información.»

Sin embargo, simplemente no podemos saber en qué punto nos hallamos en el camino que lleva al descubrimiento de la naturaleza última de la realidad. Durante este siglo, nuestras investigaciones de la realidad nos han llevado del reino de lo atómico a lo subatómico, y de allí directamente hasta la idea de fluctuaciones energéticas en la urdimbre del espacio y el tiempo. Parece que la naturaleza fundamental de la realidad se halla todavía a mayor profundidad, en ideas abstractas de las matemáticas y la información. Pero ¿es éste el final?
Los físicos son penosamente conscientes de que algunas de sus conjeturas, o todas, podrían hallarse a un millón de kilómetros de la verdad. Trabajan dentro de los límites actuales del saber y los límites de la imaginación humana. Ambos parecen retroceder a medida que descubrimos más cosas sobre el mundo, pero no desaparecen nunca. Si en la actualidad el final de la física está en el horizonte, vale la pena recordar que siempre ha parecido estar allí. Sería presunción pensar que estamos dando los pasos finales hacia la comprensión del verdadero meollo de la realidad; sin duda, a los físicos les queda todavía mucha distancia que recorrer. Pero cuando el viaje es tan absolutamente fascinante, esto sólo puede ser motivo de celebración.


Glosario

Acelerador de partículas
Máquina utilizada para hacer colisionar partículas subatómicas entre sí. El análisis de los residuos resultantes puede proporcionar pistas acerca de los constituyentes fundamentales de la materia y de la naturaleza del universo.

Agujero de gusano
Atajo hipotético a través del espacio-tiempo que podría usarse para viajar en el tiempo.

Agujero negro
Un retazo del espacio-tiempo en el que la gravedad es tan fuerte que nada (ni siquiera la luz) puede escapar de allí. A menudo los agujeros negros se forman cuando una estrella gigante se derrumba bajo el impulso de su propia gravedad.

Antimateria
La «némesis» de la materia: cada partícula de materia tiene una contrapartida de antimateria. Cuando una partícula y su antipartícula colisionan, se aniquilan mutuamente.

Big Bang
El momento, hace casi 14.000 millones de años, en que el universo se originó.

Bosón
Una partícula que tiene un número cuántico de «espín» que es entero. Los bosones son las partículas a través de las cuales actúan las tuerzas.

Bosón de Higgs
Partícula hipotética que se piensa que media el campo de Higgs, el origen de determinados tipos de masa.

Cero absoluto
—273° Celsius: temperatura a la que ninguna sustancia contiene nada de energía térmica.

Compactación
Proceso por el cual las dimensiones «adicionales» sugeridas por muchas de las modernas teorías de la tísica permanecen todavía sin detectar.

Cromodinámica cuántica (QCD)
Teoría que describe la interacción de quarks y gluones en la física nuclear.

Cuanto
Unidad fundamental, originalmente de energía, pero que en la actualidad se aplica a cualquier cosa indivisible, como la carga del electrón, en física subatómica.

Curva temporal cerrada
Una región del espacio-tiempo que, si se sigue, lo retorna a uno al mismo momento en el tiempo.

Dilatación temporal
Una predicción de la relatividad especial, confirmada experimentalmente, que dice que el flujo temporal es alterado por el movimiento relativo o por la presencia de un campo gravitatorio.

Dimensiones adicionales ocultas
Determinadas teorías sugieren que hay más dimensiones espaciales que las que conocemos (arriba-abajo, atrás-adelante, a través).

Ecuación de Schrödinger
Ecuación utilizada para definir cómo se comporta la materia a escalas subatómicas.

Ecuaciones de Maxwell
Las ecuaciones, preparadas por James Clerk Maxwell, que definen la manera en que los campos eléctricos y magnéticos se comportan e interactúan.

Electrodinámica cuántica (QED)
Teoría que describe la interacción de la tuerza electromagnética con la materia.

Electrón
Partícula subatómica que se cree que transporta la unidad fundamental de carga eléctrica.

Energía cinética
Energía asociada al movimiento.

Energía del vacío
La energía intrínseca del espacio-tiempo, que por otra parte está vacío. Se debe al principio de incertidumbre de Heisenberg, que no permite que el espacio-tiempo posea una energía cero durante ningún período finito de tiempo.

Energía oscura
Una forma misteriosa de energía que muchos físicos creen que es responsable de la expansión acelerada del universo.

Energía potencial
La energía que contiene un objeto debido a su posición dentro de un campo (generalmente gravitatorio o eléctrico).

Enmarañamiento
Fenómeno que se da cuando dos partículas cuánticas interaccionan. Quedan conectadas y en cada una de ellas hay información acerca de ambas partículas.

Entropía
Una medida del desorden de un sistema físico. La entropía de un sistema cerrado aumenta siempre.

Espacio-tiempo
La urdimbre tetradimensional del universo. Un punto dado en el espacio-tiempo se denomina «evento»: un tiempo y localización específicos.

Éter
Fluido que se creía que llenaba el universo y que transportaba ondas electromagnéticas como la luz. Su existencia se refutó en 1887.

Experimento de doble rendija
Un experimento creado originalmente para demostrar la naturaleza ondulatoria de la luz. También se ha utilizado para demostrar que las partículas cuánticas poseen características de tipo ondulatorio.

Fermión
Una partícula material cuyo espín cuántico es la mitad de un número entero.

Fotón
Una partícula de luz o de otra energía electromagnética.

Fractal
Geometría que tiene el mismo aspecto sea cual sea la escala a la que se observe.

Fuerza débil
La fuerza a corta distancia que afecta a todas las partículas materiales. Es responsable, entre otras cosas, de algunas formas de radiación.

Fuerza electromagnética
Fuerza que provoca que las partículas con una carga eléctrica se repelan o atraigan entre sí, en función del signo de su carga.

Fuerza fuerte
La fuerza a corta distancia que une los quarks en protones y neutrones, y que supera la repulsión de los protones cargados positivamente para mantener unidos los núcleos atómicos.

Fuerzas fundamentales
Las cuatro fuerzas fundamentales son: fuerte; electromagnética; débil; gravedad. Ve ase /a tabla al final del Glosario.

Gas
Fluido compuesto por partículas que se atraen entre sí muy débilmente.

Geodínamo
La bola turbulenta de hierro fundido y agitado que ocupa el centro interior de la Tierra y crea un campo magnético que se automantiene.

Gluón
La partícula que media la fuerza nuclear fuerte.

Grandes teorías unificadas (GTU)
Teorías que intentan definir de qué manera tres de las tuerzas de la naturaleza (fuerte, débil y electromagnética) fueron en el pasado una sola en las condiciones del universo primitivo.

Gravedad
La fuerza de atracción que actúa entre partículas con masa o energía.

Gravedad cuántica
Teoría que unirá la teoría cuántica y la relatividad para crear una descripción global de cómo funcionan las cosas a escalas muy grandes y muy pequeñas, la teoría de cuerdas es un intento de construir una teoría de gravedad cuántica.

Inflación
Una teoría que sugiere que el universo atravesó un período de expansión ultrarrápida justo después del Big Bang

Interacción electrodébíl
Una fuerza que se cree que existió en las condiciones cálidas del universo primitivo y que dio origen a las fuerzas electromagnética y débil.

Interferencia
Fenómeno ondulatorio en el que interactúan (.los ondas, produciendo una onda cuyas propiedades dependen del tamaño y de la fase relativa de las ondas originales.

Ley cuadrática inversa
Cuando una fuerza entre dos objetos separados espacialmente disminuye, en una cantidad proporcional al cuadrado de la distancia entre ellos, cuando éstos se separan.

Líquido
Estado de la materia en el que las partículas poseen algunas fuerzas atractivas que actúan entre ellas y que sólo pueden separarse más mediante una entrada de energía.

Magnetosfera
El campo magnético que rodea la Tierra.

Máquina de movimiento perpetuo
Máquina hipotética que realizaría trabajo útil sin que se le suministrara energía.

Masa
Atributo de un objeto que confiere resistencia a la aceleración (masa inercial) o responde a la fuerza gravitatoria y la crea (masa gravitatoria). Los físicos creen que los dos tipos de masa son equivalentes, pero esto no se ha demostrado.

Materia oscura
Materia hipotética que, según la mayoría de astrónomos, supone cerca de la cuarta parte de la masa/energía del universo. La materia oscura se halla esparcida por el universo, pero se concentra en halos alrededor de las galaxias y los cúmulos de galaxias.

Modelo estándar
Teoría de la física que describe las propiedades de todas las partículas conocidas y sus interacciones.

Momento
El producto de la masa de una partícula por su velocidad.

Multiverso
Un universo compuesto por una miríada de universos más pequeños, por lo general sin ninguna conexión que permita el paso entre ellos.

Neutrón
Una partícula compuesta de tres quarks, pero sin carga eléctrica neta.

Núcleo
La parte central de un átomo, donde se concentra casi toda su masa.

Principio antrópico
Teoría según la cual preguntar por qué el universo es como es resulta esencialmente inútil porque no podríamos existir en ningún universo que fuera sustancialmente distinto.

Principio de incertidumbre de Heisenberg
Regla que impone un límite a la exactitud con que se pueden saber determinadas combinaciones de propiedades para cualquier partícula cuán tica o sistema.

Protón
Partícula cargada positivamente y compuesta de tres quarks.

Quark
Partícula subatómica asociada con los números atómicos. Protones y neutrones están compiles tos por tres quarks.

Radiación alfa
Una forma de radiación no penetrante pero potencialmente dañina. Las partículas alfa son idénticas al núcleo del helio, que contiene dos protones y dos neutrones.

Radiación beta
Radiación compuesta por electrones de elevada energía o por sus antipartículas (positrones), que es detenida fácilmente por una delgada lámina de metal. Es causada por procesos nucleares que implican la fuerza nuclear débil.

Radiación cósmica de fondo de microondas
Radiación que se emitió unos 300.000 años des pues del Big Bang, la radiación CFM contiene muchas pistas acerca de la naturaleza del universo primitivo.

Radiación gamma
Radiación muy penetrante que resulta de la emisión de fotones de elevada energía (rayos gamma) en las reacciones nucleares.

Relatividad especial
La teoría de 1905 de Einstein que establece la manera de que las leyes de la física lucían las mismas para todos los observadores, con independencia de cómo se desplazaran éstos a través del espacio y del tiempo. Posteriormente Einstein generalizó la teoría para todos los efectos de los campos gravitatorios.

Relatividad general
Descripción de Albert Einstein de la combadura del espacio y el tiempo por la presencia de masa y energía.

Sólido
Estado de la materia en el que las partículas se hallan enlazadas entre sí en una estructura rígida.

Superconductor
Un material que no ofrece resistencia al flujo de la corriente eléctrica.

Superfluido
Un fluido que no presenta fricción. El movimiento de un superfluido removido continúa indefinidamente.

Supersimetría
Teoría que confiere a las partículas conocidas un «supersocio» hipotético que es mucho más pesado pero que tiene un espín cuántico relacionado, la supersimetría es una parte importante de los intentos de unificar todas las fuerzas de la naturaleza.

Teoría de cuerdas
Descripción del mundo subatómico en la que partículas y fuerzas se describen por las vibraciones de cuerdas y bucles de energía.

Teoría de los muchos mundos
La idea, originada por Hugh Everett III, de que todo acontecimiento cuántico crea un universo nuevo y separado. Sólo las partículas cuánticas tales como los electrones pueden sentir la existencia de estos otros mundos.

Termodinámica
Estudio de la manera en que la energía creará calor, trabajo y entropía en un sistema físico.

Viento solar
Torrente de partículas cargadas que surge de la superficie del Sol. El viento solar es responsable de la aurora polar (las auroras boreales y australes).

32.jpg

33.jpg


Notas:
[1]TANSTAAFL: Plan para un nuevo orden económico mundial. TANSTAAFL es el acrónimo de There Ain't No Such Thing As A Free Lunch, la frase de marras original. (N. del t.)