En busca del gato de Schrödinger - John Gribbin

En busca del gato de Schrödinger

John Gribbin

Agradecimientos

Mi familiaridad con la teoría cuántica se remonta a mis tiempos de estudiante cuando descubrí la fórmula mágica según la cual el modelo atómico de capas de electrones explicaba la tabla periódica de los elementos y, virtualmente, toda la química con la que me había enfrentado a lo largo de muchas lecciones aburridas. Completando mi propio descubrimiento mediante la ayuda de libros de biblioteca catalogados de «demasiado avanzados» para mi modesto nivel académico, tomé conciencia inmediatamente de la maravillosa simplicidad de la explicación cuántica de los espectros atómicos, y experimenté por vez primera la sensación de que las mejores cosas en ciencia eran a la vez bellas y simples, un hecho que todos los profesores ocultan a sus estudiantes, por casualidad o a propósito. Me sentí como el personaje de The Search, de C. P. Snow, que yo leí mucho más tarde y que descubrió el mismo hecho:
Vi una mezcla de hechos fortuitos alinearse ordenadamente… «Sin embargo, es verdad», me dije. «Es hermoso. Y es verdad.» (Edición de Macmillan, 1963, pág. 27.)
En parte, como resultado de este descubrimiento, decidí estudiar física en la Universidad de Sussex en Brighton. Pero allí, la simplicidad y belleza de las ideas subyacentes quedaban camufladas entre una gran cantidad de detalles y de recetas matemáticas útiles para resolver problemas concretos con la ayuda de las ecuaciones de la mecánica cuántica. La aplicación de estas ideas al mundo de la física cotidiana parecía aportar tanta relevancia a la verdad y a la belleza subyacentes como la que aporta el pilotar un 747 al vuelo sin motor; y aunque la fuerza del impacto inicial siguió influyendo en mi carrera, durante un largo período de tiempo desprecié el mundo cuántico y me dediqué a explorar otros cotos científicos.
Mi interés inicial se reavivó gracias a una combinación de factores. A finales de los años 1970 y principios de los 1980, comenzaron a aparecer libros y artículos que pretendían, con distinto éxito, introducir a una audiencia no científica en el extraño mundo cuántico. Algunas de estas denominadas «divulgaciones» estaban tan escandalosamente lejos de la realidad que no me podía imaginar a ningún lector descubriendo la verdad y la belleza de la ciencia a través de su lectura, y comencé a sentirme atraído por realizar esa misión de forma adecuada. Por esa época llegaban noticias de continuas series de experimentos que demostraban la realidad de algunas de las más extrañas peculiaridades de la teoría cuántica, y esas noticias me estimulaban para retomar a las bibliotecas y refrescar mis conocimientos sobre aquellas extrañas ideas. Finalmente, unas Navidades fui requerido por la BBC para tomar parte en un programa de radio como una especie de contrapeso científico a Malcolm Muggeridge, que había anunciado recientemente su conversión a la fe católica y era el invitado principal al programa. Después de acabar su discurso, haciendo énfasis en los misterios de la cristiandad, se dirigió a mí y dijo: «Pero aquí está el hombre que conoce todas las respuestas, o que tiene la pretensión de conocer todas las respuestas.» En el limitado tiempo de que disponía me dediqué a responder cortésmente, destacando que la ciencia no pretende estar en posesión de todas las respuestas, y que es la religión, y no la ciencia, la que basa el conocimiento de la verdad en la convicción y en la fe absolutas. «Yo no creo nada», dije, y trataba de desarrollar esta filosofía cuando el Drograma llegó a su fin. Durante la época vacacional fui muy felicitado por amigos y conocidos por el eco de aquellas palabras y pasé horas explicando que mi falta absoluta de fe en cualquier cosa no me impedía llevar una vida normal en la que hacía uso de hipótesis de trabajo tan razonables como lo es la suposición de que el Sol no desaparecerá durante la noche.
El proceso de sedimentación de mis ideas acerca de lo que es la ciencia implicó una profunda revisión de la realidad básica —o irrealidad— del mundo cuántico, lo suficiente como para convencerme de que realmente estaba preparado para escribir este libro. Mientras preparaba el libro, sometí a prueba algunos de los más sutiles argumentos de mi contribución científica regular a un programa de radio dirigido por Tommy Vance y emitido por la British Forces Broadcasting Service; las cuestiones planteadas por Tom pronto descubrieron ciertas deficiencias en mi presentación, lo que supuso una mejor organización de mis ideas. La principal fuente de material de referencia usado en la preparación del libro fue la biblioteca de la Universidad de Sussex, que debe poseer una de las mejores colecciones existentes de libros sobre la teoría cuántica, y varias referencias más oscuras me fueron proporcionadas por Mandy Caplin, del New Scientist, quien posee un importante sistema de mensajes por télex, mientras Christine Sutton corrigió algunos de mis errores sobre la física de las partículas elementales y la teoría de campos. Mi esposa no sólo me proporcionó apoyo esencial en la faceta literaria y de organización del material, sino que limó muchas de las asperezas e incoherencias que quedaban incluso después de que las explicaciones hubieran pasado la criba que suponía la ignorancia inteligente de Tommy Vance.
Cualquier alabanza sobre las buenas cualidades de este libro debe ser dirigida a los textos de química «avanzada» que encontré en la biblioteca del Condado de Kent a los dieciséis años, cuyos títulos ya no recuerdo; a los descaminados «divulgadores» y publicistas de las ideas cuánticas que me convencieron de que yo lo haría mejor; a Malcolm Muggeridge y a la BBC; a la biblioteca de la Universidad de Sussex; a Tommy Vance y a la BFBS; a Mandy Caplin; a Christine Sutton y especialmente a Min. Cualquier queja por las deficiencias que pudieran quedar en el texto debe estar dirigida contra mí, por supuesto.

Introducción

Si todos los libros y artículos escritos sobre la teoría de la relatividad se colocaran uno tras otro, probablemente llegarían de aquí a la Luna. «Todo el mundo» sabe que la teoría de la relatividad de Einstein es la mayor conquista de la ciencia del siglo veinte, y «todo el mundo» está equivocado. Sin embargo, si se reunieran todos los libros y artículos escritos sobre teoría cuántica apenas cubrirían una mesa. Ello no significa que la teoría cuántica sea ignorada fuera de los ambientes académicos. Ciertamente, la mecánica cuántica se ha hecho altamente popular en algunos aspectos, siendo invocada para explicar fenómenos tales como la telepatía y el doblado de cucharas, y ha proporcionado una fructífera fuente de ideas para diferentes historias de ciencia ficción. La mecánica cuántica se identifica en la mitología popular, en la medida que resulta identificada, con el ocultismo y la percepción extrasensorial, como una rama extraña y esotérica de la ciencia que nadie entiende y que nadie utiliza.
Este libro se ha escrito para combatir esa actitud hacia la que es, de hecho, el área más fundamental e importante del estudio científico. El libro debe su génesis a varios factores que concurrieron en el verano de 1982. En primer lugar, yo acababa de escribir un libro sobre la relatividad, Spacewarps, y se me ocurrió que podría ser conveniente acometer la desmitificación de la otra gran rama de la ciencia del siglo veinte. En segundo lugar, me sentía cada vez más irritado por los errores asociados al nombre de la teoría cuántica entre algunos de los no científicos. El excelente libro de Fritjof Capra, The Tao of Physics, había generado multitud de imitadores que no habían entendido ni la física ni el taoísmo pero que sospechaban que podían ganar una buena suma de dinero ligando ciencia occidental con filosofía oriental. Finalmente, en agosto de 1982, noticias provenientes de París informaban que un equipo había llevado a cabo con éxito un test crucial que confirmaba —a los que aún lo dudaban— la precisión de la imagen mecánico-cuántica del mundo.
No se busque aquí ningún misticismo oriental, doblado de cucharas o percepción extrasensorial, sino la verdadera historia de la mecánica cuántica, una verdad más extraña que cualquier ficción. La ciencia es tal que no necesita ataviarse con el pobre ropaje de ninguna filosofía particular, ya que está llena de encantos propios, misterios y sorpresas. La cuestión que este libro plantea es: «¿Qué es la realidad?» La respuesta puede ser sorprendente o incluso increíble, pero pondrá de manifiesto cómo ve el mundo la ciencia contemporánea.

Prólogo

Nada es real
El gato que aparece en el título es un animal mítico, pero Schrödinger fue una persona real. Erwin Schrödinger fue un científico alemán que contribuyó al desarrollo, hacia la mitad de la década de los años 20, de las ecuaciones de una rama de la ciencia actualmente conocida como mecánica cuántica. «Rama de la ciencia» puede resultar una expresión incorrecta, ya que la mecánica cuántica proporciona el soporte fundamental de toda la ciencia moderna. Sus ecuaciones describen el comportamiento de objetos minúsculos, del tamaño del átomo o incluso menos, y proporcionan la única explicación del mundo de «lo muy pequeño». Sin estas ecuaciones, los físicos no habrían sido capaces de diseñar centrales o bombas nucleares, construir láseres ni explicar por qué el Sol se mantiene caliente. Sin la mecánica cuántica, la química estaría aún en una época oscura y no existiría la biología molecular, la comprensión del DNA y la ingeniería genética.
La teoría cuántica representa la conquista más grande de la ciencia, mucho más significativa y directa desde el punto de vista práctico que la teoría de la relatividad. Y, además, hace algunas predicciones muy extrañas. El mundo de la mecánica cuántica es, en verdad, tan extraño que incluso Albert Einstein lo encontró incomprensible, y se negó a aceptar todas las implicaciones de la teoría desarrollada por Schrödinger y sus colegas. A Einstein, como a muchos otros científicos, le resultó más cómodo creer que las ecuaciones de la mecánica cuántica simplemente representan una especie de truco matemático que, si bien proporciona una guía de trabajo razonable en el estudio del comportamiento de partículas atómicas y subatómicas, oculta en realidad alguna verdad más profunda que se ajusta mejor a nuestro sentido cotidiano de la realidad. Lo que la mecánica cuántica dice es que nada es real y que no podemos decir nada sobre lo que las cosas están haciendo cuando no las estamos observando. El mítico gato de Schrödinger se utilizó para señalar las diferencias entre el mundo cuántico y el mundo claro de cada día.
En el mundo de la mecánica cuántica, las leyes habituales de la física dejan de funcionar. En su lugar, los acontecimientos pasan a estar gobernados por probabilidades. Un átomo radiactivo, por ejemplo, puede desintegrarse emitiendo un electrón o puede no hacerlo. Es posible montar un experimento de forma que exista una probabilidad exacta del 50 % de que uno de los átomos de una muestra de material radiactivo se desintegre en un cierto tiempo y que un detector registre la desintegración si se produce. Schrödinger, tan preocupado como Einstein por las implicaciones de la teoría cuántica, trató de poner de manifiesto el carácter absurdo de tales implicaciones imaginando ese dispositivo experimental en una sala cerrada, o en una caja, dentro de la cual hay un gato vivo y un frasco con veneno, preparado todo de tal forma que si ocurre la desintegración radiactiva el recipiente del veneno se rompe y el gato muere. En el mundo actual existe un 50 % de probabilidades de que el gato resulte muerto, y sin mirar dentro de la caja podemos decir, tranquilamente, que el gato estará vivo o muerto. Pero ahora nos topamos con lo extraño del mundo cuántico. Como resultado de la teoría, ninguna de las dos posibilidades abiertas al material radiactivo, y por tanto al gato, tiene realidad salvo que sea observada. La desintegración atómica ni ha ocurrido ni ha dejado de ocurrir; el gato, ni ha muerto ni ha dejado de morir en tanto no miremos dentro de la caja para ver lo que ha pasado. Los teóricos que aceptan la versión ortodoxa de la mecánica cuántica dicen que el gato existe en cierto estado indeterminado, ni vivo ni muerto, hasta que un observador mira dentro de la caja para ver cómo marchan las cosas. Nada es real salvo si se observa.
La idea resultaba un anatema para Einstein, entre otros. «Dios no juega a los dados», dijo refiriéndose a la teoría según la cual el mundo está gobernado por la acumulación de resultados de naturaleza esencialmente aleatoria que se dan al nivel cuántico. En cuanto a la irrealidad del estado del gato de Schrödinger, él la eliminó, suponiendo que debe existir algún mecanismo subyacente que hace posible la genuina y fundamental realidad de las cosas. Einstein pasó muchos años tratando de encontrar pruebas que revelaran esta realidad subyacente, pero murió antes de que fuera realmente posible llevar a cabo un experimento de esta clase. Quizás es mejor que no haya vivido para ver el destino de la línea de pensamiento que él inició.
En el verano de 1982, en la Universidad de París-Sur, en Francia, un equipo encabezado por Alain Aspect completó una serie de experimentos diseñados para detectar la realidad subyacente del mundo irreal del «cuanto». A este mecanismo fundamental se le ha denominado «variables ocultas», y el experimento se refería al comportamiento de dos fotones (partículas de luz) viajando en direcciones opuestas desde una misma fuente. Está descrito con detalle en el capítulo diez, pero esencialmente puede considerarse como una prueba de realidad. Los dos fotones de la misma fuente pueden observarse mediante dos detectores que miden una propiedad llamada polarización. De acuerdo con la teoría cuántica, esta propiedad no existe hasta que se mide. Según el modelo de las variables ocultas, cada fotón tiene una polarización «real» desde el momento de su creación. Como los dos fotones se emiten simultáneamente, sus polarizaciones están correlacionadas. Pero la naturaleza de dicha correlación, que es lo que se mide, resulta diferente según se adopte uno u otro punto de vista.
Los resultados de este crucial experimento no presentan ninguna ambigüedad. El tipo de correlación predicho por el modelo de variables ocultas no ha aparecido; por el contrario, se ha dado la correlación predicha por la teoría cuántica, y aún más, también como preveía la teoría cuántica, las medidas efectuadas en uno de los fotones tienen un efecto instantáneo sobre la naturaleza del otro fotón. Alguna interacción los liga inexorablemente, incluso aunque se separen a la velocidad de la luz (la teoría de la relatividad asegura que ninguna señal puede viajar a más velocidad que la de la luz). Los experimentos demuestran que no existe una realidad subyacente. La palabra realidad, en el sentido usual, no es un concepto utilizable para estudiar el comportamiento de las partículas que integran el universo; al mismo tiempo, dichas partículas parecen formar parte de algún todo indivisible y cada una acusa lo que acontece a las restantes.
La búsqueda del gato de Schrödinger ha sido la búsqueda de la realidad cuántica. De este breve resumen, parece evidente que la búsqueda ha sido fructífera, ya que no existe realidad en el sentido usual de la palabra. Pero éste no es en absoluto el final de la historia, y la búsqueda del gato de Schrödinger puede llevamos a una nueva forma de entender y valorar la realidad que trasciende, y que incluye a la interpretación convencional de la mecánica cuántica. El camino es largo, no obstante, y comienza con un científico que probablemente se habría sentido aún más horrorizado que el propio Einstein si hubiese podido conocer las respuestas que hoy se dan a las cuestiones que él se propuso resolver. Isaac Newton, estudiando la naturaleza de la luz hace tres siglos, puede que no fuera consciente de que ya estaba en el camino que conducía al gato de Schrödinger.

Parte 1
El cuanto

«Todo aquel que no queda fuertemente impresionado por la teoría cuántica es porque no la ha entendido.»
NIELS BOHR
1885-1962

Capítulo 1
La luz

Isaac Newton inventó la física, y toda la ciencia depende de la física. Ciertamente, Newton se apoyó en el trabajo de otros, pero fue la publicación de sus tres leyes del movimiento y de la teoría de la gravitación, hace casi exactamente trescientos años, la que colocó a la ciencia en el camino que la ha llevado a los vuelos espaciales, a los láseres, a la energía atómica, a la ingeniería genética, a la comprensión de la química y a todo lo demás. Durante doscientos años, la física newtoniana (que se conoce con el nombre de física «clásica») reinó con supremacía; en el siglo veinte, nuevas ideas revolucionarias llevaron a la superación de la física de Newton, pero sin aquellos dos siglos de desarrollo científico quizá las nuevas teorías nunca hubieran aparecido. Este libro no es una historia de la ciencia, y versa sobre la nueva física —la física cuántica— más que sobre aquellas ideas clásicas. Pero ocurre que en la obra de Newton de hace tres siglos ya había signos del cambio que estaba por venir, no en sus estudios sobre movimientos planetarios y órbitas ni en sus famosas tres leyes, sino en su investigación sobre la naturaleza de la luz.
Las ideas de Newton sobre la luz tienen mucho que ver con sus ideas sobre el comportamiento de los cuerpos sólidos y sobre las órbitas de los planetas. Él fue consciente de que nuestras experiencias cotidianas sobre el comportamiento de los objetos pueden ser confusas y que un objeto, una partícula libre de toda influencia exterior, puede comportarse de forma muy diferente a como lo hace sobre la superficie de la Tierra. Aquí, nuestra experiencia cotidiana nos dice que las cosas tienden a permanecer en un sitio concreto, salvo que se actúe sobre ellas, y que, una vez cesa la influencia, pronto acaba el movimiento. Entonces, ¿por qué objetos tales como los planetas o la Luna no cesan de moverse en sus órbitas? ¿Hay algo que los mantiene? Nada de eso. Son los planetas los que permanecen en un estado natural, libres de influencias externas, y son los objetos sobre la superficie de la Tierra los que sufren su influencia. Si hacemos deslizar un bolígrafo sobre la mesa, a esa acción se opone el rozamiento del bolígrafo contra la mesa, y ésa es la causa de que se detenga cuando deja de actuar. Si no hubiera fricción, el bolígrafo se mantendría en movimiento. Ésta es la primera ley de Newton: todo cuerpo permanece en reposo, o se mueve con velocidad constante, salvo que alguna fuerza exterior actúe sobre él. La segunda ley nos dice qué efecto tiene sobre un objeto la actuación de una fuerza externa. Una fuerza de este tipo cambia la velocidad del objeto, y un cambio en la velocidad se llama aceleración; si se divide la fuerza entre la masa del objeto, el resultado es la aceleración producida sobre el cuerpo por aquella fuerza. Usualmente, esta segunda ley se expresa de forma ligeramente distinta: la fuerza es igual a masa por la aceleración. Y la tercera ley de Newton explica cómo reaccionan los objetos ante acciones externas: para cada acción hay una reacción igual y opuesta. Si se golpea una pelota de tenis con una raqueta, la fuerza con que la raqueta impulsa a la pelota es exactamente contrastada por una fuerza igual y contraria que actúa sobre la raqueta; el bolígrafo sobre la mesa sometido a la gravedad sufre una reacción igual pero dirigida hacia arriba por parte del pupitre; la fuerza del proceso explosivo de los gases de la cámara de combustión en un cohete produce una fuerza de reacción igual y contraria sobre el propio cohete, que le impulsa en la dirección opuesta.
Estas leyes, junto con la ley de Newton sobre la gravedad, sirvieron para explicar las órbitas de los planetas alrededor del Sol y la de la Luna alrededor de la Tierra. Cuando se tuvo en cuenta el rozamiento, estas leyes también permitieron explicar el comportamiento de objetos sobre la superficie terrestre y formaron la base de la mecánica. Pero pusieron de manifiesto implicaciones filosóficas: de acuerdo con las leyes de Newton, el comportamiento de una partícula podía ser predicho exactamente a partir de sus interacciones con otras partículas y de las fuerzas que actúan sobre ella. Si alguna vez fuera posible conocer la posición y la velocidad de cada partícula en el universo, entonces sería posible predecir con absoluta exactitud el futuro de cada partícula y, por tanto, el futuro del universo. ¿Significa esto que el universo funciona como un mecanismo de relojería, construido y mantenido en movimiento por el Creador, y sometido a una evolución completamente predictible? La mecánica clásica de Newton proporciona soporte completo a esta visión determinista del universo, una imagen que deja poco sitio para la libertad humana. ¿Puede ser realmente que todos seamos muñecos que seguimos a lo largo de la vida nuestras propias trazas prefijadas, sin ninguna posibilidad real de opción? La mayoría de los científicos aceptaban de buen grado dejar el debate de la cuestión en manos de los filósofos. Pero el problema volvió a aparecer, y con mucha más fuerza, en el estudio de la nueva física del siglo veinte.

¿Ondas o partículas?
Con tal éxito en su física de partículas, no es extraño que cuando Newton trató de explicar el comportamiento de la luz lo hiciera en términos de partículas. Después de todo, los rayos de luz son observados viajando en líneas rectas, y la forma en que la luz se refleja en un espejo es muy parecida al modo de rebotar una bola en una pared dura. Newton construyó el primer telescopio de reflexión, explicó la luz blanca como una superposición de todos los colores del arco iris y trabajó mucho en óptica, pero basando siempre sus teorías en la hipótesis de que la luz consistía en un haz de partículas diminutas (corpúsculos). Los rayos de luz varían su dirección cuando atraviesan la barrera entre una sustancia más ligera y otra más densa, por ejemplo en el paso de aire a agua o a vidrio (por eso parece que un palo se quiebra en un recipiente con agua). Esta refracción se explica convincentemente sobre la base de una teoría corpuscular suponiendo que los corpúsculos se mueven más rápidamente en la sustancia de mayor «densidad óptica». No obstante, en la época de Newton, había una forma alternativa de explicar todo esto.

img001.jpg
Fig. 1-1. Ondas de agua paralelas que pasan por un pequeño agujero en una barrera y se extienden en círculos a partir del hueco, sin dejar zonas de sombra.

El físico holandés Christiaan Huygens, contemporáneo de Newton aunque trece años mayor (había nacido en 1629), desarrolló la idea de que la luz no es un haz de partículas sino una onda, como las que surcan la superficie de un mar o de un lago, propagándose a través de una sustancia invisible llamada «éter lumínico». Igual que aparecen ondas al soltar una piedra en un estanque, se producen ondas luminosas en el éter, en todas las direcciones, a partir de una fuente de luz. La teoría ondulatoria explicaba la reflexión y la refracción tan bien como lo hacía la teoría corpuscular. Aunque ésta afirmaba que, en lugar de acelerarse, las ondas de luz se movían más lentamente en las sustancias de mayor densidad óptica, no había forma de medir la velocidad de la luz en el siglo diecisiete, por lo que esta discrepancia no podía resolver el conflicto entre las dos teorías. Cuando la luz pasa por una esquina pronunciada, produce también una acusada sombra lateral. Ésta es exactamente la forma en que debe comportarse un haz de partículas viajando en línea recta. Una onda tiende a doblarse, o difractarse, hacia la zona de sombra (como hacen las olas al bordear las rocas). Hace trescientos años, esta evidencia favorecía claramente la teoría corpuscular, y la teoría ondulatoria, aunque no olvidada, sí fue descartada. Sin embargo, a principios del siglo diecinueve, el «status» de ambas teorías resultó casi completamente invertido.

img002.jpg
Fig. 1-2. Ondas circulares similares a las producidas al soltar una piedra en un estanque, que se propagan centradas en el hueco al pasar por una estrecha abertura. Las ondas que chocan contra la barrera son reflejadas hacia atrás.

En el siglo dieciocho, muy poca gente tomó en serio la teoría ondulatoria de la luz. Uno de los pocos que no sólo la tomaron en serio, sino que la apoyaron en sus escritos fue el suizo Leonard Euler, el matemático más prestigioso de la época y que hizo contribuciones esenciales para el desarrollo de la geometría, del cálculo y de la trigonometría. Las matemáticas y la física moderna se describen en términos aritméticos, mediante ecuaciones; las técnicas en las que tal descripción aritmética se basa fueron extensamente desarrolladas por Euler, y en el proceso introdujo notaciones abreviadas que aún hoy sobreviven, como el nombre «pi» para la razón de la circunferencia a su diámetro; la letra i para expresar la raíz cuadrada de menos uno (y que volverá a aparecer, junto con pi); y los símbolos usados por las matemáticas para expresar la operación llamada integración. Es curioso, no obstante, que la referencia de Euler en la Enciclopedia Británica no cite su posición sobre la teoría ondulatoria de la luz, posición que un contemporáneo afirmó no ser mantenida «ni por un solo físico prominente».[1] Puede que el único prominente contemporáneo de Euler que compartió sus puntos de vista fuera Benjamín Franklin; los físicos los ignoraron hasta que nuevos experimentos, cruciales para el desarrollo de esta teoría, fueron realizados por el inglés Thomas Young exactamente a comienzos del siglo diecinueve, y por el francés Augustin Fresnel poco después.

El triunfo de la teoría ondulatoria
Young utilizó sus conocimientos sobre el movimiento de las ondas en la superficie de un estanque para diseñar un experimento que sirviera de prueba en cuanto a si la luz se propagaba de esa misma forma. Todos conocemos el aspecto de una onda de agua, aunque es importante pensar en una ola pequeña para tener una analogía más precisa. La principal característica de una onda es que eleva el nivel del agua ligeramente y luego causa una depresión cuando la onda pasa; la altura de la cresta de la onda sobre la superficie no perturbada del agua es su amplitud, y para una onda perfecta es igual a la bajada de nivel que experimenta el agua cuando la onda pasa. Una serie de olas, como las producidas por nuestra piedra en el estanque, suelen presentarse con un espacio regular, llamado longitud de onda, que se mide como distancia entre una cresta y la siguiente. Alrededor del punto donde la piedra cayó al agua, las ondas se propagan en círculos, pero las olas en el mar, o las producidas en un lago por el viento, pueden avanzar en series de líneas rectas, de ondas paralelas, una tras otra. En cualquier caso, el número de crestas de onda que pasan por algún punto fijo —como una roca— por segundo proporciona la frecuencia de la onda. La frecuencia es el número de longitudes de onda que pasan por segundo, de modo que la velocidad de la onda, la velocidad de avance de cada cresta, es la longitud de onda multiplicada por la frecuencia.

img003.jpg
Fig. 1-3. La capacidad de las ondas para doblar esquinas se traduce en que rápidamente pueden invadir la sombra de un obstáculo, suponiendo que el obstáculo no sea mucho mayor que la longitud de onda.

El experimento crucial se hizo con ondas paralelas, como las olas que avanzan hacia una playa, antes de romperse. Pueden imaginarse como si fueran producidas por la caída de un objeto enorme sobre el agua a una gran distancia. Esas olas propagándose en círculos crecientes parecen paralelas, o planas, si se está lo suficientemente alejado de la fuente de las ondas, ya que es difícil detectar la curvatura de la gran circunferencia centrada en el punto donde comenzó la perturbación. Resulta sencillo investigar en un depósito de agua lo que les sucede a tales ondas planas cuando encuentran un obstáculo en su camino. Si el obstáculo es pequeño, las ondas lo bordean e invaden la retaguardia por difracción, dejando escasa sombra; pero si el obstáculo es muy grande comparado con la longitud de onda de las olas, éstas se doblan ligeramente hacia la sombra de detrás, dejando una zona con agua sin perturbar. Si la luz es una onda, aún es posible la existencia de sombras; basta que la longitud de onda de la luz sea muy pequeña comparada con el tamaño del objeto que provoca la sombra.

img004.jpg
Fig. 1-4. La capacidad de la luz para sufrir difracción por bordes o por pequeños agujeros puede comprobarse utilizando una rendija simple para originar ondas circulares y una rendija doble para producir interferencia.

Ahora demos la vuelta al razonamiento. Imagínese un bello panorama de ondas planas avanzando en un depósito de agua hasta llegar, no a un obstáculo rodeado de agua, sino a una pared completa que cierra el camino y que tiene un agujero en el centro. Si el hueco es mucho mayor que la longitud de onda, justamente la porción de onda en línea con el agujero lo atravesará, continuando su camino al otro lado pero dejando aquí la mayor parte del agua sin perturbar; como sucede con las olas que llegan a la entrada de un puerto. Pero si el hueco de la pared es muy pequeño actúa como una nueva fuente de ondas circulares, como si se estuvieran arrojando piedras al agua en ese mismo punto. Estas ondas circulares (o, más correctamente, semicirculares) se propagan por el otro lado de la pared donde no dejan ninguna zona de agua sin perturbar.
Hasta aquí, todo bien. Pero, finalmente, veamos el experimento de Young. Imagínese el mismo montaje anterior, el depósito de agua con las olas viajando hacia la barrera, pero ahora se trata de una barrera con dos pequeños agujeros. Cada hueco actúa como una nueva fuente de ondas semicirculares en la región del depósito posterior al obstáculo, y como estos dos conjuntos de ondas están producidos por las mismas ondas paralelas del lado anterior de la pared, se mueven exactamente «al paso», o en fase. Ahora hay dos conjuntos de olas desplazándose por el agua y se produce un oleaje final en la superficie de aspecto más complicado. En el lugar en donde las dos olas están haciendo subir el agua aparece una cresta más pronunciada; donde una intentaba crear una cresta y la otra un valle, ambas influencias se compensan y el agua queda como estaba. Estos efectos reciben el nombre de interferencia constructiva y destructiva, respectivamente, y son fáciles de ver, de forma rudimentaria, soltando dos piedras simultáneamente en un estanque. Si la luz es una onda, un experimento equivalente sería capaz de mostrar una interferencia similar entre ondas luminosas, y eso es exactamente lo que Young descubrió.

img005.jpg
Fig. 1-5. De la misma forma que las ondas de agua pasan a través de un hueco, las ondas de luz se propagan en círculo desde la primera rendija viajando «al paso» unas con otras.

Él iluminó una barrera en la que había dos rendijas estrechas. Más atrás, la luz proveniente de las dos rendijas se propagaba y producía interferencias. Si la analogía con el agua era correcta, debería existir una figura de interferencia detrás de la barrera con zonas alternadas de luz y oscuridad, a causa de la interferencia constructiva y destructiva de las ondas de cada rendija. Cuando Young colocó una pantalla blanca detrás de las rendijas, eso es exactamente lo que encontró: bandas alternas de luz y oscuridad.

img006.jpg
Fig. 1-6. Ondas circulares avanzando desde cada uno de los huecos de una pantalla doblemente agujereada, las cuales interfieren y producen una figura con zonas brillantes y oscuras en la pantalla de observación; es una prueba clara, en el ámbito de este experimento, de que la luz se comporta como una onda.

Pero el experimento de Young no enardeció precisamente al mundo de la ciencia, sobre todo en Gran Bretaña. La ciencia establecida consideraba la oposición a cualquier idea de Newton como casi herética, y en cierta medida antipatriótica. Newton había muerto en 1727, y en 1705 —menos de cien años antes de que Young anunciara sus descubrimientos— había sido el primer hombre investido caballero por sus trabajos científicos. Era demasiado pronto para destronar al ídolo de Inglaterra; probablemente era más apropiado que, en los tiempos de las guerras napoleónicas, fuera el francés Augustin Fresnel quien adoptara esta idea «antipatriótica» y, eventualmente, estableciera la explicación ondulatoria de la luz. El trabajo de Fresnel, aunque unos años posteriores al de Young, fue más completo, ofreciendo una explicación ondulatoria a prácticamente todos los aspectos del comportamiento de la luz. Entre otras cosas, él logró explicar un fenómeno que hoy nos resulta familiar: las reflexiones maravillosamente coloreadas producidas por la luz al iluminar una película delgada de aceite. El proceso vuelve a estar causado por interferencias de ondas. Una parte de la luz se refleja desde la capa exterior, pero otra atraviesa el aceite y se refleja desde el fondo de la película, de modo que hay dos haces reflejados de manera diferente que interfieren. Puesto que cada color de la luz corresponde a una longitud de onda distinta y la luz blanca es la superposición de todos los colores del arco iris, las reflexiones de luz blanca en la película de aceite producen una variedad de colores debido a que unas ondas (colores) interfieren destructivamente y otras lo hacen constructivamente, dependiendo exactamente de la posición de nuestro ojo en relación a la película.
Léon Foucault, el físico francés famoso por el péndulo que lleva su nombre, estableció a mediados del siglo diecinueve que, contra lo predicho por la teoría corpuscular de Newton, la velocidad de la luz es menor en el agua que en el aire, que no era sino lo que cualquier científico reconocido suponía. Desde entonces «todo el mundo supo» que la luz era una forma de movimiento ondulatorio que se propagaba a través del éter, fuera éste lo que fuera. En las décadas de 1860 y 1870 la teoría de la luz careció quedar definitivamente consolidada al establecer el gran físico escocés James Clerk Maxwell la existencia de ondas que implicaban cambios de campos eléctricos y magnéticos. Esta radiación electromagnética había sido predicha por Maxwell para poder recurrir a modelos de campos eléctricos y magnéticos más fuertes y más débiles en analogía a como las ondas de agua originan crestas y valles en la altura del líquido. En 1887 Heinrich Hertz logró transmitir y recibir radiación electromagnética en forma de ondas de radio, que son similares a las de luz pero con longitudes de onda mucho mayor. Así se completaba la teoría ondulatoria de la luz, justo a tiempo para ser adaptada por la mayor revolución del pensamiento científico desde los tiempos de Newton y Galileo. A finales del siglo diecinueve, sólo un genio o un loco podía haber sugerido que la luz era de naturaleza corpuscular. Su nombre fue Albert Einstein; pero antes de que podamos entender por qué tomó tan audaz dirección necesitamos conocer unos cuantos datos más acerca de las ideas de la física del siglo diecinueve.

Capítulo 2
Átomos

Muchos relatos populares acerca de la historia de la ciencia dicen que la teoría del átomo se remonta a los antiguos griegos, el nacimiento de la ciencia, y continúan con alabanzas a los mismos por su pronta percepción de la verdadera naturaleza de la materia. Esta afirmación resulta un tanto exagerada. Es verdad que Demócrito de Abdera, que murió hacia el año 370 a. de C., indicó que la naturaleza compleja del mundo podía explicarse si todas las cosas estuvieran compuestas de diferentes clases de átomos inmutables, cada tipo con forma y tamaño propios, en movimiento perpetuo. «Las únicas realidades existentes son los átomos y el espacio vacío; lo demás es mera especulación» escribió[2], y más tarde Epicuro de Samos y el romano Lucrecio Caro adoptaron la idea. Pero en aquellos tiempos no era capital el establecer una teoría de la naturaleza del mundo, y la sugerencia de Aristóteles de que todo en el Universo estaba compuesto a partir de cuatro «elementos» (fuego, tierra, aire y agua) resultó mucho más popular y duradera. En tanto que la idea de átomos quedaba olvidada en el tiempo de Cristo, los cuatro elementos aristotélicos fueron aceptados durante dos mil años.
Aunque el inglés Robert Boyle usó el concepto de átomos en sus trabajos de química en el siglo diecisiete, y Newton lo tuvo en mente en sus descubrimientos en física y en óptica, los átomos realmente no pasaron a formar parte del pensamiento científico hasta la segunda mitad del siglo dieciocho, tras las investigaciones del químico francés Antoine Lavoisier sobre la combustión. Lavoisier identificó muchos elementos reales, sustancias químicas puras que no pueden ser separadas en otras sustancias químicas, y comprobó que la combustión es simplemente un proceso en virtud del cual el oxígeno del aire se combina con otros elementos. A principios del siglo diecinueve John Dalton asignó a los átomos un papel más relevante en química. Estableció que la materia está compuesta por átomos, que a su vez son indivisibles; que todos los átomos de un elemento son idénticos, pero que diferentes elementos tienen átomos distintos (en forma y tamaño); que los átomos no se pueden crear ni destruir, sino que sólo se pueden reorganizar en las reacciones químicas; y que un compuesto químico de dos o más elementos está formado por moléculas, cada una de las cuales tiene un número pequeño y fijo de átomos de cada elemento del compuesto. De modo que la concepción atómica del mundo material realmente se implantó, en la forma que actualmente se explica en los libros de ciencia, hace menos de doscientos años.

Los átomos del siglo diecinueve
Aun así, la idea era lentamente aceptada por los químicos del siglo diecinueve. Joseph Gay-Lussac estableció experimentalmente que cuando dos sustancias gaseosas se combinan, el volumen que se necesita de uno de los gases es siempre simplemente proporcional al volumen necesario del otro. Si el compuesto producido también es un gas, el volumen de este tercer gas también está en proporción simple con los otros dos. Esto encaja con la idea de que cada molécula del compuesto está formada por uno o dos átomos de un gas combinados con unos pocos átomos del otro. El italiano Amadeo Avogadro utilizó esta evidencia, en 1811, para deducir su famosa hipótesis, que establece que para cualquier temperatura y presión fijas hay volúmenes iguales de gas que contienen el mismo número de moléculas, independientemente de la naturaleza química del gas. Experimentos posteriores establecieron la validez de la hipótesis de Avogadro; se puede demostrar que cada litro de gas a la presión de una atmósfera y a la temperatura de 0 °C contiene en números redondos 27.000 millones de billones (27 × 1021) de moléculas. Pero fue hacia 1850 cuando un compatriota de Avogadro, Stanislao Cannizzaro, desarrolló dicha teoría hasta tal punto que dejaron de ser minoría los químicos que se la tomaban en serio. No obstante, hacia 1890, aún había muchos químicos que no aceptaban las ideas de Dalton y Avogadro. Pero habían sido superados por acontecimientos del desarrollo de la física, al explicarse detalladamente el comportamiento de los gases mediante la hipótesis atómica, gracias a los trabajos del escocés James Clerk Maxwell y del austríaco Ludwig Boltzmann.
Durante las décadas de 1860 y 1870, estos pioneros desarrollaron la idea de que un gas está compuesto de muchísimos átomos o moléculas (el número deducido a partir de la hipótesis de Avogadro da idea de su magnitud) que pueden asimilarse a pequeñas esferas macizas en movimiento continuo, y que colisionan entre sí y contra las paredes del recipiente que contiene el gas. A esta consideración hay que añadirle la idea de que el calor no es sino una forma de movimiento (cuando se calienta un gas, las moléculas se mueven con mayor velocidad, lo que hace aumentar la presión sobre las paredes del recipiente, y si las paredes no están fijas en el espacio, el gas se expandirá). La importancia de estas nuevas ideas radicaba en que el comportamiento de un gas podía ser explicado por aplicación de las leyes de la mecánica —las leyes de Newton— en un sentido estadístico, a un elevado número de átomos o de moléculas. Una molécula cualquiera se podía estar moviendo en una dirección arbitraria en el gas en un cierto instante, pero el efecto combinado de muchísimas moléculas chocando contra las paredes del recipiente producía una presión estacionaria. Esto llevó al desarrollo de una descripción matemática del comportamiento de los gases llamada mecánica estadística. Pero todavía no había pruebas directas de que los átomos existían; algunos físicos relevantes de la época atacaban duramente la hipótesis atómica, y aún en la última década del siglo diecinueve Boltzmann se sentía (quizás erróneamente) como un luchador individual contra la corriente científica de la época. En 1898 publicó sus cálculos de manera detallada con la esperanza de «que, cuando la teoría de los gases sea otra vez restablecida, no haya mucho por redescubrir»;[3] en 1906, enfermo y deprimido, desanimado por la continua oposición de muchos científicos importantes a su teoría cinética de los gases, se suicidó, ignorando que unos pocos meses antes un teórico llamado Albert Einstein había publicado un artículo donde establecía la realidad de los átomos más allá de cualquier duda razonable.

Los átomos de Einstein
Ese artículo fue justamente uno de los tres publicados por Einstein en el volumen de Annalen der Physik en 1905, cualquiera de ellos suficiente para haberle asegurado un lugar en los anales de la ciencia. Uno de los trabajos presentaba la especial teoría de la relatividad (que queda fuera del objetivo de este libro); otro se refería a la interacción entre la luz y los electrones y más tarde fue reconocido como el primer trabajo científico relacionado con lo que hoy se llama mecánica cuántica; por este trabajo, Einstein recibió el Premio Nobel de 1921. El tercer artículo consistía en una explicación extrañamente simple de un problema que había preocupado a los científicos desde 1827; una explicación que establecía, más allá de lo que cualquier trabajo teórico podía hacerlo, la realidad de los átomos.
Einstein dijo más tarde que su mayor interés en aquellos días se centraba «en encontrar hechos que garantizaran, tanto como fuera posible, la existencia de átomos de tamaño finito»,[4] un objetivo que indica la importancia atribuida a ese trabajo en los comienzos del presente siglo. Cuando estos artículos se publicaron, Einstein trabajaba como inspector de patentes en Berna; su forma poco convencional de trabajar en el campo de la física no le había convertido en candidato apropiado para un puesto académico tras completar su formación, por lo que se hubo de adaptar al trabajo en la oficina de patentes. Su mente lógica le resultó muy provechosa a la hora de separar el trigo de la paja en el tema de os nuevos inventos, y su destreza en el trabajo le dejaba mucho tiempo libre para pensar en teorías físicas, incluso durante las horas de oficina. Algunas de estas meditaciones las dedicaba a los descubrimientos del botánico inglés Thomas Brown; hacía ya ochenta años, Brown había puesto de manifiesto que al examinar al microscopio un grano de polen flotando sobre una gota de agua se observa un movimiento irregular y aleatorio de aquél, hoy conocido como movimiento browniano. Einstein demostró que este movimiento, aunque aleatorio, obedece una ley estadística precisa y que la trayectoria observada es exactamente la que cabía esperar si el grano de polen fuera continuamente «golpeado» por partículas submicroscópicas desconocidas que evolucionaran de acuerdo a la estadística utilizada por Boltzmann y Maxwell para descubrir el movimiento de los átomos en un gas o en un líquido. Hoy día, la ciencia está tan habituada a la idea de los átomos, que cualquiera puede darse cuenta inmediatamente de que si los granos de polen están siendo impulsados por colisiones no observadas, deben ser átomos móviles los causantes de las mismas. Pero antes de que Einstein lo pusiera de manifiesto, algunos científicos importantes dudaban de la realidad de los átomos; después del trabajo de Einstein, esa duda ya no tenía razón de ser. Resulta fácil de entender después de conocer la explicación, como la de la caída de una manzana de un árbol, pero si era tan obvio, ¿por qué no se había aceptado en las ocho décadas anteriores?
Resulta irónico que dicho trabajo científico se publicara en alemán (en la revista Annalen der Physik) al ser la oposición de científicos relevantes de habla germánica, tales como Ernst Mach y Wilhelm Ostwald, la que parecía haber convencido a Boltzmann de que era una teoría personal sin fundamento. De hecho, a principios del siglo veinte era evidente la realidad de los átomos aunque tal evidencia sólo pudiera admitirse como circunstancial; los físicos ingleses y franceses admitieron la teoría atómica con mucha mayor convicción que sus colegas alemanes, y fue un inglés, J. J. Thomson, el descubridor del electrón —que hoy se conoce como uno de los componentes del átomo— en 1897.

Electrones
A finales del siglo diecinueve surgió una gran controversia en tomo a la naturaleza de la radiación producida por un hilo metálico que transportaba corriente eléctrica a través de un tubo que se había vaciado de aire. Estos rayos catódicos, como se les llamó, podían ser una forma de radiación producida por vibraciones del éter, pero diferentes en su naturaleza de las ondas de luz y de las de por entonces recién descubiertas ondas de radio; o podían ser haces de partículas diminutas. La mayoría de los científicos alemanes admitían la idea de ondas de éter; en cambio, los británicos y franceses pensaban mayoritariamente que los rayos catódicos debían ser partículas. La situación se tomó aún más confusa tras el descubrimiento accidental de los rayos X por Wilhelm Röntgen en 1895 (en 1901, Röntgen recibió el primer Premio Nobel de Física por dicho descubrimiento) que resultó ser una pista falsa. El hallazgo fue importante, aunque quizá se realizó en una época demasiado temprana, al no existir un esquema teórico de la física atómica en el que los rayos X pudieran encajar.
Thomson trabajaba en el laboratorio Cavendish, un centro de investigación en Cambridge fundado por Maxwell, como el primer profesor de física Cavendish en la década de 1870. Diseñó un experimento en el que intervenía el balance entre las propiedades eléctricas y magnéticas de una partícula cargada en movimiento.[5] La trayectoria de la partícula puede ser desviada por campos eléctricos y magnéticos, y el aparato de Thomson estaba diseñado de forma que ambos efectos se compensaran permitiendo que un haz de rayos catódicos pudiera viajar en línea recta desde una lámina metálica cargada negativamente (cátodo) a una pantalla detectora. Este proceso sólo funcionaba con partículas cargadas eléctricamente; de modo que sirvió para que Thomson estableciera que los rayos catódicos son en realidad partículas cargadas negativamente (hoy llamados electrones[6]) y, al mismo tiempo, aprovechó ese balance entre fuerzas eléctricas y magnéticas para calcular la relación entre la carga eléctrica y la masa de un electrón (e/m). Cualquiera que fuera el metal utilizado como cátodo, siempre se obtenía el mismo resultado, por lo que llegó a la conclusión de que los electrones son parte de la estructura de los átomos, y aunque diferentes elementos están compuestos de átomos de distinta naturaleza, todos los átomos contienen electrones idénticos.
Éste no fue un descubrimiento casual, como lo había sido el de los rayos X, sino el resultado de una planificación cuidadosa y de una realización esmerada. Maxwell fundó el laboratorio Cavendish, pero fue gracias a Thomson cuando se convirtió en un centro destacado de física experimental —quizás el más importante del mundo— siempre en la brecha de los descubrimientos que condujeron a los fundamentos de la nueva física del siglo veinte. El Premio Nobel fue concedido, junto a Thomson, a siete científicos de los que trabajaban en el Cavendish en el período anterior a 1914. Hoy en día continúa siendo un centro mundialmente reconocido en cuanto a física se refiere.

Iones
Los rayos catódicos, producidos por una lámina cargada negativamente en un tubo de vacío, resultan ser partículas con carga eléctrica negativa, es decir, electrones. Los átomos, sin embargo, son eléctricamente neutros, por lo que resulta lógico pensar en una carga positiva que contrarreste a la representada por los átomos que han sido desposeídos de una parte de carga negativa. Wilhelm Wien, de la Universidad de Würzburg, realizó algunos de los primeros estudios acerca de estos rayos positivos en 1898, llegando a la conclusión de que las partículas que los integran son mucho más pesadas que los electrones, como cabría esperar si fueran exactamente átomos desprovistos de un electrón. Como continuación de sus trabajos sobre los rayos catódicos, Thomson aceptó el reto que suponía la investigación de estos rayos positivos realizando una serie de difíciles experimentos que se prolongaron hasta la década de los años 20. Hoy esos rayos reciben el nombre de átomos ionizados, o simplemente «iones»; en la época de Thomson se les denominó «rayos canales» y él los estudió utilizando un tubo de rayos catódicos modificado a base de enrarecer ligeramente el vacío con un poco de gas. Los electrones en movimiento a través del gas colisionaban con los átomos de éste apareciendo, tras el choque, nuevos electrones y también iones con carga eléctrica positiva, los cuales podían manipularse mediante campos eléctricos y magnéticos de la misma forma en que Thomson manipulaba los propios electrones. En 1913 el equipo de Thomson se dedicó a medir desviaciones de iones positivos de hidrógeno, oxígeno y otros gases. Uno de los gases utilizados por Thomson en estas experiencias fue el neón; el rastro que deja el neón en un tubo de vacío por el que discurre una corriente eléctrica adquiere un tono brillante, por lo que el aparato de Thomson fue un precursor del moderno tubo de neón. Lo que él descubrió, sin embargo, fue mucho más importante que una nueva modalidad publicitaria.
A diferencia de los electrones, que todos tienen el mismo valor de e/m, este proceso dio lugar a tres iones diferentes de neón, todos con la misma cantidad de carga eléctrica que el electrón (sólo que con +e en lugar de −e) pero con masas diferentes entre sí. Ésta fue la primera evidencia de que los elementos químicos incluyen a menudo átomos con masas diferentes, es decir, diferentes pesos atómicos aunque con idénticas propiedades químicas. Tales variaciones de un elemento químico reciben el nombre de «isótopos», y tuvo que transcurrir bastante tiempo antes de que se pudiera encontrar una explicación de su existencia. No obstante, Thomson disponía en esa época de información suficiente para intentar describir la composición interior de un átomo, que ya no podía considerarse como una partícula elemental indivisible (como unos cuantos filósofos griegos habían creído), sino como una mezcla de cargas positivas y negativas de la cual podían ser extraídos los electrones.
Thomson concebía el átomo como algo parecido a una sandía, es decir, como una esfera relativamente grande donde se encuentran esparcidas todas las cargas positivas y en cuyo interior, como si de semillas se tratase, aparecen empotrados los pequeños electrones cada uno con su carga negativa particular. La teoría no era la correcta, pero proporcionó a los científicos un modelo con el que trabajar, de forma que su posterior reestructuración condujo a una comprensión más precisa de la estructura atómica.

Rayos X
La clave que desveló el secreto de la estructura de un átomo fue el descubrimiento de la radiactividad en 1896. Al igual que ocurrió con el descubrimiento de los rayos X unos meses antes, también éste resultó ser un afortunado accidente. Cuando los rayos catódicos (con los que estaba experimentando Wilhelm Röntgen en el momento del descubrimiento de los rayos X, también llamados electrones) inciden sobre un objeto material, la colisión produce una radiación secundaria invisible que sólo puede detectarse por sus efectos en placas fotográficas o en pantallas fluorescentes, donde se producen efectos luminosos cuando hay incidencia de radiación. Röntgen disponía de una pantalla fluorescente sobre una mesa próxima a su dispositivo de rayos catódicos, y se dio cuenta de que, cuando el tubo de descarga del experimento de rayos catódicos estaba en funcionamiento, la pantalla fluorescía. Así descubrió la radiación secundaria, que él llamó «X», porque así se designa normalmente la magnitud desconocida en una ecuación matemática. Pronto se demostró que los rayos X se comportaban como ondas (hoy se sabe que son una forma de radiación electromagnética, muy parecida a las ondas luminosas pero de mucha menor longitud de onda), y este descubrimiento, realizado en un laboratorio alemán, reafirmó la suposición de que los rayos catódicos también debían ser ondas.
El descubrimiento de los rayos X se anunció en diciembre de 1895 causando gran sorpresa en la comunidad científica. Diferentes investigadores trataron de encontrar otras formas de producir rayos X o radiaciones parecidas, siendo Henri Becquerel el primero en lograrlo, en París. La característica más particular en la radiación X era la forma en que podía atravesar muchas sustancias opacas, como papel negro, produciendo una imagen en una placa fotográfica sin que ésta hubiera estado expuesta a la luz. Becquerel era especialista en fosforescencia, que consiste en la emisión de luz por una sustancia que previamente había absorbido dicha emisión. Una pantalla fluorescente, como la utilizada en el descubrimiento de los rayos X, emite luz sólo cuando está siendo «excitada» por una radiación incidente; una sustancia fosforescente es capaz de almacenar la radiación que le llega y liberarla en forma de luz lentamente durante horas después de haber sido colocada en la oscuridad. Lo que se buscaba era una relación entre fosforescencia y radiación X, pero el descubrimiento de Becquerel fue tan inesperado como lo había sido el de los rayos X.

Radiactividad
En febrero de 1896, Becquerel envolvió una placa fotográfica con papel negro de doble espesor recubierto con bisulfato de uranio y potasio, y lo expuso al sol durante varias horas. Al desenvolver la placa apareció impresionado el contorno correspondiente a la cubierta química. Becquerel pensó que se había producido radiación X en las sales de uranio por efecto de la luz solar, como ocurría en la fosforescencia; pero dos días más tarde, al intentar repetir el experimento, el tiempo apareció muy nuboso y, por lo tanto, guardó el dispositivo en una habitación. El 1 de marzo, Becquerel desenvolvió la placa, y encontró de nuevo impresionado en ella el contorno correspondiente a la sal de uranio. Independientemente de lo que hubiera excitado a las dos placas, no tenía nada que ver con los rayos solares ni con la fosforescencia, sino que debía ser una forma de radiación desconocida proveniente, como se supo después, del propio uranio y sin ninguna influencia externa. Esta capacidad de emitir radiación de manera espontánea se llama radiactividad.
A raíz del descubrimiento de Becquerel, otros científicos se sumaron a la investigación de la radiactividad, entre ellos Marie y Pierre Curie que, trabajando en la Sorbona, se convirtieron pronto en los expertos en esta nueva rama de la ciencia. Por sus trabajos sobre radiactividad y por el descubrimiento de nuevos elementos radiactivos recibieron el Premio Nobel de Física en 1903; en 1911 Marie recibió un segundo Premio Nobel, esta vez en química, por su trabajo con materiales radiactivos (Irene, la hija de Marie y Pierre Curie, también recibió un Premio Nobel por su trabajo sobre radiactividad en 1935). A principios de siglo los descubrimientos prácticos en radiactividad iban muy por delante de la teoría, con una serie de experimentos que sólo con el paso del tiempo pudieron ser encajados en el marco teórico. Durante este período el científico Ernest Rutherford sobresalió en la investigación de la radiactividad.
Rutherford, neozelandés, había trabajado con Thomson en el Cavendish en la última década del siglo diecinueve. En 1898 fue nombrado profesor de física de la Universidad McGill, en Montreal, donde él y Frederick Soddy demostraron en 1902 que la radiactividad supone la transformación del elemento radiactivo en otro elemento. Fue Rutherford el que descubrió que existían dos tipos de radiación producida en esta «desintegración radiactiva» y les impuso los nombres de radiación «alfa» y «beta». El tercer tipo de radiación descubierto más tarde, se llamó «gamma». Tanto la radiación alfa como la beta resultaron ser partículas con gran velocidad; se demostró que los rayos beta eran electrones, el equivalente radiactivo de los rayos catódicos, y más tarde se confirmó que los rayos gamma eran otra forma de radiación electromagnética, como los rayos X, pero con menores longitudes de onda. Las partículas alfa se diferenciaban de las otras dos por poseer una masa aproximadamente cuatro veces mayor que la de un átomo de hidrógeno y una carga eléctrica doble que la del electrón, pero positiva en lugar de negativa.

El interior del átomo
Antes de que se supiera con exactitud la naturaleza de las partículas alfa, y cómo podían emerger a tan enormes velocidades de un átomo que en el proceso se transformaba en otro átomo de distinto elemento, investigadores como Rutherford eran capaces de utilizarlas provechosamente. Tales partículas de alta energía, producto ellas mismas de reacciones atómicas, se usaron como sondas para el estudio de la estructura de los átomos y para descubrir en última instancia de dónde provenían las partículas alfa.
En 1907, Rutherford abandonó Montreal para convertirse en profesor de la Universidad de Manchester, en Inglaterra; en 1908 recibió el Premio Nobel de Química por su trabajo en radiactividad. Aunque el estudio de los elementos fue considerado por el Comité Nobel como química, Rutherford se consideraba a sí mismo físico y consideraba la química como una rama muy inferior de la ciencia. En 1909, Hans Geiger y Ernest Marsden, que trabajaban en el departamento de Rutherford en Manchester, llevaron a cabo experimentos en los que un haz de partículas alfa se dirigía contra una delgada hoja metálica. Las partículas alfa provenían de átomos radiactivos naturales, ya que no existían aceleradores de partículas por aquellos días. El proceso de las partículas dirigidas contra la hoja metálica quedaba determinado mediante contadores de centelleo, pantallas fluorescentes que brillan cuando incide sobre ellas una partícula de éstas. Algunas de las partículas atravesaban el metal; otras eran desviadas y emergían formando un cierto ángulo con el haz original; finalmente, y para sorpresa de los experimentadores, algunas rebotaban en la hoja metálica y volvían en la misma dirección de incidencia. ¿Cómo podía suceder esto?
El mismo Rutherford dio con la solución. Cada partícula alfa tiene una masa superior a 7.000 veces la del electrón (de hecho, una partícula alfa es idéntica a un átomo de helio del que se han liberado dos electrones) y puede moverse a velocidades próximas a la de la luz. Si una de estas partículas choca contra un electrón, le aparta de su camino y continúa imperturbada. Las desviaciones se producen por las cargas positivas que poseen los átomos del metal (cargas iguales, como sucede con polos magnéticos iguales, se repelen mutuamente); pero si el modelo «sandía» de Thomson fuera correcto no se produciría el rebote de las partículas incidentes. Si la esfera de carga positiva rellenara el átomo, las partículas alfa deberían atravesarlo puesto que el experimento mostraba que la mayoría de las partículas atravesaban la hoja metálica. Pero si la «sandía» permitía el paso a una partícula debería permitir el paso a todas; salvo que toda la carga positiva estuviera concentrada en un estrecho volumen mucho menor que el de todo el átomo, en cuyo caso una partícula alfa podía incidir ocasionalmente sobre esta densa concentración de carga y de materia saliendo rebotada; mientras tanto la gran mayoría de partículas alfa incidentes pasarían por el espacio vacío intermedio entre las zonas positivamente cargadas de los átomos. Sólo con esta disposición la carga positiva del átomo podía hacer retroceder en su camino, a veces, a las partículas alfa, podía desviar ligeramente a otras en su trayectoria y también era posible que en otras ocasiones las dejara prácticamente sin perturbar.
Así, en 1911, Rutherford propuso un nuevo modelo del átomo que resultó ser la base del conocimiento actual de la estructura atómica. En el centro del átomo situó una pequeña región a la que llamó el núcleo; éste contiene toda la carga positiva del átomo, que es igual y de signo opuesto al total de la carga negativa de la nube de electrones que rodea al núcleo, de forma que el núcleo y los electrones integran un átomo eléctricamente neutro. Experimentos posteriores demostraron que el tamaño del núcleo es tan sólo la cienmilésima parte del átomo aproximadamente. (Un núcleo típico de unos 10−13 cm está inmerso en una nube electrónica de 10−8 cm aproximadamente.) Para hacerse una idea de tales proporciones, imagínese una cabeza de alfiler de un milímetro, en el centro de la catedral de San Pablo, rodeada de una nube de motas microscópicas de polvo que se extienden hasta la bóveda, a lo largo de unos 100 metros. La cabeza de alfiler representa el núcleo atómico; las motas de polvo son los electrones que lo rodean, y todo el espacio vacío que resta es el correspondiente al átomo; además todos los objetos aparentemente sólidos del mundo material están compuestos de tales espacios vacíos, salpicados de cargas eléctricas. Rutherford ya había ganado un Premio Nobel cuando presentó este nuevo modelo para el átomo (un modelo basado en experimentos ideados por él mismo). No obstante, continuó su carrera ascendente, pues en 1919 comunicó la obtención de la primera transmutación artificial de un elemento, y en el mismo año sucedió a J. J. Thomson como director del laboratorio Cavendish. En 1914 fue investido caballero y después, en 1931, nombrado barón Rutherford de Nelson. Sin embargo, su mayor contribución a la ciencia radicó en el modelo nuclear del átomo, que sirvió para dilucidar un problema: puesto que cargas de igual signo se repelen y las de distinto signo se atraen, ¿cómo es que las cargas negativas no se precipitan sobre el núcleo positivo? La respuesta la proporcionó el análisis del modo en que los átomos interaccionan con la luz, hecho que caracterizó la primera versión de la teoría cuántica.

Capítulo 3
Luz y átomos

Según el modelo atómico de Rutherford, si una carga eléctrica en movimiento y acelerada irradia energía en forma de radiación electromagnética (luz, ondas de radio, o alguna otra variante), un electrón ligado al núcleo de un átomo debería precipitarse sobre el núcleo, de manera que el átomo no sería estable y produciría un choque atómico que generaría energía. La teoría más implantada sobre la manera de contrarrestar esta tendencia del átomo al colapso era suponer que los electrones giran en órbitas alrededor del núcleo, como lo hacen los planetas alrededor del Sol en nuestro Sistema Solar. Pero los movimientos orbitales suponen una aceleración continua y esa celeridad de la partícula en órbita puede no cambiar, aunque sí cambia la dirección del movimiento, y ambos, celeridad y dirección juntos definen la velocidad, que es el factor más importante. Como la velocidad de los electrones en órbita cambiaba, éstos deberían irradiar energía y, al perderla, precipitarse en espiral sobre el núcleo. De modo que, aun acudiendo a movimientos orbitales, los científicos debían aceptar la idea del colapso del átomo de Rutherford.
Conforme este modelo se iba mejorando, los científicos se apartaban de la primitiva imagen de los electrones en órbita alrededor del núcleo, tratando de encontrar la manera de mantenerlos en sus órbitas pero sin que ello implicara pérdida de energía y precipitación en espiral sobre el núcleo. La obvia analogía con el Sistema Solar fue un punto de partida que resultó erróneo, ya que se puede imaginar a los electrones en el espacio a cierta distancia del núcleo, pero no en órbitas alrededor de él. Así, el problema continúa siendo el mismo: cómo evitar la caída de los electrones. Las teoría utilizada por los científicos para explicar por qué los electrones no caen no adopta la similitud orbital como base y, en cambio, dicha comparación resulta redundante y equívoca a la vez. La imagen que la mayor parte de la gente posee del átomo es parecida a la de un sistema solar, con un núcleo central estrecho alrededor del cual los electrones giran en órbitas circulares. Esa imagen debe abandonarse para introducirse en el complejo mundo del átomo: el mundo de la mecánica cuántica.
En la segunda década del siglo veinte los teóricos empezaron a preocuparse por este problema, e incluso ya se habían hecho descubrimientos cruciales que conducirían a la realización de un nuevo modelo del átomo. Se basaban en estudios de la forma en que la materia (átomos) interacciona con la radiación (luz).
A principios del siglo veinte, la comprensión del mundo natural requería una filosofía dual: los objetos materiales habían de ser descritos en términos de partículas o átomos, pero la radiación electromagnética, incluida la luz, había de entenderse en términos de ondas. De modo que el estudio de la forma en que interacciona la luz con la materia parecía poder proporcionar la mejor oportunidad de unificación de la física en tomo al año 1900. Pero fue exactamente al intentar explicar cómo interacciona la radiación con la materia cuando la física clásica, de tanto éxito en muchos otros problemas, se vino abajo.
La forma más sencilla de entender cómo interaccionan materia y radiación consiste en observar un objeto caliente, ya que éste irradia energía electromagnética, y cuanto más caliente está, más energía irradia a longitudes de onda más cortas (frecuencias más altas). Así, un atizador «al rojo» está más frío que uno «al blanco», y un atizador que esté demasiado frío para irradiar luz visible puede estar caliente e irradiar radiación infrarroja de baja frecuencia. Incluso a finales del siglo diecinueve se tenía en cuenta que esta radiación electromagnética debía estar asociada con el movimiento de cargas eléctricas diminutas. Gracias al descubrimiento del electrón como parte integrante del átomo se puede observar cómo éste puede producir por vibración un haz de ondas electromagnéticas, de forma no demasiado distinta a como se pueden producir olas en la bañera con un movimiento de vaivén del dedo. Sin embargo, la mecánica estadística y el electromagnetismo postulaban una forma de radiación muy diferente de la realmente emitida por los objetos calientes.

La pista del cuerpo negro
Para realizar las predicciones anteriormente indicadas, los teóricos utilizaron un ejemplo ideal imaginario; en este caso se trataba de un «perfecto» absorbente o emisor de radiación. Un objeto de estas características se llama usualmente un «cuerpo negro», porque absorbe toda la radiación que le llega. Sin embargo, la denominación no es del todo adecuada porque un «cuerpo negro» es capaz de convertir energía calorífica en radiación electromagnética (un «cuerpo negro» puede muy bien presentarse «al rojo» o «al blanco» y, en cierta forma, la superficie misma del Sol actúa como un «cuerpo negro»). Es fácil construir un «cuerpo negro» en el laboratorio; basta tomar una esfera hueca, o un tubo con los extremos cerrados, y practicar un pequeño hueco en su superficie. Cualquier radiación, como la luz, que penetre por el agujero quedará atrapada en el interior, rebotando en las paredes hasta ser absorbida; es muy improbable que pueda salir a través del hueco debido a ese rebote, por lo que este agujero es un «cuerpo negro». El nombre germánico equivalente es el de cavidad de radiación.
Es interesante observar qué le sucede a un «cuerpo negro» cuando se calienta. El espectro de la radiación emitida —la cantidad radiada de cada longitud de onda— se puede estudiar en el laboratorio observando la que proviene de un recipiente caliente, y ello demuestra que depende únicamente de la temperatura del «cuerpo negro». Existe muy poca radiación de longitud de onda muy corta (alta frecuencia), y muy poca de longitud de onda muy larga, correspondiendo la mayor parte de la energía radiada a bandas de frecuencias intermedias. El máximo del espectro se desplaza hacia longitudes de ondas más cortas conforme el cuerpo se va calentando (del infrarrojo, al rojo, al azul, al ultravioleta), pero siempre aparece un corte para longitudes de onda muy cortas. Aquí es donde las medidas de la radiación del «cuerpo negro» efectuadas en el siglo diecinueve entraban en conflicto con la teoría.
Por extraño que parezca, las predicciones de la teoría clásica aseguraban que una cavidad llena de radiación siempre posee una cantidad infinita de energía, por unidad de volumen, correspondiente a pequeñas longitudes de ondas que no quedaban registradas en la escala, en lugar de un máximo en el espectro y de una caída a cero a longitud de onda nula. Los cálculos se basaban en el supuesto de que las ondas electromagnéticas de la radiación de la cavidad deberían tener las mismas características que las ondas en una cuerda, de violín por ejemplo, y que allí podían aparecer ondas de cualquier tamaño (es decir, de cualquier longitud de onda y de cualquier frecuencia). Como hay demasiadas longitudes de ondas (demasiados «modos de vibración») que considerar, se deben adoptar las leyes de la mecánica estadística del mundo de las partículas y aplicarlas al mundo de las ondas para poder predecir el aspecto global de la radiación de la cavidad; esto lleva directamente a la conclusión de que la energía radiada de cada frecuencia es proporcional a dicha frecuencia. La frecuencia es prácticamente la inversa de la longitud de onda y longitudes de onda muy cortas corresponden a frecuencias muy altas. De modo que la radiación de un «cuerpo negro» debería producir enormes cantidades de energía de alta frecuencia en una zona del ultravioleta. A más frecuencia, más energía. Esta predicción se conoce con el nombre de «catástrofe ultravioleta», y puso de manifiesto algunos errores en los supuestos de partida.
En la zona de baja frecuencia de la curva del «cuerpo negro», las observaciones se ajustaban muy bien a las predicciones basadas en la teoría clásica, conocidas bajo el nombre genérico de Ley de Rayleigh-Jeans. La dificultad radicaba en encontrar la razón por la cual la energía de las oscilaciones de alta frecuencia no sólo no es muy grande, sino que tiende a anularse conforme la frecuencia de la radiación aumenta.
El problema atrajo la atención de un buen número de físicos durante la última década del siglo diecinueve. Uno de ellos fue Max Planck, un científico alemán de la vieja escuela que estaba especialmente interesado en la termodinámica, y su gran preocupación por esa época consistía en resolver la «catástrofe ultravioleta» por aplicación de reglas termodinámicas. En los últimos años del siglo se conocían dos ecuaciones que, unidas, proporcionaban una basta explicación del espectro del «cuerpo negro». Una versión inicial de la Ley de Rayleigh-Jeans daba buenos resultados para grandes longitudes de onda, mientras que Wilhelm Wien había calculado una fórmula que se ajustaba bastante a las observaciones efectuadas a baja longitud de onda y, además, predecía la longitud de onda a la que aparece el máximo para cualquier temperatura. Planck partió del estudio de la absorción y emisión de ondas electromagnéticas por pequeños osciladores eléctricos, un procedimiento distinto del utilizado por Rayleigh en 1900 y por Jeans unos años más tarde, pero que proporcionaba exactamente la curva típica completa, con la «catástrofe ultravioleta» incluida. Desde 1895 hasta 1900, Planck se ocupó del problema y publicó varios artículos claves que establecieron la conexión existente entre la termodinámica y el electromagnetismo, pero no consiguió resolver el enigma del espectro del «cuerpo negro». En 1900 cambió radicalmente su teoría, no como resultado de consideraciones científicas frías, serenas y lógicas, sino como un acto de desesperación en el que se mezclaron el azar, la intuición y un afortunado error en las matemáticas utilizadas.
Hoy en día nadie puede estar absolutamente seguro del pensamiento de Planck cuando tomó el revolucionario camino que condujo a la mecánica cuántica, pero su trabajo ha sido estudiado detalladamente por Martin Klein de la Universidad de Yale, un historiador especializado en la historia de la física en relación con el nacimiento de la teoría cuántica. La reconstrucción efectuada por Klein del papel jugado por Planck y Einstein en el desarrollo de la teoría cuántica representa un documento muy importante que sitúa los descubrimientos en un convincente contexto histórico. El primer paso se debe a la intuición de un físico matemático preparado. Planck se dio cuenta de que las dos descripciones del espectro del «cuerpo negro» podían combinarse en una fórmula matemática simple que proporcionaba la forma completa de la curva y para ello utilizó la Ley de Wien y la Ley de Rayleigh-Jeans. Esta fórmula constituyó un gran éxito, ya que la ecuación de Planck concordaba perfectamente con las observaciones de la radiación emitida por la cavidad, aunque carecía de soporte físico. Wien y Rayleigh —también Planck en los cuatro años anteriores— habían tratado de construir una teoría partiendo de hipótesis físicas plausibles que condujera a la curva del espectro del «cuerpo negro». Y, sin embargo, fue Planck el que descubrió la curva correcta sin que nadie supiera los supuestos físicos implicados en la obtención de dicha curva.

Una revolución molesta
La fórmula de Planck fue hecha pública en una reunión de la Sociedad de Física de Berlín en octubre de 1900; durante los dos meses siguientes, el propio Planck estuvo inmerso en el problema de encontrar una base física para su ley, y para ello ensayó diferentes combinaciones de hipótesis físicas para ver cuál encajaba mejor con las ecuaciones matemáticas. Más tarde manifestó que éste había sido el periodo de más intenso trabajo a lo largo de su vida. Muchos intentos fracasaron, hasta que finalmente sólo quedaba una alternativa, molesta para Planck.
En sus primeros trabajos, Planck no aceptaba la hipótesis molecular, y particularmente desechaba la idea de una interpretación estadística de la propiedad llamada entropía, interpretación introducida por Boltzmann en la termodinámica. La entropía es un concepto clave en física, relacionado en un sentido fundamental con el flujo del tiempo. Aunque las leyes simples de la mecánica —las leyes de Newton— son completamente reversibles en lo que al tiempo se refiere, se sabe que el mundo real no es así. Por ejemplo, si una piedra que cae llega al suelo, la energía de su movimiento se convierte en calor; pero si se coloca una piedra idéntica en el suelo y se calienta en el mismo porcentaje, no sube por el aire. ¿Por qué no? En el caso de la piedra que cae, una forma ordenada de movimiento (todos los átomos y moléculas cayendo en la misma dirección) se convierte en una forma desordenada de movimiento (todos los átomos y moléculas colisionando al azar entre sí). Este hecho está de acuerdo con una ley de la naturaleza que parece requerir el crecimiento permanente del desorden, y el desorden se identifica, en este sentido, con la entropía. Dicha ley es la segunda ley de la termodinámica, y establece que los procesos naturales siempre se dirigen hacia un crecimiento del desorden, o que la entropía siempre crece. Si se comunica energía calorífica desordenada a una piedra, ésta no puede utilizar dicha energía para crear un movimiento ordenado de las moléculas de la piedra de forma que todas ellas puedan elevarse al unísono.
Boltzmann introdujo una variedad en el tema. Pensaba que tan singular acontecimiento podría suceder, pero es extremadamente improbable. Planck atacaba duramente esta interpretación estadística de la segunda ley de la termodinámica, tanto públicamente como en correspondencia personal con Boltzmann. Para él la segunda ley representaba un absoluto; la entropía debía crecer siempre, y la probabilidad nada tenía que ver. De modo que es fácil comprender cómo se debía sentir Planck a finales de 1900, cuando, habiendo agotado todas las posibles opciones y tratando de incorporar la versión estadística de Boltzmann de la termodinámica a sus cálculos del espectro del «cuerpo negro», se encontró con que el resultado era el correcto. La ironía de la situación es aún más aguda, pues a causa de su poca familiaridad con las ecuaciones de Boltzmann, Planck las aplicó incoherentemente. Obtuvo la solución correcta, pero con razonamientos equivocados, y por eso el significado real del trabajo de Planck no quedó claro hasta que Einstein asumió la idea.
Hay que destacar que el hecho de que Planck estableciera la interpretación estadística de Boltzmann en el crecimiento de la entropía representa la mejor descripción de la realidad. Siguiendo el trabajo de Planck, no puede ponerse en duda que el crecimiento de la entropía, aunque muy probable, no es de una certeza absoluta. Esto tiene implicaciones interesantes en cosmología (la ciencia que estudia el Universo), ya que cuanto mayor es la región con que se opera, más grande es el abanico de posibilidades para que estos hechos que parecen inverosímiles ocurran en algún lugar y en algún tiempo. Incluso es posible (aunque muy poco probable) que el Universo completo, que es un lugar ordenado en general, represente cierta clase de fluctuación estadística termodinámica; como una gran concentración que ha originado una región de baja entropía evolucionando hacia su desaparición como tal. El error de Planck, sin embargo, reveló algo más fundamental sobre la naturaleza del Universo.
La concepción estadística de Boltzmann de la termodinámica implicaba, como procedimiento matemático, la división de la energía en porciones y el tratamiento de cada una de éstas como magnitudes reales que podían ser descritas por leyes de tipo probabilístico. La energía, dividida en partes para efectuar los cálculos, había de ser reagrupada (integrada) en una etapa posterior para proporcionar la energía total; caso que se puede aplicar a la energía correspondiente a la radiación del «cuerpo negro». A mitad del experimento, sin embargo, Planck se encontró con la fórmula matemática que estaba buscando. Antes de proceder a la integración para pasar de las porciones de energía al continuo, la ecuación del «cuerpo negro» aparecía entre los resultados matemáticos obtenidos. La deducción fue, por tanto, producto de un procedimiento muy drástico, y totalmente injustificado dentro del contexto de la física clásica.
Cualquier buen físico que sostuviera la teoría clásica y que hubiera partido de las ecuaciones de Boltzmann para obtener una fórmula de la radiación del «cuerpo negro» debería haber completado la integración. Entonces, como Einstein demostró más tarde, la yuxtaposición de las porciones de energía habría restaurado la «catástrofe ultravioleta»; en realidad, Einstein puso de manifiesto que cualquier tratamiento clásico del problema conduce a dicha catástrofe. Únicamente por conocer la solución que buscaba, Planck se detuvo antes de obtener la solución final aparentemente correcta y, por ello, se vio obligado a explicar el significado de dichas porciones de energía. Él interpretó esta división aparente de la energía electromagnética en porciones individuales como una manifestación de que los osciladores eléctricos del interior del átomo sólo podían emitir o absorber energía en «paquetes» de un cierto tamaño, recibiendo cada uno el nombre de cuanto. En lugar de dividir el total de energía disponible en un infinito número de partes, sólo podía ser dividida en un número finito de porciones, cada una de ellas asociada a un oscilador, y la energía de dicha porción de radiación (E) debía estar relacionada con la frecuencia correspondiente (designada por la letra griega nu, ν) de acuerdo a una nueva fórmula,

E = hν

donde h es una nueva constante, hoy conocida como la constante de Planck.

¿Qué es h?
Para frecuencias muy altas, la energía necesaria para emitir un cuanto de radiación es muy grande, y sólo unos pocos osciladores dispondrán de dicha energía (de acuerdo con las ecuaciones estadísticas), de modo que sólo unos pocos cuantos de alta energía son emitidos. A muy bajas frecuencias (grandes longitudes de onda), se emiten muchos cuantos de baja energía, pero cada uno de ellos con tan escasa energía que incluso todos juntos no suman cantidades apreciables. Sólo en la zona intermedia del rango de frecuencias existen multitud de osciladores con energía suficiente para emitir radiación en porciones de cuantía moderada, las cuales se suman y originan el máximo de la curva del «cuerpo negro».
Sin embargo el descubrimiento de Planck, anunciado en diciembre de 1900, planteó más preguntas que las que resolvió, y no sirvió para acabar con las teorías de la física clásica. Los propios artículos primeros de Planck sobre la teoría cuántica no son del todo claros (quizá reflejan la forma confusa en la que se vio obligado a introducir la idea en su termodinámica), y durante un tiempo muchos —incluso la mayoría— de los físicos que conocieron su trabajo lo consideraron simplemente un truco matemático, un artificio destinado a dar cuenta de la catástrofe ultravioleta, pero con poco o nulo significado físico. El mismo Planck se halaba confuso. En una carta a Robert William Wood, escrita en 1931, recordaba su trabajo de 1900 y decía: «Puedo caracterizar el procedimiento entero como un acto de desesperación… tenía que encontrarse una interpretación teórica a cualquier precio, por alto que éste fuera.[7]» Según Heisenberg, el hijo de Planck comentó después cómo su padre describía su trabajo por aquel tiempo, durante un largo paseo por los alrededores de Berlín, explicando que su descubrimiento podía compararse con los de Newton.[8]
Durante los primeros años del siglo, los físicos seguían estudiando los recientes descubrimientos en tomo a la radiación atómica, y el nuevo truco matemático de Planck para explicar la curva del «cuerpo negro» no les parecía de extraordinaria importancia al lado de aquellos descubrimientos. Planck no recibió hasta 1958 el Premio Nobel por su trabajo, demasiado tiempo si se compara con el que tardó en reconocerse la importancia del trabajo de los Curies o de Rutherford. (En parte porque siempre cuesta más reconocer nuevas rupturas teóricas dramáticas; una nueva teoría no es tan tangible como una nueva partícula, o como un rayo X; y tiene que enfrentarse a la prueba del tiempo y a la confirmación experimental antes de alcanzar reconocimiento universal.) Además existía un dato que no encajaba adecuadamente en la nueva constante de Planck, h. Ésta es muy pequeña, 6,55 × 10−27 ergios × segundos, pero esto no era sorprendente puesto que si hubiera resultado mucho mayor, su presencia habría sido obvia mucho antes de que los físicos se ocuparan del problema de la radiación del «cuerpo negro». Lo extraño sobre h son las unidades en las que se mide: energía (ergios) multiplicada por tiempo (segundos). Estas unidades corresponden a una magnitud llamada «acción», que no es muy usual en la mecánica clásica; no existe una ley de conservación de la acción análoga a la ley de conservación de la masa o de la energía; pero la acción tiene una propiedad particularmente interesante que comparte, entre otras cosas, con la entropía: una acción constante es siempre absolutamente constante y tiene el mismo valor, para cualquier observador, en el espacio y en el tiempo. Es una constante tetradimensional, y lo que esto significa sólo quedó claro cuando Einstein desveló su teoría de la relatividad.
Dado que Einstein es el próximo personaje a tratar en el desarrollo del tema de la mecánica cuántica, puede ser interesante hacer un pequeño apartado para ver lo que esto significa. La teoría de la relatividad estudia el espacio de tres dimensiones y el tiempo como un todo tetradimensional, el continuo espacio-tiempo. Observadores que se muevan por el espacio a diferentes velocidades obtienen diferentes visiones de las cosas y. por ejemplo, estarán en desacuerdo en la longitud de un bastón que midan al pasar. Pero el bastón puede concebirse como un ente tetradimensional, y en su movimiento a través del tiempo dibuja una superficie tetradimensional, un hiperrectángulo cuya altura es la longitud del bastón y su anchura es igual al tiempo transcurrido. El área de dicho rectángulo se mide en unidades de longitud × tiempo, y esta área resulta ser la misma para todos los observadores que la midan, incluso aunque ellos discrepen en cuanto a la longitud y al tiempo que están midiendo. De la misma forma, la acción (energía × tiempo) es un equivalente tetradimensional de la energía, y resulta ser la misma para todos los observadores, aun cuando éstos no estén de acuerdo en las cantidades de energía y tiempo que componen la acción. En relatividad especial, existe una ley de conservación de la acción de igual importancia que la ley de la conservación de la energía. Por lo tanto, la constante de Planck resultó extraña porque fue descubierta antes que la teoría de la relatividad.
Esto pone de manifiesto quizá lo peculiar de la naturaleza y de la evolución de la física. De las tres grandes contribuciones de Einstein a la ciencia publicadas en 1905, una, la relatividad especial, parece ser muy diferente de las otras dos, el movimiento browniano y el efecto fotoeléctrico. Estas tres teorías forman parte esencial del cuerpo de la física teórica y, a pesar de la publicidad dada a la teoría de la relatividad, la mayor de las contribuciones de Einstein fue su aportación a la teoría cuántica, donde consiguió remontarse sobre el trabajo de Planck por medio del efecto fotoeléctrico.
El aspecto revolucionario del trabajo de Planck, en 1900, radicaba en que ponía de manifiesto una limitación a la física clásica. No importaba el alcance exacto de tal limitación, sino que el hecho de que existieran fenómenos que no podían ser explicados únicamente con las ideas clásicas elaboradas a partir de la obra de Newton, era suficiente para anunciar la proximidad de una nueva era en la historia de la física. Hay una forma habitual de escribir sobre aventuras en la que el héroe escapa milagrosamente de situaciones del máximo «suspense» al final de cada episodio; con una pirueta nuestro héroe se ve libre. Muchos escritos de divulgación acerca del nacimiento de la mecánica cuántica recuerdan el estilo de las novelas de suspense: «A finales del siglo diecinueve, la física clásica se había dirigido hacia un callejón sin salida. Mediante una pirueta, Planck inventó el cuanto, y la física quedó libre.» Planck se limitó a sugerir que los osciladores eléctricos interiores de los átomos debían estar cuantizados y con ello quería indicar que sólo podían emitir paquetes de energía de ciertos tamaños, en virtud de algún mecanismo interno que hacía inviable la absorción o emisión de radiación en fracciones arbitrarias de dichos paquetes.
En años posteriores, conforme progresaba la teoría cuántica, Planck realizó algunas contribuciones a la ciencia que había fundado, pero dedicó la mayor parte de su trabajo científico a reconciliar las nuevas ideas con la física clásica. No era un cambio de forma de pensar, sino que nunca valoró en qué medida su ecuación del «cuerpo negro» se apartaba de la física clásica; al fin y al cabo había deducido la ecuación combinando termodinámica y electromagnetismo, y ambas eran teorías clásicas. En lugar de cambiar sus teorías, los esfuerzos de Planck por encontrar un término medio entre las ideas cuánticas y la física clásica le apartaron totalmente de las ideas clásicas con las que se había formado científicamente. Pero los principios clásicos estaban tan arraigados en Planck que no sorprende que el progreso real debiera rehacerse por una nueva generación de físicos menos definidos en una línea de trabajo y menos comprometidos con las viejas ideas, pero estimulados por los nuevos descubrimientos en radiación atómica y por buscar nuevas respuestas tanto a las recientes como a las antiguas preguntas.

Einstein, luz y cuantos
Einstein entró a trabajar en la oficina de patentes suiza en el verano de 1902 cuando contaba veintitrés años de edad, y en aquellos primeros años del siglo veinte dedicó la mayor parte de su atención científica a problemas de termodinámica y de mecánica estadística. Sus primeras publicaciones científicas resultaron tan tradicionales en el estilo y en los problemas atacados como los de la generación anterior, Planck incluido. Pero en el primer artículo que publicó con referencias a las ideas de Planck acerca del espectro del «cuerpo negro» (publicado en 1904), Einstein comenzó a socavar los cimientos de la física clásica y a desarrollar un estilo peculiar de resolver los problemas físicos. Martin Klein describe cómo Einstein fue el primero en tomar en serio las implicaciones físicas del trabajo de Planck y en tratarlas como algo más que las consecuencias de un truco matemático;[9] un año después, esta consideración de las ecuaciones como algo fundamentado en la propia realidad física presentaría un nuevo problema: la reactualización de la teoría corpuscular de la luz.
El otro acontecimiento que actuó de detonante para el artículo de Einstein de 1904 fue, junto al trabajo de Planck, la investigación que acerca del efecto fotoeléctrico habían realizado Phillip Lenard y J. J. Thomson, trabajando independientemente, en los últimos años del siglo diecinueve. Lenard, nacido en 1862 en la parte de Hungría que hoy es Checoslovaquia, recibió el Premio Nobel de Física en 1905 por su investigación sobre los rayos catódicos. Con sus experimentos, en 1899 había conseguido demostrar que los rayos catódicos (electrones) pueden producirse iluminando la superficie de un metal situado en el vacío, dando la impresión de que la luz hiciera que los electrones abandonaran el metal. Los experimentos de Lenard se llevaban a cabo con haces de luz de un único color (luz monocromática), lo que significa que todas las ondas luminosas eran de la misma frecuencia. Observó en qué medida afectaba la intensidad de la luz a la forma en que los electrones eran arrancados del metal, y encontró un resultado sorprendente. Aumentando la intensidad luminosa (que lograba acercando el foco a la superficie metálica) cada centímetro cuadrado de superficie metálica recibía una cantidad mayor de energía. Si un electrón consigue más energía, debe ser expulsado del metal con mayor velocidad. Pero Lenard descubrió que, en tanto no se cambiara la longitud de onda de la luz incidente, la velocidad de salida de los electrones era la misma para todos. Al acercar el foco luminoso al metal aumentaba el número de electrones liberados, pero cada uno de éstos emergía con la misma velocidad con que lo hacían los expulsados por un haz de luz más débil del mismo color. Por otra parte, los electrones avanzaban más rápidamente si se utilizaban haces de luz de frecuencia más alta; ultravioleta, por ejemplo, en lugar de luz azul o roja.
Hay una forma muy simple de explicar este proceso si se abandonan las ideas profundamente arraigadas de la física clásica y se consideran las ecuaciones de Planck como base. La importancia de estos requisitos resulta corroborada por el hecho de que en los cinco años subsiguientes al trabajo inicial de Lenard sobre el efecto fotoeléctrico y a la introducción por Planck del concepto de cuanto, nadie dio éste aparentemente sencillo paso adelante. En efecto, todo lo que Einstein hizo fue aplicar la ecuación E = ℎν a la radiación electromagnética, en lugar de a los un tanto oscuros osciladores interiores de los átomos. Afirmó que la luz no es una onda continua, como los científicos habían creído durante cien años, sino que está integrada por paquetes bien definidos o cuantos. Toda la luz de una determinada frecuencia ν, que quiere decir de un color particular, consiste en agregados de la misma energía E. Cada vez que uno de estos cuantos de luz golpea a un electrón le proporciona la misma cantidad de energía y, por tanto, la misma velocidad. Mayor intensidad de luz significa simplemente que hay más cuantos de luz (fotones) de la misma energía; sin embargo, si hay cambio del color de la luz, la frecuencia varía y, por ello, se altera la energía transportada para cada fotón.
Ése fue el trabajo por el cual recibió Einstein el Premio Nobel en 1921. Una vez más, una revolución teórica tuvo que esperar hasta ser totalmente reconocida. La teoría de los fotones no fue aceptada de inmediato, y aunque los experimentos de Lenard concordaban, en general, con los resultados teóricos, transcurrió más de una década hasta que se pudo contrastar y confirmar la predicción teórica exacta de la relación existente entre la velocidad de los electrones y la longitud de onda de la luz. Esta relación la estudió el físico experimental norteamericano Robert Millikan, que logró una determinación muy precisa del valor de h, la constante de Planck. En 1923 Millikan recibió el Premio Nobel de Física por este trabajo y por sus medidas precisas de la magnitud de la carga del electrón.
Este año fue muy importante para Einstein. Un artículo le llevaría a conseguir el Premio Nobel; otro demostró de una vez por todas la realidad de los átomos; un tercero representó el nacimiento de la teoría por la cual es más conocido: la relatividad. Algo parecido le ocurrió en el año 1905; completó un trabajo relativo al tamaño de las moléculas que presentó como su tesis doctoral en la Universidad de Zurich: obtuvo el doctorado en enero de 1906.
Durante los años inmediatos, Einstein continuó trabajando en la introducción del cuanto de Planck en otras áreas de la física. Descubrió que la teoría servía para explicar antiguos problemas relativos a la teoría de los colores específicos (el calor específico de una sustancia es la cantidad de calor que se necesita para aumentar en un grado la temperatura de una unidad de masa de dicha sustancia; depende de la forma en que los átomos vibran en el interior del material y si esas vibraciones resultan estar cuantificadas). Ésta es una área de la ciencia menos atractiva, a menudo pasada por alto al citar los trabajos de Einstein, pero la teoría cuántica de la materia logró una aceptación más rápida que la teoría cuántica de Einstein sobre la radiación, con lo que sirvió para comenzar a persuadir a muchos físicos de la vieja escuela de que las ideas cuánticas habían de ser consideradas seriamente. Einstein amplió sus ideas cuánticas sobre la radiación en los años que siguieron hasta 1911, estableciendo que la estructura cuántica de la luz es una consecuencia inevitable de la ecuación de Planck y señalando ante una comunidad científica poco receptiva que la mejor forma de entender la luz podría consistir en una fusión de las teorías ondulatoria y corpuscular que habían competido entre sí desde el siglo diecisiete. En el año 1911 se dedicó al estudio de nuevas teorías. Su interés se dirigió hacia el problema de la gravitación y durante los cinco año siguientes, hasta 1916. desarrolló su Teoría General de la Relatividad, el más amplio de todos sus trabajos. Hasta 1923 no quedó establecida, fuera de toda duda, la realidad de la naturaleza cuántica de la luz, lo que llevó a un nuevo debate sobre partículas y ondas que ayudó a transformar la teoría cuántica, desembocando en su versión moderna que no es sino la mecánica cuántica. La primera aplicación práctica de la teoría cuántica llegó precisamente en esta década en la que Einstein se apartó del tema y se concentró en otros campos. Surgió de una fusión de sus ideas con el modelo atómico de Rutherford; esta labor fue realizada principalmente por un científico danés, Niels Bohr, que había estado trabajando con Rutherford en Manchester. Después de la aparición del modelo del átomo de Bohr, ya nadie pudo dudar del valor de la teoría cuántica como una descripción del mundo físico de lo muy pequeño.

Capítulo 4
El átomo de Bohr

En el año 1912 las piezas del rompecabezas atómico estaban listas para ser acopladas adecuadamente. Einstein había establecido como válida la teoría de los cuantos, y había introducido la idea de los fotones aunque ésta no era todavía aceptada. Einstein afirmó que la energía sólo existe realmente en porciones de un tamaño determinado. Rutherford había presentado una nueva imagen del átomo, con un núcleo central pequeño y una nube de electrones circundantes, si bien tampoco esta idea gozaba de la aceptación general. El átomo de Rutherford, sin embargo, no se correspondía a las leyes clásicas de la electrodinámica. La solución consistió en utilizar reglas de los cuantos para describir el comportamiento de los electrones dentro de los átomos.
Niels Bohr fue un físico danés que finalizó su doctorado en el verano de 1911 y viajó a Cambridge en septiembre para trabajar junto a J. J. Thomson en el laboratorio Cavendish. Era un investigador muy tímido y que hablaba un inglés imperfecto por lo que tuvo serias dificultades en encontrar un trabajo adecuado en Cambridge; pero en una visita a Manchester conoció a Rutherford, que se mostró muy interesado por Bohr y su trabajo. En marzo de 1912, Bohr se trasladó a Manchester donde comenzó a trabajar dentro del equipo de Rutherford, concentrándose especialmente en el problema de la estructura del átomo.[10] Seis meses después volvió a Copenhague, pero por breve tiempo, ya que permaneció en el grupo de Rutherford en Manchester hasta 1916.

Los electrones saltadores
Bohr no se preocupó excesivamente por integrar todos sus experimentos en una teoría completa, sino que más bien estaba interesado en ensamblar ideas diferentes para construir un «modelo» imaginario que proporcionara, al menos aproximadamente, resultados acordes con las observaciones de átomos reales. Una vez obtuviera un resultado aceptable podría dedicarse a la tarea de encajar las piezas y de esta forma elaborar una descripción más completa. Partió de la imagen del átomo como un sistema solar en miniatura, con los electrones moviéndose en órbitas acordes con las leyes de la mecánica clásica y del electromagnetismo; afirmó que los electrones no podían abandonar dichas órbitas como consecuencia de la emisión de radiación, porque sólo podían emitir porciones discretas —cuantos completos— de energía[11] y no la radiación continua que postulaba la teoría clásica. Las órbitas estables de los electrones correspondían a ciertas cantidades fijas de energía, múltiplos del cuanto elemental, pero no existían órbitas intermedias porque requerían energías fraccionarias.
Todo el concepto de órbita de Bohr se basa en la física clásica; en cambio, la idea de los estados electrónicos correspondientes a cantidades fijas de energía —niveles de energía, como se les llamaría después— proviene de la teoría cuántica. Un modelo atómico en el que se mezclan elementos clásicos y cuánticos no podía proporcionar un conocimiento exacto del mundo atómico, pero proporcionó a Bohr un modelo eficaz para progresar en esa línea. Su modelo resultó erróneo, pero inauguró una vía de transición hacia una teoría cuántica genuina del átomo y, como tal, prestó un valor incalculable. Desgraciadamente, a causa de su ensamblaje simple entre ideas clásicas y cuánticas, y de la atractiva imagen que supone entender al átomo como un sistema solar en miniatura, el modelo ha permanecido más tiempo del debido en las páginas, no sólo de obras de divulgación, sino también en muchos libros de enseñanza media e incluso en textos universitarios. Se debe tratar de olvidar la idea inicial de Bohr de que los electrones eran como planetas girando alrededor del núcleo. Un electrón es un elemento que está fuera del núcleo del átomo y que posee una cierta energía y otras propiedades.
El primer triunfo del trabajo de Bohr, en 1913, consistió en la explicación satisfactoria del espectro de la luz del átomo de hidrógeno, el átomo más simple. La ciencia de la espectroscopia se remonta a los primeros años del siglo diecinueve, cuando William Wollaston descubrió rayas oscuras en el espectro de la luz del Sol, pero sólo tras el trabajo de Bohr pasó a ser una herramienta apropiada para estudiar la estructura atómica. Para comprender esto se debe considerar la luz como una onda electromagnética.[12]
La luz blanca, como Newton había establecido, está constituida por todos los colores del arco iris; es su espectro. Cada color corresponde a una luz de diferente longitud de onda, y mediante un prisma de vidrio se puede desdoblar la luz blanca en sus componentes con lo cual se observa su espectro en el que las ondas de las distintas frecuencias aparecen separadas en una pantalla o sobre una placa fotográfica. Las longitudes de onda corta, que corresponden a la luz azul y violeta, están en un extremo del espectro, y la roja de larga longitud de onda figura en el otro; no obstante, por ambos lados el espectro se extiende más allá del rango de colores perceptible por nuestra vista. Cuando la luz del Sol se descompone de esta forma, el espectro presenta rayas oscuras pronunciadas en algunas zonas concretas, correspondientes a va-ores de frecuencias muy definidas. Sin saber cómo se formaban estas rayas, investigadores como Joseph Fraunhofer, Robert Bunsen (cuyo nombre quedó inmortalizado por el famoso mechero de laboratorio) y Gustav Kirchhoff, trabajando en pleno siglo diecinueve, llegaron a la conclusión a través de experimentos de que cada elemento produce su propio conjunto de rayas espectrales. Cuando un elemento (como el sodio) se calienta en la llama de un mechero Bunsen, produce una luz de un color característico (amarillo en este caso) que se origina por una fuerte emisión de radiación y que forma una o varias rayas brillantes en una zona del espectro. Cuando la luz blanca pasa a través de un líquido o de un gas que contenga ese mismo elemento o que incluso se encuentre combinado con otros en un compuesto químico, el espectro de la luz muestra unas rayas oscuras, como las que aparecen en la luz proveniente del Sol, y que corresponde a las mismas frecuencias características del elemento.
Este hecho explicaba la existencia de las rayas oscuras del espectro solar. Debían ser producidas por nubes frías que absorbían radiación de unas frecuencias características cuando las atravesaba la luz que provenía de la superficie solar mucho más caliente. Esa técnica proporcionó a los químicos un medio eficaz de identificar los elementos presentes en un compuesto. Por ejemplo, si se arroja sal común al fuego, se observarán llamaradas con el color amarillo típico del sodio. En el laboratorio, el espectro característico puede ser observado impregnando un alambre con la sustancia que se va a estudiar y sometiéndolo a la llama de un mechero Bunsen. Cada elemento contiene su propia distribución de rayas, siendo ésta fija, aunque de intensidad variable ante un cambio de temperatura de la llama. La nitidez de cada raya espectral demuestra que todos los átomos del mismo elemento emiten o absorben con idéntica frecuencia, sin ninguna excepción. Por comparación con estas experiencias con una llama, los espectroscopistas interpretaron la mayor parte de las rayas espectrales de la luz solar y las explicaron como debidas a la presencia de elementos conocidos en nuestro planeta. En una famosa inversión de este procedimiento, el astrónomo inglés Norman Lockyer (fundador de la revista científica Nature) descubrió rayas en el espectro solar que no se podían explicar en términos del espectro de ningún elemento conocido, por lo que afirmó que debían ser producidas por algún elemento desconocido al que llamó helio. A su debido tiempo, el helio fue detectado en la Tierra, y se pudo comprobar que tenía exactamente el espectro de las rayas solares pendientes de identificación.
Con la ayuda de la espectroscopia, los astrónomos pueden explorar las estrellas lejanas y las galaxias para tratar de descubrir su naturaleza. Y los físicos atómicos pueden investigar la estructura interna del átomo utilizando el mismo procedimiento.
El espectro del hidrógeno es particularmente simple: cada átomo contiene exactamente un protón cargado positivamente como núcleo, y un electrón cargado negativamente asociado a él. Las rayas del espectro que proporciona la huella dactilar única del hidrógeno reciben el nombre de «serie de Balmer», en honor de Johann Balmer, un profesor suizo de enseñanza media que descubrió la fórmula que designaba la serie espectral en 1885 (el año del nacimiento de Bohr) y que interrelaciona las frecuencias asociadas a las rayas espectrales del hidrógeno. Partiendo de la frecuencia de la primera raya, en la zona roja del espectro, la fórmula de Balmer proporciona la frecuencia de la raya siguiente, en la zona verde. De la frecuencia de la zona verde, mediante la misma fórmula, se puede deducir la frecuencia de la siguiente, en la zona violeta; y así sucesivamente.[13] Balmer sólo conocía la existencia de cuatro rayas en la zona visible del espectro del hidrógeno cuando descubrió su fórmula, pero ya se habían encontrado otras rayas y también éstas se ajustaban exactamente a la misma norma; cuando se identificaron más rayas en la zona ultravioleta y en la infrarroja, todas se ajustaban perfectamente a la sencilla relación numérica indicada. Obviamente, la fórmula de Balmer indicaba algo significativo acerca de la estructura del átomo de hidrógeno. Pero, ¿qué era?
La fórmula de Balmer era conocida por todos los físicos de la época, e incluso formaba parte del programa de licenciatura universitaria cuando Bohr se interesó en el tema. Pero esta fórmula estaba integrada en un conjunto amplio de complicados datos sobre espectros, y Bohr no era un espectroscopista. Cuando él empezó a estudiar la estructura del átomo de hidrógeno, no pensó inmediatamente en la serie de Balmer como en una clave obvia para resolver el problema, pero cuando un colega especialista en espectroscopia le hizo ver la sencillez de la fórmula de Balmer (independientemente de las complejidades de los espectros de otros átomos) se dio cuenta inmediatamente de su valor. A principios de 1913, Bohr ya estaba convencido de que parte de la solución al problema radicaba en introducir la constante de Planck, h, en las ecuaciones que describen el átomo. El átomo de Rutherford sólo tenía dos clases de números fundamentales incorporados en su estructura: la carga del electrón, e, y las masas de las partículas implicadas. Por más que se combinen los datos, no se puede conseguir un número con dimensiones de longitud mezclando masas y cargas, por lo que el modelo de Rutherford no poseía una unidad «natural» de tamaño. Pero con una constante, como h, añadida a la masa y carga electrónica, es posible construir un número con dimensiones de longitud que puede ser interpretado, aunque de forma grosera, como una medida relacionada con el tamaño del átomo. La expresión h2/me2 es numéricamente equivalente a una longitud aproximada de 20 × 108 cm, que es demasiado grande para encajar con las propiedades de los átomos deducidas de experimentos de colisiones y otros estudios. Para Bohr estaba claro que la constante h tenía un lugar en la teoría de los átomos. La serie de Balmer le mostró cuál era exactamente.
¿Cómo puede producir un átomo una raya espectral perfectamente nítida? Bien emitiendo o bien absorbiendo energía de una frecuencia muy precisa, ν. La energía se relaciona con la frecuencia mediante la constante de Planck (E = ℎν). y si un electrón de un átomo cualquiera emite un cuanto de energía ℎν, la energía del electrón debe cambiar exactamente en la correspondiente cantidad E. Bohr afirmó que los electrones alrededor del núcleo de un átomo se mantenían en la misma órbita porque no podían radiar energía continuamente, sino que sólo podían emitir (o absorber) un cuanto completo de energía —un fotón— y pasar de un nivel de energía (una órbita según la idea antigua) a otro. Esta idea tan aparentemente simple supone realmente una profunda ruptura con las ideas clásicas. Es como si Marte desapareciera de su órbita y reapareciera, instantáneamente, en la órbita de la Tierra, al tiempo que emitía en el espacio un pulso de energía (en este caso, de radiación gravitacional). Por lo tanto, nos damos cuenta de la inexactitud de la idea de un átomo como sistema solar para explicar los acontecimientos ordinarios, y de la ventaja de concebir a los electrones simplemente como si se presentaran en diferentes estados, correspondientes a diferentes niveles de energía, en el interior del átomo.
Un salto de un estado a otro puede darse en cualquier dirección, hacia arriba o hacia abajo en la escala de energía. Si un átomo absorbe luz, el cuanto ℎν se invierte en pasar el electrón a un nivel de energía superior (al peldaño siguiente de la escala); si el electrón vuelve al estado original ha de radiar exactamente la misma energía ℎν.
La misteriosa constante 36,456 × 105 de la fórmula de Balmer puede escribirse en términos de la constante de Planck, y ello hizo que Bohr pudiera calcular los niveles de energía del electrón único del átomo de hidrógeno; la medida de la frecuencia de las distintas rayas espectrales suministra información acerca de la diferencia de energía entre los diferentes niveles.[14]

La explicación del hidrógeno
Tras comentar sus trabajos con Rutherford, Bohr publicó en 1913 una serie de artículos en los cuales explicaba su teoría sobre el átomo. Dicha teoría funcionaba muy bien para el átomo de hidrógeno, y parecía susceptible de poderse extender hasta explicar los espectros de otros átomos más complicados. En septiembre, Bohr asistió a la reunión anual, número ochenta y tres, de la Asociación Británica para el Progreso de la Ciencia; y allí explicó sus trabajos a una audiencia de la que formaban parte muchos de los más eminentes físicos atómicos del momento. En general, su informe fue bien acogido, e incluso Sir James Jeans lo calificó de ingenioso, sugestivo y convincente. J. J. Thomson estaba entre los científicos que no habían sido persuadidos por los argumentos de Bohr y por sus trabajos sobre la estructura atómica.
Trece años después de la decisión de Planck de incorporar el cuanto en la teoría de la luz, Bohr introdujo el cuanto en la teoría del átomo. Pero tuvieron que transcurrir otros trece años más para que surgiese una verdadera teoría cuántica. Durante ese intervalo de tiempo el progreso fue muy lento; se daba un paso atrás por cada dos adelante, y, a veces, dos atrás por cada uno que parecía ir en la dirección correcta. En el átomo de Bohr se mezclaban ideas cuánticas junto a otras de la física clásica, sin otro criterio que el de que el modelo continuara funcionando. Este nuevo modelo permitía muchas más rayas espectrales de las que realmente se observan en la luz de diferentes átomos, por lo que se introdujeron unas reglas arbitrarias que establecían que algunas de las transiciones entre diferentes estados de energía, dentro del átomo, estaban prohibidas. Se asignaron nuevas propiedades al átomo —números cuánticos— para adaptar el modelo a las observaciones experimentales, sin ninguna justificación teórica que explicara la necesidad de tales números cuánticos ni la razón de que algunas transiciones estuvieran prohibidas. Todo este proceso se desarrollaba en la época en que el mundo europeo quedó profundamente alterado por el comienzo de la Primera Guerra Mundial, el año siguiente de la introducción por Bohr de su primer modelo atómico.
La guerra de 1914 frenó los cómodos desplazamientos de los investigadores de un país a otro y las comunicaciones de algunos científicos de ciertos países con todos sus colegas distribuidos por el mundo. La guerra también influyó directamente sobre la investigación científica en los grandes centros en los que la física había realizado tan grandes progresos en los primeros años del siglo veinte. En las naciones beligerantes, los jóvenes investigadores abandonaron los laboratorios para incorporarse a la guerra, dejando en su trabajo a los viejos profesores, como Rutherford; muchos de estos jóvenes, la generación que debería haber recogido y desarrollado las ideas de Bohr a partir del año 1913, murieron en acción y también el trabajo de los científicos de países neutrales se vio afectado. Sin embargo, se realizaron algunos progresos. Bohr fue nombrado catedrático de Física en Manchester; en Göttingen un ciudadano holandés, Peter Debye, llevó a cabo importantes estudios sobre la estructura de los cristales utilizando los rayos X como sondas. Durante esa época, Holanda y Dinamarca estaban consideradas como oasis científicos, por lo que Bohr volvió a Dinamarca en 1916 como profesor de Física Teórica en Copenhague, fundando en 1920 el instituto de investigación que lleva su nombre. A la neutral Dinamarca podían llegar noticias de un investigador alemán como Arnold Sommerfeld (uno de los físicos que perfeccionó el modelo atómico de Bohr, hasta el punto de que dicho modelo se conoce, a veces, como el átomo de «Bohr-Sommerfeld»); y de Bohr pasaban a Rutherford, en Inglaterra.
Después de la guerra, los científicos alemanes y los austríacos no fueron invitados a las conferencias internacionales durante varios años consecutivos; Rusia se encontraba bajo los efectos de una revolución; la ciencia, por tanto, había perdido parte de su cosmopolitismo y a una generación de hombres jóvenes. Una generación completamente nueva se encontró con la teoría cuántica en el punto medio del camino que representaba el imperfecto átomo de Bohr (que había sido reestructurado por muchos investigadores) y se encargó de relacionarlo con la mecánica cuántica. Los nombres de los científicos de esta generación aparecen en diferentes contextos dentro de la física moderna: Werner Heisenberg, Paul Dirac, Wolfgang Pauli, Pascual Jordan y otros. Eran miembros de la considerada primera generación cuántica, nacidos durante los años que siguieron a la gran contribución de Planck (Pauli en 1900, Heisenberg en 1901, Dirac y Jordan en 1902), y se incorporaron a la investigación científica en la década de los años 20. No tenían una sólida formación en física clásica que tuvieran que desechar, por lo que no les era tan difícil como lo fue para un científico tan brillante como Bohr desechar algunas ideas clásicas en sus teorías sobre el átomo. Quizá no sea una simple coincidencia que el tiempo transcurrido desde el descubrimiento por Planck de la ecuación del cuerpo negro al nacimiento de la mecánica cuántica fuera exactamente de veintiséis años, el tiempo que tardó una generación de nuevos físicos en incorporarse a la investigación científica. Esta generación, sin embargo, tuvo dos grandes legados de sus aún activos predecesores, aparte de la constante de Planck. El primero de ellos lo constituía el átomo de Bohr, que proporcionaba un claro ejemplo de cómo las ideas cuánticas debían ser incorporadas a cualquier teoría satisfactoria de los procesos atómicos; el segundo legado provenía del gran científico de la época que nunca había parecido coaccionado por las ideas de la física clásica y que constituía la excepción a todas las reglas. En 1916, en plena guerra y trabajando en Alemania, Einstein introdujo la noción de probabilidad en la teoría atómica; era una nueva contribución al maremágnum que permitía al átomo de Bohr dar cuenta del comportamiento observado de los átomos reales. Esta teoría sobrevivió al átomo de Bohr y llegó a ser el soporte fundamental de la teoría cuántica; aunque, irónicamente, fue rechazada posteriormente por el mismo Einstein con su famoso comentario, «Dios no juega a los dados».

Un elemento del azar: los dados de dios
En los primeros años del siglo veinte, cuando Rutherford y su colega Frederick Soddy estaban investigando la naturaleza de la radiactividad, descubrieron una curiosa y fundamental propiedad del átomo, o más bien de su núcleo. Recibió el nombre de desintegración radiactiva, e implicó un cambio fundamental en un átomo individual (la ruptura de un núcleo y la expulsión de fragmentos del mismo), pero no parecía verse afectada por ninguna influencia exterior. Se calentaran los átomos o se enfriaran, se les colocara en vacío o en un depósito de agua, el proceso de la desintegración radiactiva continuaba imperturbable. Además, no parecía existir forma alguna de predecir exactamente cuándo un átomo particular de la sustancia radiactiva se desintegraría, emitiendo una partícula alfa o una partícula beta y rayos gamma. En cambio, los experimentos demostraban que, ante un gran número de átomos radiactivos del mismo elemento, una cierta proporción se desintegraba siempre en un cierto tiempo. Para cada elemento radiactivo existe un tiempo característico llamado semivida, durante el cual se desintegra exactamente la mitad de los átomos de la muestra. El radio, por ejemplo, tiene una semivida de 1.600 años; una forma radiactiva del carbono, llamada carbono-14, tiene una semivida de un poco menos de 6.000 años, lo cual resulta útil para las dataciones arqueológicas; y el potasio radiactivo se desintegra con semivida de 1.300 millones de años.
Sin comprender exactamente cuál es la causa de que un átomo de una muestra se desintegre y otros no, Rutherford y Soddy utilizaron este descubrimiento como la base de una teoría estadística de la desintegración radiactiva, una teoría basada en técnicas similares a las usadas por las compañías de seguros, que saben que aunque alguno de sus asegurados muera joven y sus herederos reciban mucho más dinero que el pagado en los recibos, otros clientes vivirán lo suficiente para pagar los gastos necesarios de compensación a la compañía. Sin conocer las fechas de fallecimiento de los clientes, las tablas correspondientes permiten a los contables de las compañías de seguros hacer los balances. De la misma forma, unas tablas estadísticas permiten a los físicos conocer los balances de la desintegración radiactiva de un gran conjunto de átomos.
La particularidad de este comportamiento estriba en que la radiactividad nunca llega a desaparecer en una muestra de material radiactivo. De los millones de átomos presentes, la mitad se desintegra en un cierto tiempo. Durante la siguiente semivida —que es siempre la misma— la mitad del resto se desintegra, y así sucesivamente. El número de átomos radiactivos que quedan en la muestra va siendo cada vez más pequeño, aproximándose cada vez más a cero, pero en cada intervalo del tiempo considerado continúan desintegrándose únicamente la mitad de los átomos presentes.

img007.jpg
Fig. 4-1. Los niveles de energía de un átomo simple, como el hidrógeno, pueden compararse a un conjunto de escalones de diferente altura. La bola colocada en diferentes peldaños representa un electrón en distintos niveles de energía en el átomo. La bajada de un peldaño a otro representa la liberación de una cantidad precisa de energía, responsable de las rayas de la serie de Balmer en el espectro del átomo de hidrógeno. No existen rayas intermedias porque no hay peldaños intermedios donde el electrón pueda alojarse.

En esa época, físicos como Rutherford y Soddy pensaban que algún día alguien descubriría exactamente el mecanismo de la desintegración de un átomo individualizado y con ello se lograría explicar la naturaleza estadística del proceso. Cuando Einstein adoptó las técnicas estadísticas para incorporarlas al modelo de Bohr y explicar los detalles de los espectros atómicos, ya anticipó descubrimientos posteriores que harían innecesario el uso de tablas estadísticas.
Los niveles de energía de un átomo, o de un electrón en un átomo, pueden entenderse como una sucesión de peldaños. La altura de los escalones no es la misma en términos de energía; los peldaños superiores están más próximos que los inferiores. Bohr demostró que en el caso del hidrógeno, el átomo más simple, los niveles de energía pueden representarse en términos de una escalera en la que la distancia de cada peldaño a la cima es proporcional a 1/n2, siendo n el número de orden de cada peldaño contado desde abajo. La transición del nivel uno al dos en la escalera requiere que un electrón tome exactamente la cantidad de energía ℎν necesaria para remontar el primer escalón; si luego el electrón cae al nivel uno (el estado fundamental del átomo) devuelve la misma energía. No hay forma de que un electrón en su estado fundamental pueda absorber menos energía, porque no hay peldaño intermedio donde situarse, y no es posible que un electrón en el nivel dos pueda emitir menos de este cuanto de energía porque no tiene otro sitio donde caer distinto al estado fundamental. Como hay muchos peldaños en los que el electrón puede alojarse, y como puede saltar de unos a otros, existen muchas rayas en el espectro de cada elemento. Cada raya corresponde a una transición entre peldaños; entre niveles de energía con diferentes número cuánticos. Todas las transiciones que acaban en el estado fundamental, por ejemplo, producen una familia de líneas espectrales como la serie de Balmer; todas las transiciones desde peldaños superiores hasta el nivel dos corresponden a otro conjunto de rayas, y así sucesivamente.[15] En un gas caliente los átomos chocan constantemente entre sí, de modo que los electrones son excitados a niveles superiores de energía para luego caer, produciendo rayas espectrales brillantes mientras caen. Cuando la luz atraviesa un gas frío, los electrones en estado fundamental se remontan a energías superiores, absorbiendo la luz y originando las correspondientes rayas negras en el espectro.
Si el modelo atómico de Bohr tenía algún significado, esta explicación de cómo los átomos calientes radian energía debería estar muy relacionada con la ley de Planck. El espectro del cuerpo negro sería simplemente el efecto combinado de muchos átomos radiando energía como consecuencia de las transiciones de los electrones de un nivel de energía a otro.
En 1916, Einstein había concluido su Teoría General de la Relatividad y volvió otra vez su atención hacia la teoría cuántica (que le parecería algo recreativo comparado con su obra maestra). Probablemente se sintió animado por el éxito del modelo atómico de Bohr, y además, por aquella época, su propia versión de la teoría corpuscular de la luz comenzaba, al fin, a ganar adeptos. Robert Andrews Millikan, un físico norteamericano, había sido uno de los más fuertes oponentes a la interpretación de Einstein del efecto fotoeléctrico, cuando ésta apareció en 1905. Dedicó diez años a comprobar dicha teoría mediante una serie de importantes experimentos, comenzando con el objetivo de mostrar el error de Einstein, y terminando en 1914 con una prueba experimental directa de que la explicación de Einstein del efecto fotoeléctrico en términos de cuantos de luz, o fotones, era correcta. Durante el proceso, Millikan consiguió una determinación experimental muy precisa del valor de ℎ, y en 1923 recibió el Premio Nobel por este trabajo y por la medición de la carga del electrón.
Einstein se dio cuenta de que la transición de un átomo en un estado excitado de energía —con un electrón en un nivel de energía alto— a otro estado de menos energía —con el electrón en un nivel de energía inferior— es muy similar a la desintegración radiactiva de un átomo. Utilizó las técnicas estadísticas desarrolladas por Boltzmann (para operar con colecciones de átomos) y las aplicó al tratamiento de los estados de energía individuales, calculando la probabilidad de que un átomo particular se encontrara en un estado de energía correspondiente a un número cuántico particular n, y utilizó las tablas estadísticas de la radiactividad para encontrar la probabilidad de que un átomo en estado n se desintegrara en otro estado de menor energía, es decir, con un número cuántico inferior. Con estos datos obtuvo, de forma clara y simple, la fórmula de Planck para la radiación del cuerpo negro utilizando en la deducción únicamente ideas cuánticas. Utilizando estas ideas estadísticas de Einstein, Bohr pudo extender su modelo atómico, aduciendo la explicación de que algunas rayas espectrales aparecen más pronunciadas que otras porque algunas transiciones entre estados energéticos son más probables —más fácil que ocurran— que otras. Sin embargo, no pudo explicar el porqué de este hecho.
Al igual que el resto de los científicos que estudiaban el fenómeno de la radiactividad en aquel tiempo, Einstein estaba convencido de que las tablas estadísticas no eran la única base, y de que las investigaciones posteriores determinarían por qué una transición particular ocurre en un momento preciso, y no en otro. Fue en este punto en el que la teoría cuántica comenzó a separarse de las ideas clásicas. No existe una razón fundamental por la que la desintegración radiactiva o las transiciones atómicas se produzcan en momentos precisos; a veces parecen debidas al azar, sobre una base estadística, lo que implicaría tener en cuenta ciertas cuestiones filosóficas fundamentales.
En el mundo clásico, todo tiene su causa. Se puede buscar la causa de cualquier acontecimiento y retrocediendo en el tiempo encontrar la causa de la causa y así sucesivamente hasta llegar al «Big Bang» (si se es cosmologista) o al momento de la creación en un contexto religioso, si se sigue el modelo clásico. Pero en el mundo cuántico, esta causalidad directa desaparece tan pronto como nos fijemos en la desintegración radiactiva y en las transiciones atómicas. Un electrón no desciende de un nivel de energía a otro en un instante concreto por ninguna razón concreta. El nivel de energía más bajo es el más deseable para el átomo, en un sentido estadístico, por lo que es bastante probable (el grado de probabilidad puede incluso ser cuantificado) que, antes o después, el electrón efectúe el salto. Pero no hay forma de predecir cuándo ocurrirá ese cambio. Ningún agente externo empuja al electrón, y ningún mecanismo interno señala el tiempo del salto. Simplemente ocurre, sin ninguna razón particular.
Este hecho representa una ruptura con la causalidad estricta. La primera huella de la extrañeza real del mundo cuántico llegó en 1916 de la mano de Einstein y vale la pena señalarlo aunque su significado no fuese apreciado en aquellos días.

Átomos en perspectiva
Resultaría aburrido dar cuenta de todos los detallados refinamientos que se efectuaron en el átomo de Bohr hasta llegar al año 1926, y aún más si se aclara que la mayor parte de éstos han resultado inequívocamente erróneos. Pero el átomo de Bohr está tan asentado en los libros de texto y en las obras de divulgación que no puede ser ignorado, y en su forma final es el último modelo atómico que guarda alguna relación con las imágenes familiares del mundo que nos rodea. El átomo esférico indivisible que sostenía la antigua teoría parecía, si no justamente divisible, sí formado fundamentalmente de espacio vacío y lleno de partículas raras efectuando movimientos extraños. Bohr proporcionó un modelo que permitía explicar alguna de esas cosas extrañas en un contexto similar al de la vida cotidiana. A medio camino entre la física clásica y la teoría cuántica, puede ser interesante detallar alguno de los procesos de Bohr antes de adentrarse completamente en el mundo del cuanto. Pero no vamos a dedicar mucho espacio a explicar todos los errores implicados en el desarrollo del modelo de Bohr y en la concepción del núcleo en los años que siguieron hasta 1926. En su lugar, utilizaremos la perspectiva de la década de los años 80 para estudiar el átomo de Bohr y describirlo mediante una moderna síntesis de las ideas de Bohr y de sus colegas, incluyendo algunas ideas que sólo pudieron ser incorporadas a la teoría mucho tiempo después.
Los átomos son muy pequeños y para su medición se utiliza el número de Avogadro, que es el número de átomos de hidrógeno que contiene un gramo del gas. Para tener una idea exacta de lo pequeños que son los átomos, es mejor ejemplificarlo con un pedazo de carbono: diamante, carbón o hulla. Dado que un átomo de carbono pesa doce veces lo que un átomo de hidrógeno, en doce gramos de carbono hay el mismo número de átomos que en un gramo de hidrógeno. Y en esta cantidad existen 6 × 1023 (un 6 seguido de 23 ceros) átomos. ¿Cómo podemos hacemos una idea de lo que representa este número? Estos números que representan una cantidad tan elevada reciben el nombre de números astronómicos. Así que será fácil encontrar un número tan grande en astronomía que sea comprensible.
La edad del universo, según los astrónomos, es del orden de 15 × 109 años. Naturalmente, 1023 es mucho mayor que 109. Pero si escribimos la edad del Universo mediante un número mayor, debemos utilizar la menor unidad de tiempo: el segundo. Cada año contiene 365 días, cada día 24 horas, cada hora 3.600 segundos. En números redondos, cada año contiene 32 millones de segundos, unos 3 × 107 segundos. Así 15 × 109 años contienen 45 × 1016 segundos, según la regla que indica que para multiplicar potencias con la misma base se suman los exponentes. Por lo tanto, la edad del universo en segundos es 5 × 1017.
Todavía esta cantidad es mucho menor que 6 × 1023; seis potencias de diez menor. Si se divide 6 × 102 entre 5 × 1017, para lo que se restan los exponentes, se obtiene un poco más de 1 × 106; un millón. Imagínese un ser sobrenatural observando nuestro Universo desde el principio de la creación o del Big Bang. Este ser está provisto de un pedazo de doce gramos de carbono puro y de unas pinzas tan finas que pueden separar átomos de carbono individuales. Comenzando en el instante inicial del «Big Bang» del que nació el Universo, y suponiendo que ese extraordinario ser toma un átomo de carbono de la muestra cada segundo, habría separado 5 × 1017 átomos hasta hoy. Después de realizar este proceso durante 15.000 millones de años, el ser sobrenatural habría separado tan sólo la millonésima parte de los átomos de carbono; lo que queda en la muestra es todavía un millón de veces más de lo que ha separado.
Ahora, quizá, se tenga una idea de cuán pequeño es el átomo. La sorpresa no radica en que el modelo atómico de Bohr resulte una aproximación tosca pero eficaz, ni en que las reglas de la física cotidiana no se cumplan en el mundo de los átomos. La pretensión de este libro es entender algo sobre los átomos y encontrar la forma de salvar el abismo que separa la física newtoniana clásica de la física atómica cuántica.
El aspecto de un átomo se obtiene en la medida en que es posible construir una imagen física de algo tan pequeño. Como anticipó Rutherford, un núcleo central diminuto está rodeado por una nube de electrones, que zumban a su alrededor como abejas. Al principio se pensó que el núcleo contenía únicamente protones, cada uno con carga positiva de la misma cuantía que la carga negativa del electrón, de forma que un número igual de protones que de electrones conseguía que cada átomo fuera neutro eléctricamente; más adelante se descubrió que existía otra partícula atómica fundamental, muy similar al protón, pero que no posee carga eléctrica. Es el neutrón, y todos los átomos, excepto la forma más simple del hidrógeno, contienen igual número de neutrones como de protones en el núcleo. El número de protones en el núcleo decide a qué elemento corresponde el átomo; el número de electrones (el mismo que de protones) determina la química del átomo y del elemento. Pero como algunos átomos que tienen el mismo número de protones y electrones entre sí pueden diferir en el número de neutrones, los elementos químicos pueden darse en diferentes variedades, llamadas isótopos. Ese nombre fue inventado por el químico inglés Soddy en 1913, y proviene de una palabra griega que significa «mismo sitio», debido al descubrimiento de que átomos con diferentes pesos podían ocupar el mismo lugar en la tabla de las propiedades químicas (la tabla periódica de los elementos). En 1921 Soddy recibió el Premio Nobel (de química) por su trabajo sobre isótopos.
El isótopo más sencillo del más simple elemento es la forma más común del hidrógeno, en la que un protón está acompañado de un electrón. En el deuterio cada átomo consiste en un protón y un neutrón acompañados de un electrón, pero la química es la misma que la del hidrógeno ordinario. Como los neutrones y los protones tienen prácticamente la misma masa, y cada uno de ellos es unas 2.000 veces más pesado que el electrón, el número total de neutrones más el de protones de un núcleo determina la práctica totalidad de la masa de un átomo. A ésta normalmente se a designa con el número A, llamado número másico. El número de protones del núcleo, que determina las propiedades del elemento, recibe el nombre de número atómico, Z. La unidad en que se miden las masas atómicas se llama, lógicamente, la unidad de masa atómica, y se define como la doceava parte de la masa del isótopo del carbono que contiene seis protones y seis neutrones en su núcleo. Este isótopo se conoce como carbono-12, o abreviadamente 12C; otros de los isótopos del carbono son 13C y 14C, que contienen siete y ocho neutrones por núcleo, respectivamente.
Cuanto más pesado es un núcleo (es decir, cuantos más protones contiene) más variedad de isótopos presenta. El estaño, por ejemplo, tiene cincuenta protones en su núcleo (Z = 50) y diez isótopos estables con números de masa que van desde A = 112 (62 neutrones) a A = 124 (74 neutrones). Siempre hay, al menos, tantos neutrones como protones en los núcleos estables (excepto para el átomo de hidrógeno más simple); los neutrones de carga neutra ayudan a mantener a los protones positivos, que tienen tendencia a repelerse entre sí. La radiactividad está asociada a isótopos inestables que pasan a una forma estable y emiten radiación al hacerlo. Un rayo beta es un electrón expulsado cuando un neutrón se convierte en un protón; una partícula alfa es propiamente un núcleo atómico, dos protones y dos neutrones (el núcleo de helio-4), que pueden ser expulsados cuando un núcleo inestable reajusta su estructura interna; y núcleos inestables muy pesados pueden desdoblarse en varios núcleos estables más ligeros a través del conocido proceso de la fisión nuclear, o atómica, con liberación de partículas alfa y beta. Todo esto ocurre en un volumen que es casi inimaginablemente más pequeño que el ya casi inimaginablemente pequeño volumen del átomo mismo. Un átomo típico tiene un diámetro del orden de 10−10 m; el núcleo, unos 10−15 m de radio, 105 veces más pequeño que el átomo. Como la medida de los volúmenes se da siempre al cubo, hay que multiplicar el exponente por tres para encontrar que el volumen del núcleo es 1015 veces más pequeño que el del átomo.

La explicación de la química
La nube de electrones constituye la fachada del átomo y el medio del que se vale para interaccionarse con otros átomos. La nube es en gran medida inmaterial; lo que un átomo «siente» al chocar con otro son los electrones mismos y es la interacción entre las nubes la responsable de la química. Al tratar de explicar las características de la nube electrónica, el modelo de Bohr situó la química en un terreno científico. Los químicos ya sabían que algunos elementos eran muy parecidos en sus propiedades químicas, aun teniendo pesos atómicos diferentes. Cuando los elementos se distribuyen en una tabla atendiendo a su peso atómico (y especialmente si se tienen en cuenta los diferentes isótopos) estos elementos similares aparecen a intervalos regulares, según un esquema recurrente de ocho en ocho en números atómicos, por ejemplo. Por eso la tabla recibe el nombre de periódica debido a que agrupa a los elementos con las mismas propiedades.
En junio de 1922, Bohr dio una serie de conferencias sobre teoría cuántica y estructura atómica en la Universidad de Göttingen, en Alemania. La Universidad de Göttingen estaba a punto de convertirse en uno de los tres centros clave en el desarrollo de la versión final de la mecánica cuántica; su director era Max Born, que había sido nombrado profesor de física de dicha universidad en 1921. Había nacido en 1882. Su padre era profesor de anatomía de la Universidad de Breslau y él era un estudiante por la época en que aparecieron las primeras ideas de Planck. Comenzó estudiando matemáticas, pasándose después a física (y trabajando durante un cierto tiempo en el Cavendish) sólo después de completar su doctorado en 1906. Fue un experto en relatividad y su trabajo se caracterizó siempre por su total rigor matemático, en franco contraste con la poco sólida construcción teórica de Bohr a la que llegó con la ayuda de su brillante ingenio y de su intuición física, dejando a menudo en otras manos el perfeccionamiento de los detalles matemáticos. Ambos físicos fueron esenciales para la nueva forma de entender el mundo atómico.
Las conferencias de Bohr en junio de 1922 fueron un gran acontecimiento con vistas a la renovación de la física alemana después de la guerra, y también en relación con la historia de la teoría cuántica. Fueron seguidas por científicos de toda Alemania y se hicieron famosas (con un juego de palabras no muy académico tomado de otras celebraciones alemanas famosas) como el «Festival Bohr». Y en esas conferencias, cuidadosamente preparadas, Bohr presentó la primera teoría válida de la tabla periódica de los elementos, una teoría que sobrevive actualmente en su misma forma inicial. La idea de Bohr se basa en un modelo acerca de la forma en que los electrones se van añadiendo a los núcleos para formar átomos. Independientemente del número atómico del núcleo en cuestión, el primer electrón se encontrará en un estado de energía que corresponde al estado fundamental del hidrógeno. El siguiente electrón se encontrará en un estado de energía similar, presentando una apariencia exterior como si de un átomo de helio se tratara, que tiene dos electrones. Pero, según Bohr, no había lugar para ningún otro electrón en ese nivel del átomo, por lo que el siguiente electrón tendría que ocupar una clase distinta de nivel de energía. De forma que un átomo de tres electrones habría de tener dos de ellos más estrechamente ligados al núcleo y el restante menos y que debería comportarse de forma bastante parecida a un átomo de un electrón (hidrógeno) en cuanto a la química se refiere. El elemento correspondiente a Z = 3 es el litio y, efectivamente, presenta alguna similitud química con el hidrógeno. El elemento siguiente de la tabla periódica con propiedades similares a las del litio es el sodio, con Z = 11, ocho lugares más allá del litio. De lo que Bohr dedujo que debían existir ocho plazas asequibles como niveles de energía, aparte de las dos anteriores y que, cuando éstas fueran ocupadas, el siguiente electrón (el undécimo, en total) correspondería a otro estado de energía todavía menos ligado al núcleo, presentando otra vez la apariencia de un átomo con un único electrón.

img008.jpg
Fig. 4-2. Los átomos de algunos de los elementos más simples pueden representarse como un núcleo rodeado de electrones en capas que se asocian a los peldaños de una escalera de niveles de energía. Las reglas cuánticas sólo permiten la existencia de dos electrones en el peldaño más bajo, por lo que el litio, que tiene tres electrones, ha de presentar uno en el nivel siguiente en la escala de energías. Esta segunda capa puede dar cabida a ocho electrones, por lo que el carbono tiene una capa ocupada en un 50 %; ésta es la zona de sus interesantes propiedades químicas como base de la vida.

Estos estados de energía se conocen con el nombre de capas, y la explicación de Bohr acerca de la tabla periódica implicaba la ocupación sucesiva de capas en la medida en que Z aumentaba. Estas capas son similares a las de una cebolla, que se van cubriendo unas a otras; lo que cuenta para la química es el número de electrones de la capa externa. La estructura más profunda sólo juega un papel secundario a la hora de determinar cómo el átomo interacciona con otros átomos.
Trabajando a partir de las capas de electrones, e incorporando al estudio los resultados de la espectroscopia, Bohr logró explicar las relaciones existentes entre los elementos de la tabla periódica en términos de estructura atómica. Él no tenía idea de por qué una capa con ocho electrones queda llena («cerrada»), pero no dejó que nadie de la audiencia abrigara la menor duda de que había descubierto lo esencial. Como Heisenberg dijo más tarde, Bohr «no había demostrado nada matemáticamente… él sólo sabía que ésa era, más o menos, la conexión».[16] Y Einstein comentaba en sus Autobiographical Notes en 1949 el éxito del trabajo de Bohr basado en la teoría cuántica como «tan insegura y contradictoria base, suficiente para permitir a un hombre del fino instinto y tacto de Bohr descubrir las leyes principales sobre las rayas espectrales y sobre las capas electrónicas de los átomos; junto con su importancia para la química, me pareció un milagro».[17]
La química estudia el modo en que los átomos reaccionan y se combinan para formar moléculas. ¿Por qué el carbono reacciona con el hidrógeno de tal forma que cuatro átomos de hidrógeno se acoplan a uno de carbono para formar una molécula de metano? ¿Por qué el hidrógeno se presenta en la forma de moléculas, cada una de ellas formada por dos átomos, mientras los átomos de helio no forman moléculas? Las respuestas a éstas y a otras cuestiones parecidas aparecieron con una asombrosa sencillez de la mano del modelo de Bohr. Cada átomo de hidrógeno contiene un electrón, en tanto que el de helio tiene dos. La capa interna estaría completa si en ella hubiera dos electrones, y (por alguna razón desconocida) las capas llenas son más estables. Cuando dos átomos de hidrógeno se unen para formar una molécula, comparten sus dos electrones de modo que cada uno se comporta como si tuviera la capa llena. El helio, por ejemplo, que ya tiene una capa completa, no reacciona químicamente con ningún elemento.

img009.jpg
Fig. 4-3. Cuando un átomo de carbono se une con cuatro átomos de hidrógeno, los electrones se comparten de forma que cada átomo de hidrógeno parece llenar su capa interna (la de dos electrones) y cada átomo de carbono recoge ocho electrones en su segunda capa. Esta configuración resulta ser muy estable.

El carbono tiene seis protones en su núcleo y seis electrones en el exterior. Dos de éstos forman la capa interna completa, quedando los cuatro restantes en la capa siguiente, que se encuentra medio vacía. Cuatro de los átomos del hidrógeno intentarían unirse a cada uno de los cuatro electrones exteriores del carbono contribuyendo con el electrón propio a la operación. Cada átomo de hidrógeno, por tanto, acaba con una capa de dos electrones internos pseudocompleta, mientras que cada átomo de carbono logra una capa de ocho electrones exteriores pseudocompleta.
Los átomos se combinan, afirmó Bohr, de forma que tienden a conseguir una capa exterior completa. A veces, como en el caso de la molécula de hidrógeno, ello se consigue gracias a que dos núcleos comparten un par de electrones; en otras ocasiones, una imagen más apropiada puede consistir en imaginar que un átomo con un electrón únicamente en la capa exterior (el sodio, por ejemplo) se lo cede a otro átomo que en la capa externa contenga siete electrones y una vacante (en este caso está el cloro, por ejemplo). Así, cada átomo queda completo: el sodio por perder el electrón y quedar con una capa externa completa, aunque más profunda; el cloro por ganar el electrón que le permite completar a capa externa. El resultado neto, no obstante, es que el átomo de sodio se ha convertido en un ion cargado positivamente al perder una unidad de carga negativa, mientras que el átomo de cloro ha pasado a ser un ion negativo. Como las cargas opuestas se atraen, los dos permanecen ligados formando una molécula eléctricamente neutra de cloruro sódico o sal común.
Todas las reacciones químicas se pueden explicar como un comportamiento o intercambio de electrones entre átomos en base a una tendencia a la estabilidad que proporciona el tener completas las capas de electrones. Las transiciones que involucran electrones exteriores producen el espectro característico de un elemento, pero las transiciones en las que intervienen electrones más profundos (y que serán más energéticas, originando la zona del espectro correspondiente a los rayos X) deben ser similares para los distintos elementos, como efectivamente se pudo comprobar. Como sucede con las mejores teorías, el modelo de Bohr quedó totalmente obsoleto después de una predicción felizmente confirmada. Con los elementos distribuidos ordenadamente en una tabla periódica, todavía existían algunos huecos en el año 1922, correspondientes a elementos desconocidos que deberían tener los números atómicos siguientes: 43, 61, 72, 75, 85 y 87. El modelo de Bohr predecía las propiedades concretas de cada uno de estos elementos «ausentes» y sugería que el elemento 72, en particular, debería tener propiedades similares a las del circonio, previsión que contradecía a otras basadas en modelos atómicos alternativos. La predicción se cumplió un año después con el descubrimiento del hafnio, elemento 72, que tiene propiedades espectrales acordes con las pronosticadas por Bohr.

img010.jpg
Fig. 4-4. Al ceder su electrón exterior solitario, un átomo de sodio accede a una configuración óptima desde el punto de vista mecánico-cuántico y queda con una carga positiva. Al aceptar un electrón extra, el cloro rellena su capa externa con ocho electrones y gana una carga negativa. Los iones cargados se mantienen unidos formando moléculas y cristales de sal común (NaCl), por medio de fuerzas electrostáticas.

Este punto culminó la vieja teoría cuántica. Tres años después fue completamente superada, aunque, en cuanto a la química se refiere, la idea de los electrones como diminutas partículas que pululan alrededor del núcleo en capas que tienden quedar completas (o vacías, pero no a medio llenar)[18] es correcta y puede seguir utilizándose. Y si se está interesado en la física de los gases se necesita poco más que la imagen de un átomo como una bola de billar dura e indestructible. La física del siglo diecinueve se aplicaba a los procesos de la vida ordinaria; la física de 1923 daba cuenta de gran parte de la química, y la física de la década de los años 30 lleva más lejos que ninguna en el terreno de la búsqueda de verdades últimas. Durante cincuenta años no ha surgido ninguna gran revolución comparable a la revolución cuántica, a pesar de que durante ese tiempo la ciencia ha avanzado continuamente con las aportaciones de un gran número de científicos. El éxito del experimento de Aspect en París a principios de la década de los 80 marca el fin del período de asentamiento de la teoría, al lograrse la primera prueba experimental directa de que incluso los más extraños aspectos de la mecánica cuántica constituyen una descripción literal del mundo real. Ha llegado el momento de descubrir cuán raro es, en efecto, el mundo de la realidad cuántica.

Parte 2
Mecánica cuántica

«Toda ciencia es, bien física o bien filatelia.»
ERNEST RUTHERFORD
1871-1937

Capítulo 5
Fotones y electrones

A pesar del acierto de Planck y Bohr al señalar el camino hacia una física de lo muy pequeño diferente de la mecánica clásica, la teoría cuántica que hoy se conoce empezó a desarrollarse sólo después de que fuera aceptada la idea de Einstein sobre el cuanto de luz y tras tomar conciencia de que la luz tenía que ser descrita tanto en términos de partículas como de ondas. Y aunque Einstein introdujo por primera vez el cuanto de luz en un artículo de 1905 sobre el efecto fotoeléctrico, hasta 1923 la idea no llegó a ser aceptada y respetable. El mismo Einstein se movía con cautela en este terreno, consciente de las revolucionarias implicaciones de su trabajo, y en 1911 afirmó ante los participantes en el primer Congreso Solvay: «Insisto en el carácter provisional de este concepto, que no parece reconciliable con las consecuencias de la teoría ondulatoria comprobada experimentalmente.»[19]
Aunque Millikan demostró en 1915 que la ecuación de Einstein para el efecto fotoeléctrico era correcta, aún no parecía razonable aceptar la realidad de las partículas de luz e, insistiendo en su trabajo, Millikan comentaba en los años 40 acerca de las confrontaciones de la citada ecuación: «Me vi obligado en 1915 a confirmar su inequívoca comprobación a pesar de su irracionalidad… ello parecía contradecir todo lo conocido sobre la interferencia de la luz.» En aquellos tiempos, él mismo se expresó en términos mucho más enérgicos. Al dar cuenta de la verificación experimental de la ecuación de Einstein, llegó a decir: «La teoría semicorpuscular con la que Einstein ha llegado a su ecuación me parece, hoy por hoy, totalmente insostenible.» Esto fue escrito en 1915; en 1918 Rutherford comentó que no parecía haber «explicación física» para la relación existente entre energía y frecuencia que Einstein había introducido quince años antes con su hipótesis de los cuantos de luz. No se trataba de que Rutherford no conociera la explicación de Einstein, sino de que no quedaba convencido por ella. Puesto que todos los experimentos diseñados para comprobar la teoría ondulatoria de la luz mostraban que la luz estaba compuesta por ondas, ¿cómo podía al mismo tiempo participar de una naturaleza corpuscular?.[20]

Partículas de luz
En 1909, en la época en que dejó de ser empleado de patentes para acceder a su primer puesto académico como profesor adjunto en Zürich, Einstein dio un corto pero significativo paso adelante, al referirse por primera vez a «cuantos puntuales con energía ℎν». Las partículas como los electrones se representan en mecánica clásica como objetos «puntuales», y esto constituye un claro distanciamiento de cualquier descripción ondulatoria, salvo por el hecho de que la frecuencia de la radiación, ν, proporciona la energía de la partícula. «En mi opinión», afirmó Einstein en 1909, «la fase siguiente en el desarrollo de la física teórica nos llevará a una teoría de la luz que podrá considerarse como una especie de fusión entre la teoría ondulatoria y la corpuscular».
Este comentario, apenas considerado en aquel tiempo, dio de lleno en el blanco de la moderna teoría cuántica. En la década de los 20, Bohr expresó esta misma idea, fundamental para la nueva física, con el «principio de complementariedad», que establece que las teorías ondulatoria y corpuscular de la luz (en este caso), no se excluyen mutuamente sino que se complementan. Ambos conceptos son necesarios para lograr una descripción completa, y esto se pone de manifiesto de modo contundente en la necesidad de medir la energía de la partícula de luz en términos de su frecuencia, o de su longitud de onda.
Poco después de haber hecho estas consideraciones, Einstein dejó de interesarse por la teoría cuántica y, en su lugar, se dedicó a desarrollar su Teoría General de la Relatividad. Cuando retomó a la palestra cuántica en 1916, lo hizo con un tratamiento teórico distinto del cuanto de luz. Las reglas estadísticas le ayudaron, como hemos visto, a perfeccionar el modelo atómico de Bohr y la descripción de Planck de la radiación del cuerpo negro. Sus cálculos sobre la absorción o emisión de radiación por la materia permitían explicar la transferencia de momento de la radiación α a materia, suponiendo que cada cuanto de radiación ℎν transporta un momento ℎν/c. Este trabajo conecta con uno de sus grandes artículos, escrito en 1905, el del movimiento browniano. De la misma forma que los granos de polen son golpeados por los átomos de un gas o de un líquido (con lo que su movimiento prueba la realidad de los átomos), así los átomos mismos son golpeados por las partículas de la radiación del cuerpo negro. Este «movimiento browniano» de átomos y moléculas no puede ser percibido directamente, pero los impactos son causa de efectos estadísticos que pueden ser medidos en términos de propiedades tales como la presión del gas. Fueron estos efectos estadísticos los que Einstein explicó a partir de las partículas de la radiación del cuerpo negro que llevan un momento asociado.
Sin embargo, la misma fórmula para la velocidad de una partícula de luz se obtiene por medio de la relatividad especial. Según la teoría de la relatividad, la energía (E), el momento (p) y la masa en reposo (m) de una partícula están relacionadas entre sí en la sencilla ecuación:

E2 = m2c4 + p2c2

Como la partícula de luz no tiene masa en reposo, esta ecuación se reduce a:

E2 = p2c2

o simplemente a p = E/c. Puede parecer extraño que Einstein tardara tanto tiempo en llegar a esta conclusión, pero hasta entonces él estaba interesado únicamente en la relatividad general. Una vez relacionó los razonamientos estadísticos y los basados en relatividad, reforzó sus ideas en torno a este tema. (Bajo un punto de vista diferente, puesto que la estadística demuestra que p = E/c, se puede llegar a la conclusión de que las ecuaciones relativistas establecen que la partícula de luz tiene masa en reposo nula.)
Ésta fue la fórmula que convenció al propio Einstein de que los cuantos de luz eran reales. El nombre de fotón para la partícula de luz no se adoptó hasta 1926 (fue introducido por Gilbert Lewis, de Berkeley, California), y sólo pasó a formar parte del lenguaje científico ordinario después del quinto Congreso Solvay que tuvo lugar en 1927 bajo el título «Electrones y fotones». A pesar de que en 1917 Einstein ya estaba convencido de la realidad de lo que hoy se llaman fotones, hubieron de transcurrir otros seis años antes de que el físico americano Arthur Compton obtuviera una prueba experimental directa e incontrovertible de la realidad de los fotones.
Compton venía trabajando con rayos X desde 1913. Investigó en varias universidades americanas y en el Cavendish de Inglaterra. A través de una serie de experimentos en los comienzos de los años 20 había llegado a la conclusión de que la interacción entre rayos X y electrones sólo podía explicarse si los rayos X se trataban, en cierta medida, como partículas; es decir, como fotones. Los experimentos clave se basaban en la forma en que la radiación X es dispersada por un electrón; o, en lenguaje de partículas, a la forma en que interaccionan un fotón y un electrón cuando ambos colisionan. Cuando un fotón de los rayos X choca contra un electrón, éste gana energía y momento y se desplaza en un cierto ángulo; en cambio, el fotón pierde energía y momento y sufre una desviación; los cálculos se efectúan mediante las sencillas leyes de la física de partículas. La colisión es similar al impacto de una bola de billar sobre otra en reposo, y la transferencia de energía y momento ocurre de la misma forma. En el caso del fotón, sin embargo, la pérdida de energía significa un cambio en la frecuencia de la radiación, dado por la cantidad ℎν transmitida al electrón. Se necesitan las teorías corpuscular y ondulatoria para conseguir una explicación completa del experimento. Cuando Compton llevó a cabo sus análisis, comprobó que la interacción se comportaba exactamente de acuerdo con las reglas anteriores: los ángulos de dispersión, los cambios de longitud de onda y el retroceso del electrón se ajustaban perfectamente a la idea de que la radiación X está constituida por partículas de energía ℎν. Este proceso hoy se conoce como «efecto Compton»,[21] y en 1927 Compton recibió el Premio Nobel por dicho trabajo. Después de 1923, la realidad de los fotones como partículas que transportaban energía y momento quedó definitivamente establecida (a pesar de que Bohr luchó fuertemente durante un tiempo tratando de encontrar una explicación alternativa al efecto Compton. él no tuvo en cuenta la necesidad de incluir ambas fórmulas en una correcta teoría de la luz, y consideraba la teoría corpuscular como una rival de la ondulatoria, que era la que utilizó en su modelo del átomo). Sin embargo, era evidente la naturaleza ondulatoria de la luz. Como Einstein afirmó en 1924, «resultaban entonces dos teorías de la luz, ambas indispensables… sin ninguna relación lógica».
La relación entre aquellas dos teorías constituyó la base del desarrollo de la mecánica cuántica en años sucesivos. Se avanzó simultáneamente en muchas disciplinas diferentes, y nuevas ideas y descubrimientos se produjeron en un orden que no era el adecuado para construir la nueva física. Una manera de explicar coherentemente todo el proceso es describir los acontecimientos en un orden diferente de aquél en que se dieron, y por lo tanto establecer los conceptos fundamentales de cada uno de los pasos antes de describir la propia mecánica cuántica, aunque en realidad la teoría de la mecánica cuántica comenzó a desarrollarse antes de que alguno de tales conceptos fuera comprendido. Incluso cuando la mecánica cuántica comenzó a tomar cuerpo, la totalidad de las implicaciones de la dualidad onda-corpúsculo no fueron tomadas en cuenta; pero en toda descripción lógica de la teoría cuántica el siguiente eslabón tras el descubrimiento de la naturaleza dual de la luz es el descubrimiento de la naturaleza dual de la materia.

Dualidad partícula-onda
El descubrimiento de dicha dualidad tuvo su origen en una sugerencia de un noble francés, Louis de Broglie: «Si la luz también se comporta como partículas, ¿por qué no se deberían comportar los electrones también como ondas?» Si hubiera detenido aquí su exposición, por supuesto, ahora no sería recordado como uno de los fundadores de la teoría cuántica, ni habría recibido el Premio Nobel en 1929. Si se considera como una nueva especulación en las teorías de la época, la idea no es importante, sobre todo teniendo en cuenta que lucubraciones similares habían sido expuestas sobre los rayos X mucho antes de que Compton realizase su experimento. Por ejemplo, en 1912, el gran físico (y también Premio Nobel) W. H. Bragg afirmó a propósito de la naturaleza de los rayos X: «El problema está, en mi opinión, no en decidir entre dos teorías sobre los rayos X, sino en encontrar… una teoría que tenga la capacidad de ambas.»[22] La gran conquista de L. de Broglie fue acoger esta idea de la dualidad partícula-onda y desarrollarla matemáticamente, describiendo cómo se deberían comportar las ondas de materia y sugiriendo formas en las que podrían ser observadas. Contó con la gran ventaja que suponía el que su hermano mayor, Maurice, fuese un físico experimental reconocido, quien le guió en los pasos que le llevaron a su descubrimiento. Louis de Broglie diría más tarde que Maurice le señaló en varias conversaciones la «importancia y la indudable realidad de los aspectos duales de partícula y onda». Era el momento oportuno para desarrollar esta idea, basada en la intuición conceptualmente simple que fue capaz de transformar la física teórica. En cualquier caso el mérito de su intuitivo paso adelante le corresponde por completo.
De Broglie había nacido en 1892. La tradición familiar le había destinado a un trabajo en el servicio civil, pero tras ingresar en 1910 en la Universidad de París se interesó por la ciencia, especialmente por la mecánica cuántica, un mundo parcialmente abierto para él a través de su hermano (diecisiete años mayor) que había obtenido su doctorado en 1908 y que, siendo uno de los secretarios científicos del primer Congreso Solvay, estaba en condiciones de transmitir noticias a Louis. En 1913 sus estudios de física se vieron interrumpidos por lo que debería haber sido un corto período de servicio militar obligatorio, pero que se alargó hasta 1919, a causa de la Primera Guerra Mundial. Retomando su afición después de la guerra, de Broglie volvió al estudio de la teórica cuántica, y comenzó a trabajar en la línea que había de conducirle a su descubrimiento de la relación subyacente a las teorías corpuscular y ondulatoria. El resultado de sus experimentos apareció en 1923, al publicar tres artículos sobre la naturaleza de los cuantos de luz en la revista francesa Comptes Rendus, y tras escribir un sumario del trabajo en inglés que apareció en febrero de 1924 en el Philosophical Magazine. Estas cortas contribuciones no causaron gran impacto pero sirvieron a de Broglie para poner en orden sus ideas y para presentarlas en una forma más completa como su tesis doctoral. El examen tuvo lugar en la Sorbona en noviembre de 1924, y la tesis fue publicada a principios de 1925 en Annales de Physique, dando lugar a uno de los grandes avances de la física en los años 20.
En su tesis, de Broglie partía de las dos ecuaciones que Einstein había deducido para los cuantos de luz:

E = ℎν y p = ℎν/c

En ambas ecuaciones, las propiedades correspondientes a partículas (energía y momento) aparecen a la izquierda, mientras que las que corresponden a ondas (frecuencia) figuran a la derecha. Él sostenía que el fracaso de los experimentos en poner de manifiesto, de una vez por todas, si la luz es onda o partícula se debía a que ambos tipos de comportamiento van unidos, hasta el punto de que para medir la propiedad corpuscular que representa el momento hay que conocer la propiedad ondulatoria llamada frecuencia. Pero esta dualidad no se aplica únicamente a los fotones. Por aquella época se pensaba que los electrones se comportaban a todos los efectos como partículas típicas, excepto en el curioso modo de ocupar los distintos niveles de energía dentro de los átomos. Pero de Broglie se apercibió de que los electrones sólo existían en órbitas definidas por números enteros, lo cual podía interpretarse, en cierto sentido, como una propiedad ondulatoria. «Los únicos fenómenos que implican números enteros en física son los de interferencia y los relativos a modos normales de vibración», escribió en su tesis. «Este hecho me llevó a pensar que los electrones no podían continuar siendo entendidos simplemente como corpúsculos, sino que había que asignarles algún tipo de periodicidad.»
Los «modos normales de vibración» son simplemente las vibraciones que originan las notas de una cuerda de violín o las de una onda sonora en un tubo de órgano. Una cuerda tensa, por ejemplo, puede vibrar de modo que sus extremos permanezcan inmóviles mientras que la zona media se mueve de un lado para otro. Si se sujeta el centro de la cuerda, cada mitad vibrará de la misma manera, manteniéndose el centro en reposo; este «modo» de vibración corresponde a una nota más alta, un armónico, del tono fundamental asociado a la cuerda sin puntos en reposo, salvo sus extremos. En este primer modo, la longitud de onda es el doble que en el segundo, y pueden producirse órdenes superiores en los modos de vibración en la cuerda que corresponden a notas sucesivamente altas suponiendo siempre que la longitud de la cuerda es un número entero de longitudes de onda (1, 2, 3, 4, etc.). De forma que sólo ondas de cierta frecuencia pueden aparecer en la cuerda.
Este hecho es muy parecido al modo en que los electrones se colocan en los átomos en estados que corresponden a los niveles cuánticos de energía (1, 2, 3, 4, etc.). En lugar de una cuerda recta tirante imaginémosla curvada en un círculo, como una órbita alrededor del átomo. Una vibración puede mantenerse en la cuerda, con tal de que la longitud de la circunferencia sea equivalente a un número entero de longitudes de onda. Una onda que no cumpla este requisito será inestable y desaparecerá tras interferir con ella misma. La cabeza de la serpiente ha de poder agarrar siempre la cola; en caso contrario la cuerda, como la analogía, se rompe. ¿Podía explicar esto la cuantificación de los estados de energía del átomo, suponiendo que cada uno corresponda a una onda electrónica resonante de una frecuencia particular? Como tantas de las analogías basadas en el átomo de Bohr, la imagen está muy alejada de la verdad, pero ayudó a una mejor comprensión del mundo del cuanto.

Ondas de electrones
De Broglie pensaba que las ondas estaban asociadas con partículas, y sugirió que una partícula tal como un fotón está guiada en su trayectoria por la onda asociada a la que se encuentra ligada. El resultado de dicha teoría fue una descripción matemática completa del comportamiento de la luz, que incorporaba los resultados tanto de experimentos ondulatorios como corpusculares. El tribunal que estudió la tesis de De Broglie apreció las matemáticas que exhibía, pero no creyó que la propuesta de una onda asociada a una partícula como el electrón tuviera sentido físico; lo estimaron como un simple capricho de las matemáticas. De Broglie no estuvo de acuerdo con la apreciación. Cuando uno de los examinadores le preguntó si se podría diseñar algún experimento para detectar las ondas de materia, él contestó que sería posible efectuar las observaciones requeridas difractando un haz de electrones mediante un cristal. El experimento sería análogo al de la difracción de la luz a través, no de dos, sino de una serie de rendijas que vendrían determinadas por el espaciado regular entre dos átomos de un cristal; las rendijas en cuestión resultan lo suficientemente estrechas para difractar las ondas de alta frecuencia de los electrones (de pequeña longitud de onda, comparada con la luz o incluso con los rayos X).
De Broglie conocía la longitud de onda correcta de las ondas de electrones, ya que combinando las dos ecuaciones de Einstein para partículas de luz obtenía la simple relación p = ℎν/c, que ya ha aparecido anteriormente. Como la longitud de onda está relacionada con la frecuencia por λ = c/ν, esto significa que pλ = ℎ; en pocas palabras, el momento multiplicado por la longitud de onda da la constante de Planck. Cuanto más pequeña sea la longitud de onda, mayor será el momento de la partícula correspondiente; ello hacía de los electrones, con su pequeña masa y, por tanto, pequeño momento, la más ondulatoria de las partículas hasta entonces conocidas. Exactamente como en el caso de la luz, o como en el de las ondas sobre la superficie del mar, los efectos de difracción sólo se manifiestan si la onda atraviesa un agujero mucho menor que su longitud de onda, lo que para las ondas de electrones significa un hueco ciertamente muy estrecho, aproximadamente como el espacio entre los átomos de un cristal.
Lo que de Broglie no sabía mientras realizaba sus experimentos era que los efectos que mejor podían ser explicados en términos de difracción de electrones habían sido ya estudiados en 1914 al utilizar haces de electrones para el estudio de cristales. Dos físicos americanos, Clinton Dawisson y su colega Charles Kunsman, habían estado estudiando este comportamiento peculiar de electrones dispersados por cristales durante 1922 y 1923, mientras de Broglie estaba formulando sus teorías. Sin saber nada de todo ello, de Broglie trató de persuadir a experimentalistas para llevar a cabo la prueba de la hipótesis de la onda del electrón. Entretanto, el supervisor de la tesis de De Broglie, Paul Langevin, había enviado una copia del trabajo a Einstein, quien lo vio como mucho más que un artificio matemático o que una analogía, y tomó conciencia de que las ondas de materia debían ser reales. A su vez, Einstein pasó las noticias a Max Born, de Göttingen, donde el director del departamento de física experimental, James Franck, comentó que los experimentos de Davisson «¡ya habían establecido la existencia del efecto esperado!».[23]
Davisson y Kunsman, al igual que otros físicos, habían pensado que el efecto de la dispersión de los electrones al bombardear átomos, se debía a la estructura de éstos y no a la naturaleza de los propios electrones. Walter Elsasser, alumno de Born, publicó una corta nota en 1925 explicando los resultados de esos experimentos en términos de ondas de electrones, pero los experimentalistas no se dejaron influir por esta reinterpretación de sus resultados por un teórico que, además, era un desconocido estudiante de veintiún años. Incluso en 1925, a pesar de haberse demostrado experimentalmente, la teoría de ondas de materia no pasaba de ser un concepto vago. Sólo cuando Erwin Schrödinger realizó una nueva teoría de la estructura atómica que incorporaba y ampliaba la idea de De Broglie, los experimentalistas consideraron urgente comprobar la hipótesis de la onda del electrón mediante la realización de experimentos de difracción. Cuando finalizaron los trabajos en 1927, quedó patente que la hipótesis de De Broglie había sido totalmente correcta; los electrones eran difractados por la red cristalina exactamente igual que si fuesen una onda. El descubrimiento lo hicieron independientemente, en 1927, dos grupos de investigadores: Davisson y un nuevo colaborador, Lester Germer, en Estados Unidos, y George Thomson (hijo de J. J.) y el joven investigador Alexander Reid, trabajando en Inglaterra y utilizando una técnica diferente. Al no aceptar al pie de la letra los cálculos de Elsasser, Davisson no pudo pasar a la historia individualmente y tuvo que compartir el Premio Nobel de Física de 1937 con Thomson por sus trabajos independientes de 1927. Una referencia histórica a este hecho que resume la característica fundamental de la teoría cuántica y explica detalladamente el proceso.
En 1906, J. J. Thomson había recibido el Premio Nobel por demostrar que los electrones eran partículas; en 1937, su hijo obtuvo el mismo premio por demostrar que los electrones eran ondas. Tanto el padre como el hijo estaban en lo cierto, y ambos premios fueron completamente merecidos. Desde 1928 en adelante, la evidencia experimental de la dualidad onda-partícula de De Broglie resultó del todo patente. Otras partículas, incluyendo el protón y el neutrón,[24] poseían propiedades ondulatorias, entre ellas la difracción, como se pudo comprobar. En una serie de experimentos realizados a finales de los años 70 y principios de los 80, Tony Klein y sus colaboradores de la Universidad de Melbourne repitieron algunos de los más clásicos experimentos que sirvieron para establecer la naturaleza ondulatoria de la luz en el siglo diecinueve, pero utilizando un haz de neutrones en lugar de un haz de luz.[25]

Una ruptura con el pasado
La total ruptura con la física clásica ocurrió al tomar conciencia de que no sólo los fotones y los electrones sino todas las partículas y todas las ondas son, de hecho, una mezcla de onda y partícula. Lo que sucede es que en nuestro mundo ordinario la componente corpuscular domina de manera absoluta en el comportamiento de la mezcla si se trata, por ejemplo, de una pelota o de una casa. El efecto ondulatorio también está en esos objetos de acuerdo a la relación pλ = ℎ, aunque es completamente insignificante. En el mundo de lo muy pequeño, donde los aspectos corpusculares y los ondulatorios de la realidad física son igualmente significativos, las cosas se comportan de un modo ininteligible desde el punto de vista de nuestra experiencia cotidiana. Ya no es que el átomo de Bohr con sus órbitas electrónicas resulte una imagen falsa; todas las imágenes son falsas y no existe analogía física que permita entender cómo funciona el interior de un átomo. Los átomos se comportan como átomos.
Sir Arthur Eddington resumió la situación brillantemente en su libro The Nature of the Physical World, publicado en 1929. «No pueden elaborarse concepciones familiares sobre el electrón», afirmó, y en su mejor descripción del átomo se limita a presentarlo como «algo desconocido que hace no sabemos qué». Se da cuenta de que esto «no suena a una teoría particularmente esclarecedora. Alguna vez he leído algo parecido no sé dónde:

The slithy toves
Did gyre and gimbal in the wabe.»

Pero lo importante es que aunque no se sabe qué hacen los electrones en los átomos, sí se sabe que su número es muy importante. Esta «jerigonza» pasa a ser científica si se le añaden unos cuantos números: «Ocho escurridizas «cosas» giran suspendidas en la telaraña del oxígeno, siete en el nitrógeno… si una de ellas escapa del oxígeno, éste quedará disfrazado con un ropaje que pertenecen propiamente al nitrógeno.»
No se trata de una observación chistosa. A condición de que no se cambien los números, como Eddington señaló hace más de cincuenta años, todos los fundamentos de la física podrían traducirse a la «jerigonza». No habría pérdida de significado y sí un gran beneficio si se desterrara de nuestra mente la asociación instintiva de átomos con esferas duras y electrones con diminutas partículas. A la confusión puede haber contribuido una propiedad del electrón llamada «espín»[26] que no tiene nada que ver con otros conceptos de la vida ordinaria.
Uno de los problemas de la espectroscopia atómica que el modelo atómico de Bohr no era capaz de explicar era el desdoblamiento de rayas espectrales que debían ser únicas en multipletes con separación uniforme. Como cada raya espectral está asociada a la transición de un estado de energía a otro, el número de rayas del espectro da información del número de estados de energía que contiene el átomo; del número de peldaños que hay en la escalera cuántica y de su dimensión. De los estudios de espectros, los físicos de los primeros años de la década de los 20 habían ideado varias posibles explicaciones para la estructura de los multipletes. La mejor de todas ellas se debía a Wolfgang Pauli, que implicaba la asignación de cuatro números cuánticos distintos al electrón. Esto ocurría en 1924, cuando los físicos aún pensaban en el electrón como en una partícula y trataban de explicar sus propiedades cuánticas en términos familiares en el mundo ordinario. Tres de estos números estaban ya incluidos en el modelo de Bohr, y servían para describir el momento angular del electrón (la velocidad con que se mueve en su órbita), la figura de la órbita y su orientación. El cuarto número tenía que asociarse con otra propiedad del electrón, una propiedad que sólo se daba en dos variedades de acuerdo al desdoblamiento observado en las rayas espectrales.
Los físicos aceptaron pronto la idea de que el cuarto número cuántico de Pauli describía el espín del electrón, que podía imaginarse como algo que puede apuntar hacia arriba o hacia abajo, dando lugar a un número cuántico doble-valuado. El primer científico en proponer esta idea fue Ralph Kronig, un joven físico que se trasladó a Europa tras finalizar sus estudios de doctorado en la Universidad de Columbia.[27] Propuso que el electrón poseía un espín intrínseco de un medio en las unidades naturales (ℎ/2π), y que este espín se podía disponer paralelamente al campo magnético del átomo o antiparalelamente.[28] El propio Pauli se opuso fuertemente a esta idea, en gran medida porque no podía adaptarla a la teoría de la relatividad. De la misma forma que un electrón en órbita del núcleo no podía ser estable de acuerdo con el electromagnetismo clásico, un electrón con espín no podía ser estable de acuerdo con la relatividad. Kronig abandonó la idea y nunca la publicó. Y, sin embargo, George Uhlenbeck y Samuel Goudsmit, del Instituto de Física de Leyden, publicaron la misma teoría en la revista alemana Die Naturwissenschaften a finales de 1925, y en Nature a principios de 1926.
La teoría del espín del electrón se configuró totalmente hasta llegar a poder explicar con ella el misterioso desdoblamiento de las rayas espectrales, y en marzo de 1926 el mismo Pauli se convenció del hecho. Bohr estableció, en 1932, la imposibilidad de medir el espín del electrón mediante experimentos clásicos, tales como la desviación de haces de electrones por campos magnéticos. Se trata de una propiedad que sólo aparece en interacciones cuánticas, tales como las responsables del desdoblamiento de las rayas espectrales, y por lo tanto no entra en el campo de la física clásica.

Pauli y la exclusión
Wolfgang Pauli fue uno de los componentes más importantes del grupo de científicos que crearon la teoría cuántica. Nació en Viena en 1900, y se matriculó en 1918 en la Universidad de Münich, adquiriendo pronto una reputación de matemático precoz con un artículo de teoría general acerca de la relatividad que inmediatamente suscitó el interés de Einstein, y que fue publicado en enero de 1919. Las clases de la universidad, las del Instituto de Física Teórica y sus propias lecturas le llevaron a conseguir un dominio tal de la relatividad que en 1920 recibió el encargo de escribir un resumen sobre el tema para una prestigiosa enciclopedia matemática. Este artículo maestro del estudiante de veinte años extendió su fama entre la comunidad científica, siendo alabado por Max Born, que le llevó a Göttingen como ayudante, en 1921. Pronto pasó de Göttingen a Hamburgo y más tarde al Instituto de Bohr, en Dinamarca. El nuevo ayudante de Born, Werner Heisenberg, jugó también un papel crucial en el desarrollo de la teoría cuántica.[29]
Incluso antes de que el cuarto número cuántico de Pauli fuese designado por espín, él ya había utilizado los cuatro números, en 1925, para resolver uno de los grandes problemas planteados por el modelo de Bohr. En el caso del hidrógeno, el único electrón ocupa el estado de energía más bajo posible en la base de la escalera cuántica. Si se le excita —por una colisión, por ejemplo— puede ascender a otro peldaño más alto, para posteriormente caer otra vez en el estado fundamental, emitiendo un cuanto de radiación en el último proceso. Pero cuando el sistema posee más electrones, como en el caso de átomos más pesados, no todos acaban reduciéndose al estado fundamental, sino que se distribuyen por los peldaños de la escalera. Bohr hablaba de electrones en capas alrededor del núcleo y de electrones nuevos que intentan llenar una capa; después ocupaban la siguiente en orden creciente de energía, y así sucesivamente. Con razonamientos de este tipo construyó la tabla periódica de los elementos y explicó muchos procesos químicos. Pero lo que él no explicó es cómo o por qué una capa queda completa; por qué la primera capa sólo puede contener dos electrones y la siguiente ocho; y así sucesivamente.
Cada una de las capas de Bohr correspondía a un conjunto de números cuánticos, y Pauli se dio cuenta en 1925 de que con la adición de su cuarto número cuántico para el electrón, el número de electrones en cada capa completa corresponde exactamente al número de diferentes conjuntos de cuatro números cuánticos asociados a esa capa. Formuló lo que hoy se conoce como el Principio de Exclusión de Pauli, según el cual dos electrones no pueden tener nunca el mismo conjunto de números cuánticos, proporcionando así una razón para justificar la forma de llenarse las capas de átomos cada vez más pesados.
El principio de exclusión y el descubrimiento del espín se realizaron antes de que pudieran ser comprendidos totalmente, y sólo a finales de los años 20 pudieron ser incorporados en la nueva física. A causa del casi excesivamente precipitado progreso que se hizo en física en 1925 y 1926, la importancia de la exclusión ha resultado, a veces, disminuida, pero es un concepto tan fundamental y fructífero como la teoría de la relatividad, además de tener muchas aplicaciones en diferentes campos de la física. El Principio de exclusión de Pauli se aplica a todas las partículas cuyo espín es un número semientero de unidades ħ: (1/2) ħ, (3/2) ħ, (5/2) ħ, etc. Las partículas que no tienen espín (como los fotones) o que poseen un espín entero (ħ, 2ħ, 3ħ, etc.) se comportan de una forma completamente diferente, ya que siguen un conjunto de reglas distintas. Las reglas que siguen las partículas de espín semientero se llaman estadística de Fermi-Dirac, después de que Enrico Fermi y Paul Dirac las descubrieran en 1925 y 1926. Estas partículas se llaman fermiones. Las reglas seguidas por las partículas de un espín entero constituyen la llamada estadística de Bose-Einstein, por los nombres de los físicos que las descubrieron, y las partículas se llaman bosones.
La estadística de Bose-Einstein se desarrolló en 1924-1925, paralelamente a todo el revuelo surgido con motivo de las ondas de Broglie, el efecto Compton, y el espín del electrón. Supone la última gran contribución de Einstein a la teoría cuántica (en realidad, su última gran creación científica), y también representa una ruptura drástica con las teorías clásicas.
Satyendra Bose nació en Calcuta en 1894, y en 1924 fue nombrado catedrático de física en la por entonces nueva Universidad de Dacca. Siguiendo de lejos los trabajos de Planck, Einstein, Bohr y Sommerfeld, y consciente de la aún imperfecta fundamentación de la ley de Planck, se propuso deducir la ley del cuerpo negro de una forma diferente, partiendo de la hipótesis de que la luz está integrada por fotones. Logró una demostración muy sencilla de la ley implicando partículas sin masa que obedecían una estadística especial, y envió una copia de su trabajo, en inglés, a Einstein con la solicitud de que éste lo presentara para ser publicado en la revista Zeitschrift für Physik. Einstein quedó tan impresionado por el trabajo que lo tradujo al alemán y lo recomendó para su publicación, asegurándose que se publicaría en agosto de 1924. Eliminando todo vestigio de la teoría clásica y deduciendo la ley de Planck a partir de una combinación de cuantos de luz —entendidos como partículas relativistas de masa cero— y de métodos estadísticos, Bose consiguió finalmente eliminar los componentes clásicos de la teoría cuántica. La radiación se podía tratar a partir de entonces como un gas cuántico, y la estadística implicaba la contabilidad de partículas, no la de frecuencias de ondas.
Einstein desarrolló esta estadística y la aplicó a lo que entonces era el caso hipotético de una colección de átomos —líquida o gaseosa— obedeciendo a esas mismas reglas. La estadística resultó inadecuada para gases reales a temperaturas ordinarias, pero es totalmente correcta para dar cuenta de las extrañas propiedades del helio superfluido, un líquido enfriado a una temperatura próxima al cero absoluto; o sea, a −273 °C. Al parecer la estadística de Fermi-Dirac, en 1926, los físicos estudiaron las reglas aplicables a cada caso para tratar de comprender el significado de un espín semientero.
La distinción entre fermiones y bosones es importante y puede comprenderse fácilmente con un ejemplo. Hace algunos años, momentos antes de levantarse el telón de una obra protagonizada por el cómico Spike Milligan, el mismo Milligan apareció en el escenario y echó una ojeada hacia la mayor parte de las butacas que se encontraban vacías, en las proximidades del escenario. «Ahora no van a encontrar a nadie que las compre», dijo, «pueden acercarse ustedes y sentarse aquí cerca, donde yo pueda verles». Los asistentes hicieron lo que les sugirió, acercándose cada cual hasta ocupar todas las butacas próximas al escenario, dejando vacías las últimas filas. El público se comportó como fermiones bien educados; cada persona ocupó un solo sitio (un estado cuántico) y comenzando desde el escenario (el apetecible «estado fundamental») hacia atrás. La audiencia de un concierto de Bruce Springsteen se comportó de forma diferente. Allí todas las butacas estaban ocupadas, pero había un pequeño pasillo entre la primera fila y el escenario. Nada más encenderse las luces y empezar a tocar la primera nota de «Born to Run», todos los asistentes abandonaron su localidad y se situaron en el pasillo empujándose contra el escenario. Todas las partículas se situaron en el mismo estado de energía, de forma indistinguible. Ésta es la diferencia entre fermiones y bosones: los fermiones obedecen al principio de exclusión; los bosones, no.
Todas las partículas con las que estamos familiarizados —electrones, protones y neutrones— son fermiones, y sin el principio de exclusión, ni la variedad de los elementos químicos ni las características de nuestro mundo físico no se darían en la forma actual. Los bosones son unas partículas más inexplicables, como los fotones, y la ley del cuerpo negro es un resultado directo de la posibilidad de que todos los fotones aparezcan en el mismo estado de energía. Los átomos de helio presentan propiedades de bosones, bajo ciertas condiciones, y constituyen un superfluido porque cada átomo 4He contiene dos protones y dos neutrones, con espines semienteros dispuestos de forma que su suma da cero. Los fermiones se conservan en las interacciones entre partículas, en el sentido en que es imposible aumentar el número total de electrones en el Universo; por el contrario, los bosones pueden ser fabricados en enormes cantidades, por ejemplo, cada vez que se enciende una luz.

¿Por dónde seguir?
En el año 1925 no había una línea clara de progreso en la teoría cuántica, sino más bien muchos científicos abriendo caminos separados. Los científicos punteros eran conscientes de ello, y expresaron públicamente su preocupación; pero el gran salto hacia adelante llegaría, con una excepción, con la nueva generación que investigó después de la Primera Guerra Mundial y que estaba, quizá como una consecuencia de ello, abierta a nuevas ideas. En 1926, Max Born observaba que «por el momento sólo se tiene unas pocas indicaciones oscuras» sobre la forma en que hay que modificar las leyes de la física clásica para explicar las propiedades atómicas, y en su texto sobre teoría atómica publicado en 1925 promete un segundo volumen para completar la obra que él pensaba «tardaría aún varios años en escribirse».[30]
Heisenberg, después de un intento fallido de calcular la estructura del átomo de helio, comentaba a Pauli a principios del año 1923, «¡qué desgracia!»; una frase que Pauli repitió en una carta a Sommerfeld en julio de aquel año, diciéndole: «La teoría… con átomos de más de un electrón, es una gran desgracia.» En mayo de 1925 Pauli escribió a Kronig diciéndole que «la física se encuentra otra vez en un momento de gran confusión», y en 1925 el propio Bohr estaba igualmente aturdido por la gran cantidad de problemas que se acumulaban en tomo a su modelo del átomo. En junio de 1926, Wilhelm Wien, cuya ley del cuerpo negro había constituido uno de los trampolines para el salto en el vacío de Planck, escribía a Schrödinger a propósito del «laberinto de discontinuidades cuánticas enteras y semienteras y del uso arbitrario de la teoría clásica». Todos los grandes nombres en teoría cuántica eran conscientes de los problemas; y todos, salvo Henri Poincaré, estaban vivos en 1925: Lorentz, Planck, J. J. Thomson, Bohr; Einstein y Born seguían realizando experimentos, mientras Pauli, Heisenberg, Dirac y otros comenzaban a dejar sus primeras huellas. Las dos grandes autoridades en la materia eran Einstein y Bohr, pero en 1925 comenzaron a separar sus puntos de vista científicos. Al principio. Bohr fue uno de los más fuertes opositores al cuanto de luz; después, cuando Einstein comenzó a preocuparse por el papel de la probabilidad en la teoría cuántica, Bohr se convirtió en su gran defensor. Los métodos estadísticos (irónicamente, introducidos por Einstein) se convirtieron en la piedra angular de la teoría cuántica, pero ya en 1920 Einstein escribió a Born: «El tema de la causalidad me crea muchas dudas… tengo que admitir que… me falta fe en mis convicciones», y el diálogo entre Einstein y Bohr sobre este tema continuó durante treinta y cinco años, hasta la muerte de Einstein.[31]
ax Jammer describe la situación a principios de 1925 como «una lamentable mezcolanza de hipótesis, principios, teoremas y recetas para calcular».[32] Cada problema de física cuántica debía resolverse primero mediante la física clásica, y después rehacerse mediante la introducción de números cuánticos, más por tanteos inspirados que por puro razonamiento. La teoría cuántica no era ni autónoma ni lógicamente consistente, pero existía como si de un parásito de la física clásica se tratase. No es raro que Born pensara que habían de transcurrir años antes de que pudiera escribir su segundo y definitivo volumen sobre física atómica. Y aún más, parece completamente de acuerdo con la extraña teoría del cuanto que unos meses después de estos confusos principios de 1925 la aturdida comunidad científica se viera, no ante una, sino ante dos teorías cuánticas completas, autónomas, lógicas y bien fundamentadas.

Capítulo 6
Matrices y ondas

Werner Heisenberg nació en Würzburg el 5 de diciembre de 1901. En 1920 se matriculó en la Universidad de Münich, donde estudió física con Arnold Sommerfeld, uno de los físicos más influyentes del momento y que había estado muy relacionado con el desarrollo del modelo atómico de Bohr. Heisenberg se vio sumido rápidamente en la investigación con la teoría cuántica, y se propuso encontrar números cuánticos que explicaran el desdoblamiento de rayas espectrales en parejas (dobletes). En un par de semanas encontró la respuesta; todo se podía explicar en términos de números cuánticos semienteros. El joven estudiante había encontrado la solución más simple del problema, pero sus compañeros y su superior quedaron sorprendidos. Para Sommerfeld, anclado en el modelo de Bohr, los números cuánticos enteros eran la doctrina establecida, y las especulaciones del joven estudiante fueron rápidamente condenadas. El temor entre los expertos era que al introducir números semienteros en las ecuaciones se abrieran las puertas a cuartos, octavos y dieciseisavos de enteros, destruyendo la misma base de la mecánica cuántica. Pero estaban equivocados.
Pocos meses después, Alfred Landé, físico de mayor edad y reputación, publicó la misma idea; más tarde resultó que los números semienteros eran de importancia crucial en la teoría cuántica definitiva, donde juegan un papel esencial en la descripción de la propiedad del electrón llamada espín. Los objetos que tienen espín entero o nulo, como los fotones, obedecen a la estadística de Bose-Einstein, mientras que los de espín semientero (1/2, 3/2, etc.) se rigen por la estadística de Fermi-Dirac. El espín semientero del electrón está directamente relacionado con la estructura del átomo y con la tabla periódica de los elementos. Es cierto que los números cuánticos difieren sólo en unidades enteras, pero un salto de 1/2 a 3/2, o de 5/2 a 9/2 es probable como otro de 1 a 2, o de 7 a 12. De modo que Heisenberg no aprovechó la oportunidad de introducir una nueva idea en teoría cuántica; pero es interesante resaltar que, de la misma forma que fueron hombres jóvenes de la generación anterior los que desarrollaron la primera etapa de la teoría cuántica, en los años 20 fueron mentes jóvenes sin prejuicios por las ideas que «todo el mundo sabe» los que dieron el siguiente paso adelante.
Después de trabajar durante un curso bajo la dirección de Born en Göttingen, donde asistió al famoso «Festival Bohr», Heisenberg volvió a Münich y terminó su doctorado en 1923, antes de cumplir los veintidós años. Por aquel tiempo Wolfgang Pauli, un amigo íntimo de Heisenberg igualmente científico precoz y también antiguo alumno de Sommerfeld, estaba a punto de dejar vacante el puesto de ayudante de Born en Göttingen; Heisenberg tomó posesión de la plaza en 1924. Ello le dio la oportunidad de trabajar durante varios meses con Bohr en Copenhague, y en 1925 el precoz físico-matemático estaba en mejores condiciones que cualquier científico para descubrir la lógica teoría cuántica que todo físico esperaba, aunque ninguno pensara que se encontraría tan pronto.
La importante aportación de Heisenberg se basó en una idea que captó del grupo de Göttingen —hoy nadie está completamente seguro de quién se la sugirió primero— consistente en que una teoría física sólo debe versar sobre cosas que pueden ser realmente observadas mediante experimentos. La observación parece una trivialidad, pero ciertamente representa un avance profundo. Un experimento que observa electrones en átomos, por ejemplo, no nos muestra una imagen de pequeñas bolas duras en órbita alrededor del núcleo; no hay forma de observar la órbita, y lo que se deduce de las rayas espectrales es lo que les ocurre a los electrones cuando pasan de un estado de energía (una órbita, en lenguaje de Bohr) a otro. Todas las características observables de electrones y átomos hacen referencia a dos estados, y el concepto de una órbita es algo añadido a las observaciones por analogía con la forma en que las cosas se mueven en el mundo cotidiano. Heisenberg acabó con la confusión de las analogías y trabajó de modo intensivo en las matemáticas que describían no un estado de un átomo o de un electrón, sino las asociaciones entre pares de estados.

Descubrimiento en Heligoland
A menudo se cuenta la historia de cómo habiendo sufrido Heisenberg un fuerte ataque de fiebre del heno en 1925 debió seguir un tratamiento de recuperación en la isla rocosa de Heligoland, donde se dedicó concienzudamente a la tarea de interpretar lo que se conocía sobre el comportamiento cuántico. Sin ningún tipo de distracciones en la isla, y habiendo desaparecido las fiebres, Heisenberg se pudo dedicar intensamente al problema. En su obra autobiográfica Physics and Beyond, describe lo que sentía conforme los números iban encajando, y cómo una noche, a las tres de la madrugada, se le «disiparon todas las dudas sobre la consistencia matemática y la coherencia de la clase de mecánica cuántica hacia la que apuntaban mis cálculos. Al principio me alarmé profundamente. Tenía la sensación de que, a través de la superficie de los fenómenos atómicos, estaba observando un interior extrañamente maravilloso, y me sentí aturdido ante la idea de que ahora tenía que demostrar esta riqueza de las estructuras matemáticas que la naturaleza me había mostrado tan generosamente».
De vuelta a Göttingen, Heisenberg se pasó tres semanas dando a su trabajo la forma de un artículo, cuya copia envió, en primer lugar, a su viejo amigo Pauli, preguntándole si creía que poseía sentido. Pauli quedó entusiasmado, pero Heisenberg estaba agotado por sus esfuerzos y no tenía la seguridad de que el trabajo estuviera listo para su publicación. Dejó el artículo a Born para que hiciera con él lo que creyera conveniente y, en julio de 1925. partió hacia Leyden y Cambridge, donde debía dar una serie de conferencias. Irónicamente, no escogió este nuevo trabajo como tema de las charlas, y su audiencia tuvo que esperar a que las noticias sobre el mismo le llegaran a través de otros conductos.

img011.jpg
Fig. 6-1. Cada casilla de un tablero de ajedrez puede ser identificada por un par letra-número, tal como b4 o f7. Los estados mecánico-cuánticos también están definidos por pares de números.

Born quedó muy satisfecho de poder enviar el artículo de Heisenberg a la revista Zeitschrift für Physik, y casi inmediatamente se dio cuenta de qué era lo que Heisenberg había encontrado. Las matemáticas implicadas en el tratamiento de dos estados de un átomo no se podían representar mediante números ordinarios, sino mediante una serie de disposiciones de números que Heisenberg imaginó en forma de tablas. La mejor analogía la proporciona un tablero de ajedrez. Contiene 64 casillas, cada una de las cuales puede identificarse por un número, de 1 al 64. Sin embargo, los jugadores de ajedrez prefieren utilizar el sistema que señala las columnas por letras, a, b, c, d, e, f, g y h, y las filas mediante los números 1, 2, 3, 4, 5, 6, 7 y 8. De esta forma cada casilla del tablero se puede identificar por un par único: a1 es la de una torre; g2 es la de un peón de caballo, y así sucesivamente. Las tablas de Heisenberg, como un tablero de ajedrez, implicaban disposiciones bidimensionales de números porque se aplicaban a cálculos referentes a dos estados y a sus interacciones. Estos cálculos llevaban, entre otras cosas, a multiplicar dos de tales conjuntos de números entre sí, y Heisenberg dedujo laboriosamente las reglas matemáticas correctas para llevar a cabo la tarea, Pero dio con un resultado muy curioso, tan chocante, que fue ésa una de las razones de su reticencia a la publicación de sus cálculos.

img012.jpg
Fig. 6-2. El estado de cada casilla del tablero de ajedrez está determinado por la pieza que lo ocupa. Así un peón está definido por 1, una torre por 2, etcétera; los números positivos representan piezas blancas, y los negativos, negras. Podemos describir un cambio en el estado del tablero mediante una expresión tal como «peón de reina al cuatro», o por la notación algebraica e2-e4. Las transiciones cuánticas se describen mediante una notación similar uniendo pares de estados (inicial y final); en ninguno de los casos se sabe cómo se lleva a cabo la transición de un estado a otro. En la analogía ajedrecística, se puede imaginar caprichosamente el cambio más pequeño posible en el tablero e2-e3, como correspondiendo a la captación de un cuanto de energía ℎν, mientras que la transición e3-e2 correspondería entonces a la liberación del mismo cuanto de energía. La analogía no es exacta pero pone de manifiesto cómo diferentes formas de notación describen el mismo suceso. Heisenberg, Dirac y Schrödinger, análogamente, encontraron distintas formas de notación matemática para describir los mismos sucesos cuánticos.

Cuando dos de esas tablas se multiplicaban entre sí, el resultado dependía del orden de los factores.
Esto es verdaderamente extraño. Es como si 2 × 3 no fuera lo mismo que 3 × 2 o, en términos algebraicos, a × b ≠ b × a. Born pensaba día y noche en esta diferencia, convencido de que había algo fundamental tras ella. De repente, lo vio claro. Las disposiciones matemáticas de números en tablas, tan laboriosamente construidas por Heisenberg, ya eran conocidas en matemáticas. Existía un cálculo completo con tales estructuras, se llamaban matrices, y el mismo Born las había practicado en los primeros años del siglo veinte, cuando era estudiante en Breslau. No es sorprendente que recordara esa oscura rama de las matemáticas más de veinte años después, ya que hay una propiedad fundamental de las matrices que siempre impresiona en los que la estudian por primera vez: el resultado que se obtiene al multiplicar dos matrices depende del orden en que se efectúa la operación o, en lenguaje matemático, las matrices no conmutan.

Matemática cuántica
En el verano de 1925, trabajando con Pascual Jordán, Born desarrolló los principios de lo que hoy se conoce como mecánica matricial, y cuando Heisenberg volvió a Copenhague, en septiembre, se unió a ellos por correspondencia para elaborar un extenso artículo sobre mecánica cuántica. En este trabajo, mucho más claro y explícito que el original de Heisenberg, los tres autores resaltan la importancia fundamental de la no conmutatividad de las variables cuánticas. Born, en un trabajo previo junto a Jordán, había encontrado la relación pqqp = ℏ/i, donde p y q son matrices que representan variables cuánticas equivalentes al momento y a la posición en el mundo cuántico. La constante de Planck aparece en la nueva ecuación junto con i, la raíz cuadrada de menos uno; en el que luego sería conocido como «el artículo de los tres hombres», el grupo de Göttingen dejaba bien sentado que ésta es la «relación mecánico-cuántica fundamental». Pero ¿qué significa esto en términos físicos? La constante de Planck ya era suficientemente conocida por ese tiempo e incluso los físicos también conocían ecuaciones en las que aparecía i (una pista para lo que estaba por llegar, si se hubieran dado cuenta, ya que tales ecuaciones generalmente implicaban oscilaciones u ondas). Pero las matrices eran algo ajeno a la mayoría de físicos y matemáticos de 1925, y la no conmutatividad les parecía tan extraña como debió resultar en 1900 la introducción de ℎ por Planck. Para los más familiarizados con las matemáticas, los resultados eran muy extraños. Las ecuaciones de la mecánica de Newton quedaban reemplazadas por ecuaciones similares entre matrices y, en lenguaje del propio Heisenberg, «causaba una extraña sensación descubrir que muchos de los antiguos resultados de la mecánica newtoniana, como la conservación de la energía y otros, también podían deducirse con el nuevo esquema».[33] En otras palabras, la mecánica matricial contenía a la mecánica de Newton, de la misma forma que las ecuaciones relativistas de Einstein incluían a las newtonianas como un caso particular. Desgraciadamente, poca gente pudo comprender la parte matemática, y no fue apreciada de forma inmediata por la mayoría de los físicos la significativa aportación de Heisenberg y el grupo de Göttingen. Sin embargo, en Cambridge, Inglaterra, tendría lugar la excepción que confirmaría la regla.
Paul Dirac era unos meses más joven que Heisenberg. Nació el 8 de agosto de 1902 y está considerado como el único teórico inglés comparable a Newton, y desarrolló la forma más completa de lo que hoy se conoce como mecánica cuántica. No se dedicó a la física teórica hasta después de obtener su graduación en ingeniería por la Universidad de Bristol en 1921. Al no tener trabajo como ingeniero tuvo la posibilidad de ir becado a Cambridge para estudiar matemáticas, pero no pudo hacerlo debido a problemas económicos. Siguió en Bristol, viviendo con sus padres, donde realizó en dos años, gracias a su formación previa, los estudios correspondientes a la licenciatura en matemáticas aplicadas; la titulación, que normalmente suponía tres años de dedicación, la obtuvo en 1923. Por fin pudo ir a Cambridge para dedicarse a la investigación, pero con un contrato del Departamento de Investigación Científica y Técnica; sólo después de llegar a Cambridge comenzó a interesarse por la teoría cuántica.
Así fue cómo un joven investigador desconocido e inexperto se presentó a oír la conferencia de Heisenberg en Cambridge, en julio de 1925. Aunque Heisenberg no habló públicamente de su nuevo trabajo entonces, lo mencionó ante Ralph Fowler, director de Dirac, y envió posteriormente a Fowler una copia del artículo hacia mediados de agosto, antes de que apareciera en Zeitschüft. Fowler entregó el artículo a Dirac, quien así tuvo la posibilidad de estudiar la nueva teoría antes que nadie que no fuera de Göttingen (excepto Pauli, el amigo de Heisenberg). En este primer artículo, aunque puso de manifiesto la no conmutatividad de las variables en mecánica cuántica —las matrices—, Heisenberg no desarrolló la idea, sino que más bien divagó en tomo a ella. Cuando Dirac se dedicó de lleno al análisis de las ecuaciones pronto apreció la importancia fundamental del hecho simple de que a × b ≠ b × a. A diferencia de Heisenberg, Dirac ya conocía entes matemáticos que se comportaban de esa forma, por lo que en unas pocas semanas pudo reconstruir las ecuaciones de Heisenberg mediante una rama de las matemáticas que William Hamilton había desarrollado un siglo antes. Las ecuaciones de Hamilton tan útiles para la teoría cuántica —que, a su vez, acabó con las órbitas electrónicas— se habían desarrollado durante el siglo diecinueve, en gran parte como sistema de ayuda para el cálculo de órbitas de cuerpos en un sistema, como el Sistema Solar, donde hay varios planetas en interacción, lo cual resulta un tanto irónico.
De esta forma Dirac descubrió, independientemente del grupo de Göttingen, que las ecuaciones de la mecánica cuántica tienen la misma estructura matemática que las ecuaciones de la mecánica clásica, y que ésta es un caso particular de la cuántica correspondiente a grandes números cuánticos o a dar el valor cero a la constante de Planck. Siguiendo su propia dirección, Dirac desarrolló otra forma de expresar matemáticamente la dinámica mediante una clase especial de álgebra que él llamó álgebra cuántica y que implicaba la suma y la multiplicación de variables cuánticas o números q. Estos números q son unos entes extraños, sobre todo porque en este mundo matemático desarrollado por Dirac es imposible asegurar cuál de los números a y b es mayor; el concepto de un número mayor o menor que otro no tiene cabida en esta álgebra. Pero, otra vez, las reglas de este esquema matemático se ajustaban exactamente a las observaciones del comportamiento de los sistemas atómicos. Ciertamente, es correcto decir que el álgebra cuántica comprende a la mecánica matricial, pero esta afirmación contiene muchos más detalles importantes.
Fowler apreció inmediatamente la importancia del trabajo de Dirac, y a requerimiento suyo fue publicado en Proceedings of the Royal Society en diciembre de 1925. Entre otras cosas, el artículo incluía, como una componente esencial de la nueva teoría, los números cuánticos semienteros que tanto habían preocupado a Heisenberg unos años antes. Heisenberg, al que el propio Dirac envió una copia del manuscrito, elogió sobremanera el artículo: «He leído su extraordinariamente bello artículo sobre la mecánica cuántica con el mayor interés, y no hay duda de que todos los resultados son correctos… [el artículo está] realmente mejor escrito y más concentrado que muchos intentos anteriores.»[34] En la primera mitad de 1926, Dirac elaboró su trabajo en una serie de cuatro artículos definitivos que constituyeron la tesis que le sirvió para obtener el correspondiente doctorado. Al mismo tiempo, Pauli había utilizado los métodos matriciales para predecir correctamente la serie de Balmer del átomo de hidrógeno, y a finales de 1925 ya había quedado claro que el desdoblamiento de algunas rayas espectrales en dobletes se podía explicar mucho mejor asignando al electrón la nueva propiedad llamada espín. Las piezas encajaban perfectamente bien, y los diferentes tratamientos matemáticos utilizados en mecánica matricial no parecían sino mostrar aspectos distintos de la misma realidad.[35]
Otra vez el juego del ajedrez proporciona un buen ejemplo aclaratorio. Existen varias formas diferentes de describir el juego mediante letra impresa. Una forma es imprimir un tablero de ajedrez y señalar en él la posición de todas las piezas; pero la descripción de una partida completa ocuparía mucho espacio. Otra forma sería dar cuenta del movimiento de las piezas mediante frases: «el peón de rey pasa a la casilla cuarta de peón de rey». Y en la más concisa notación algebraica el mismo movimiento se describe simplemente como «d2-d4». Tres formas diferentes que proporcionan la misma información sobre un suceso real, el paso de un peón de un estado a otro (como en el mundo cuántico, no se sabe nada sobre cómo el peón pasó de un estado al otro, un punto que incluso queda mucho más claro si se considera el movimiento de un caballo). Las diferentes formulaciones de la mecánica cuántica son algo así. El álgebra cuántica de Dirac es la más elegante en sentido matemático; los métodos matriciales desarrollados por Born y sus colaboradores siguiendo a Heisenberg son más toscos pero no menos efectivos.[36]
Algunos de los primeros resultados más impresionantes de Dirac aparecieron cuando trató de incluir la relatividad especial en su mecánica cuántica. Satisfecho con la idea de tratar la luz como una partícula (el fotón), Dirac quedó agradablemente sorprendido al encontrar que, incluyendo el tiempo como un número q junto con el resto, en sus ecuaciones surgía directamente la predicción de que un átomo debe sufrir un retroceso cuando emite luz, como debe ser si se entiende la luz en forma de partículas cada una con su momento o cantidad de movimiento. Siguió hasta desarrollar una interpretación mecánico cuántica del efecto Compton. Los cálculos de Dirac constaban de dos partes bien diferenciadas; en la primera de ellas se realizaban las manipulaciones algebraicas apropiadas con los números q, mientras que en la segunda se interpretaban las ecuaciones en términos de lo que pudiera ser físicamente observado. Este proceso encajaba perfectamente con la forma en que la naturaleza parece realizar los cálculos y presentárnoslos entonces como un suceso observable —una transición electrónica, por ejemplo— pero, desafortunadamente, en lugar de continuar con esta idea y desarrollarla completamente en los años posteriores a 1926, los físicos dejaron de interesarse por el álgebra cuántica por el descubrimiento de otra técnica matemática que podía resolver los problemas tradicionales de la teoría cuántica: la mecánica ondulatoria. La mecánica matricial y el álgebra cuántica partían de la imagen de un electrón como una partícula que efectúa transiciones de un estado a otro. Pero ¿qué pasaba con la sugerencia de De Broglie acerca de que los electrones y otras partículas también debían ser tratadas como ondas?

La teoría de Schrödinger
Mientras la mecánica matricial y el álgebra cuántica aparecían en el escenario científico, existía una gran efervescencia de otras actividades en el campo de la teoría cuántica. Era como si la ciencia europea hubiera entrado en ebullición ante el fermento de las ideas que habían aparecido y que provocaron diferentes desarrollos en distintos sitios (no siempre en el orden que hoy parecería lógico), y descubiertos muchos de ellos por varios científicos simultáneamente. A finales de 1925, la teoría de las ondas de electrones de De Broglie ya había aparecido en escena, pero no se habían realizado los experimentos definitivos que probarían la naturaleza ondulatoria del electrón. Con independencia del trabajo de Heisenberg y sus colegas, se produjo un nuevo descubrimiento, el de unas matemáticas cuánticas basadas en la idea ondulatoria.
La idea provino de De Broglie, vía Einstein. El trabajo de De Broglie puede que hubiera quedado ensombrecido durante años, como si de un puro juego matemático sin realidad física se tratara, si no hubiera merecido la atención de Einstein. Fue Einstein el que habló a Born sobre la idea y de ahí surgieron la serie de trabajos experimentales que demostraron la realidad de las ondas de electrones; y fue en uno de los trabajos de Einstein, publicado en febrero de 1925, donde Erwin Schrödinger leyó los comentarios de Einstein sobre la idea de De Broglie: «creo que representa más que una mera analogía». Por aquella época, los físicos daban una extraordinaria importancia a las afirmaciones de Einstein, por lo que una tal opinión del gran científico fue suficiente para que Schrödinger se dedicara a la investigación de las implicaciones de tomar la idea de De Broglie en sentido literal.
Schrödinger es un caso excepcional entre los físicos que desarrollaron la nueva teoría cuántica. Había nacido en 1887 y tenía treinta y nueve años cuando presentó su mayor contribución a la ciencia; una edad notablemente precoz para un trabajo científico original de tal importancia. Había obtenido su doctorado en 1910, y desde 1921 era profesor de física en Zürich, un pilar de máxima respetabilidad científica y no una fuente de ideas nuevas y revolucionarias. Pero, como se verá más adelante, la naturaleza de su contribución a la teoría cuántica fue mucho mayor de lo que se podía esperar de un miembro de la antigua generación en la mitad de la década de los años 20. En tanto que el grupo de Göttingen, y Dirac más aún, elaboraba una teoría cuántica abstracta y liberada de los conceptos relacionados con nuestro mundo de cada día, Schrödinger trató de restaurar la comprensión sencilla de las ideas físicas mediante la descripción de la física cuántica en términos de ondas, entidades familiares en el mundo físico, y luchó hasta su muerte contra los nuevos conceptos de indeterminación y transición instantánea de electrones de un estado a otro. Proporcionó a la física una herramienta de valor práctico incalculable para resolver problemas, pero en términos conceptuales su mecánica ondulatoria representó un paso hacia atrás, una vuelta a las ideas del siglo diecinueve.
De Broglie había indicado el camino con su idea de que las ondas de electrones en órbita alrededor de un núcleo atómico habían de ajustarse a un número entero de longitudes de onda en cada órbita, por lo que existían órbitas intermedias prohibidas.
Schrödinger amplió las matemáticas sobre ondas para calcular los niveles de energía permitidos en tal situación, y quedó bastante desanimado al principio al llegar a resultados que no coincidían con los datos conocidos sobre los espectros atómicos. En efecto, no había nada erróneo en su técnica, y la única razón para este desacuerdo inicial fue que no había tenido en cuenta el espín del electrón; este hecho no es sorprendente, ya que en 1925 el concepto de espín del electrón aún no había sido establecido. De modo que dejó el trabajo de lado durante varios meses, perdiendo con ello la oportunidad de ser el primero en publicar un tratamiento matemático completo, lógico y consistente de los cuantos. Volvió a retomar la idea al ser requerido para un coloquio sobre el trabajo de De Broglie, y fue entonces cuando se dio cuenta de que si prescindía de los efectos relativistas en sus cálculos, conseguía un buen acuerdo con las observaciones de átomos en situaciones en las que los efectos relativistas no fueran importantes. Como Dirac demostraría más adelante, el espín del electrón es esencialmente una propiedad relativista (y nada parecida a cualquier propiedad asociada a giros de objetos en el mundo cotidiano). Así, la mayor contribución de Schrödinger a la teoría cuántica fue publicada en una serie de artículos en 1926, casi al mismo tiempo que los de Heisenberg, Born y Jordan y Dirac.
Las ecuaciones, en la variante de Schrödinger sobre la teoría cuántica, pertenecen a la misma familia de ecuaciones que describen ondas reales en el mundo ordinario: ondas sobre la superficie del océano, o las ondas que transmiten ruidos a través de la atmósfera. El mundo de los físicos recibió esta aportación con entusiasmo, precisamente por resultar tan familiar. No podían haber sido más diferentes los dos tratamientos del mismo problema. Heisenberg descartó deliberadamente toda imagen del átomo y se basó únicamente en magnitudes que podían ser medidas en los experimentos; en lo profundo de su teoría, no obstante, yacía la idea de que los electrones son partículas. Schrödinger partió de una imagen física clara del átomo como una entidad real; su teoría partía de la idea de que los electrones eran ondas. Ambos esquemas dieron lugar a ecuaciones que describían exactamente el comportamiento de propiedades que se podían medir en el mundo cuántico.
A primera vista esto resultaba asombroso. Dirac demostró matemáticamente —como poco después lo haría el mismo Schrödinger y el americano Carl Eckart— que los diferentes conjuntos de ecuaciones eran completamente equivalentes entre sí; representaban diferentes formas de entender el mismo mundo matemático.
Las ecuaciones de Schrödinger incluían tanto la relación de no conmutatividad como el factor crucial ℏ/i esencialmente de la misma forma que aparecían en mecánica matricial y en álgebra cuántica. El descubrimiento de que los diferentes tratamientos del problema eran matemáticamente equivalentes entre sí hizo aumentar considerablemente el apoyo de los físicos en ellos. Parece que, independientemente de la clase de formalismo matemático que se utilice, cuando se atacan los problemas fundamentales de la teoría cuántica se llega inexorablemente a las mismas respuestas. Matemáticamente hablando, la versión de Dirac es la más completa porque su álgebra cuántica incluye tanto a la mecánica matricial como a la mecánica ondulatoria como casos especiales. Sin embargo, los físicos de los años 20 se decantaron por la versión más familiar de las ecuaciones, las ondas de Schrödinger, que ellos podían entender en términos de conceptos cotidianos, al tratarse de ecuaciones muy frecuentes en los problemas de la física tradicional (óptica, hidrodinámica, y similares). Pero el mismo éxito de la versión de Schrödinger puede que haya sido causa del retraso durante décadas de una comprensión fundamental del mundo cuántico.

Un paso hacia atrás
En una visión retrospectiva, parece sorprendente que Dirac no descubriera (o inventara) la mecánica ondulatoria, ya que las ecuaciones de Hamilton, que resultaron tan provechosas para la mecánica cuántica, habían tenido su origen en un intento por unificar las teorías ondulatoria y corpuscular de la luz, en el siglo diecinueve. Sir William Hamilton nació en Dublín en 1805, y ha sido considerado por muchos el principal matemático de su época. Su mayor logro (aunque no reconocido como tal en su tiempo) fue la unificación de las leyes de la óptica y de la dinámica en un marco matemático; se trataba de un conjunto de ecuaciones que podían utilizarse para describir el movimiento de una onda y el de una partícula. Estos resultados fueron publicados a finales de la década de los 20 y principios de los 30. La mecánica y la óptica, por separado, eran muy útiles para los investigadores de la segunda mitad del siglo diecinueve, pero casi nadie tuvo en cuenta la relación mecánica-óptica que era el contenido real del trabajo de Hamilton. La clara implicación de los estudios de Hamilton es que, de la misma forma que los rayos de luz han de ser sustituidos por el concepto de ondas en óptica, las trayectorias de partículas debían ser sustituidas por movimientos ondulatorios en mecánica. Pero esta idea resultó tan extraña en la física del siglo pasado que nadie —ni el mismo Hamilton— la utilizó en sus experimentos. Esto no significaba que la idea hubiera surgido y se la hubiera rechazado por absurda; fue lo suficientemente extraña como para que no se le ocurriera a nadie. Ningún físico del siglo diecinueve podía haber llegado a esa conclusión; era imposible. Resultó inevitable que la idea emergiera sólo después de ponerse de manifiesto la incapacidad de la mecánica clásica para describir los procesos atómicos. Pero, si se tiene en cuenta que también él fue el inventor de unas matemáticas en las que a × b ≠ b × a, no sería exagerado escribir que Sir William Hamilton es el olvidado fundador de la mecánica cuántica. Si hubiera vivido en la época apropiada, seguro que se hubiera dado cuenta de la conexión existente entre la mecánica matricial y la mecánica ondulatoria; Dirac podría haberlo hecho, pero tampoco es sorprendente que se le pasara por alto al principio. Él era, después de todo, un estudiante profundamente dedicado a su primera gran investigación. Y lo que también es importante, él se movía entre ideas abstractas y según la línea de Heisenberg consistente en liberar a la física cuántica de la cómoda imagen rutinaria de los electrones en órbita alrededor de los núcleos atómicos, por lo que no entraba en sus proyectos encontrar una imagen física del átomo atractiva e intuitiva. Lo que la gente no apreció inmediatamente es que la mecánica ondulatoria misma, a pesar de las esperanzas de Schrödinger, tampoco proporciona esa cómoda imagen.
Schrödinger creyó que había eliminado los saltos cuánticos de un estado a otro mediante la introducción de las ondas en la teoría cuántica. Él imaginaba las transiciones de un electrón desde un estado de energía a otro como algo análogo al cambio en la vibración de una cuerda de un violín cuando pasa de una nota a otra (de un armónico a otro), y pensó que la onda a que hace referencia su ecuación era la onda material que de Broglie había tratado. Pero en cuanto otros científicos se propusieron investigar el significado último de las ecuaciones, toda esperanza de restaurar el protagonismo central de la física se desvaneció. Bohr, por ejemplo, quedó desorientado por el concepto de onda. ¿Cómo podría una onda, o un conjunto de ondas en interacción, hacer que un contador Geiger registrara su presencia como si de una partícula se tratara? ¿Qué era lo que realmente ondulaba en el átomo? Y, una pregunta crucial, ¿cómo explicar la naturaleza de la radiación del cuerpo negro en términos de las ondas de Schrödinger? Así, en 1926, Bohr invitó a Schrödinger a pasar una temporada en Copenhague, donde estudiaron este tipo de problemas y llegaron a unas soluciones que no fueron muy del gusto de Schrödinger.
En primer lugar, las mismas ondas resultaron ser, tras un profundo estudio, tan abstractas como los números q de Dirac. Las matemáticas mostraban que no podía tratarse de ondas reales en el espacio, como las olas en un estanque, sino que representaban una forma compleja de vibraciones en un espacio matemático imaginario llamado el espacio de las fases. Peor aún, cada partícula (por ejemplo, cada electrón) necesita sus propias tres dimensiones. Un electrón aislado se puede describir por una ecuación de ondas en un espacio tridimensional; dos electrones requieren seis dimensiones; para tres electrones hacen falta nueve dimensiones, y así sucesivamente. En cuanto a la radiación del cuerpo negro, incluso cuando todo se había convertido al lenguaje mecánico ondulatorio, la necesidad de los cuantos discretos y de los saltos cuánticos subsistía. Schrödinger se sentía incómodo e hizo la siguiente observación, a menudo citada más o menos literalmente: «Si yo hubiera sabido que no nos íbamos a poder librar de estos malditos saltos cuánticos, nunca me habría metido en ese tema.» Como Heisenberg señala en su libro Physics and Philosophy, «…las paradojas del dualismo entre la imagen ondulatoria y la corpuscular no fueron resueltas; estaban ocultas en algún lugar del esquema matemático».
Sin duda, la atractiva imagen de las ondas con realidad física en círculos alrededor de los núcleos atómicos, que condujo a Schrödinger al descubrimiento de la ecuación de ondas que hoy lleva su nombre, es errónea. La mecánica ondulatoria no es más que, como la mecánica matricial, una guía para el estudio del mundo atómico; pero, al contrario que la mecánica matricial, la mecánica ondulatoria produce la ilusión de ser algo familiar y cómodo. Esta ilusión ha persistido hasta nuestros días disimulando el hecho de que el mundo atómico es totalmente diferente de nuestro mundo de cada día. Varias generaciones de estudiantes, entre las que figuran las de los científicos actuales, podrían haber profundizado mucho más en la teoría cuántica si hubieran sido obligados a enfrentarse con el abstracto tratamiento de Dirac, en lugar de permitirles pensar que lo que sabían sobre ondas en el espacio ordinario les proporcionaba una imagen del comportamiento de los átomos. Y por eso parece que a pesar de los enormes progresos en la aplicación de la mecánica cuántica, como si de una receta se tratara, a muchos problemas interesantes (recuerden la afirmación de Dirac sobre físicos de segunda categoría realizando trabajos de primera categoría), apenas nos encontramos hoy, más de cincuenta años después, en mejor posición que los físicos de finales de los años 20 en cuanto al completo conocimiento de los fundamentos de la física cuántica. El mismo éxito de la ecuación de Schrödinger desde el punto de vista práctico ha hecho que la gente no se detuviera a pensar profundamente sobre las razones para su validez.

La cocina cuántica
La base de la cocina cuántica —la física cuántica práctica desde los años 20— radica en las ideas desarrolladas por Bohr y Born a finales de la citada década. Bohr proporcionó un soporte filosófico para reconciliar la naturaleza dual (partícula-onda) del mundo atómico, y Born aportó las reglas básicas que debían utilizarse en el preparado de las recetas cuánticas.
Bohr afirmó que ambas imágenes cuánticas, la corpuscular y la ondulatoria, son igualmente válidas, constituyendo descripciones complementarias de la misma realidad. Ninguna de las descripciones es completa en sí misma, sino que hay circunstancias en las que es más apropiado utilizar el concepto de partícula, y otras en las que es mejor hablar de ondas. Una entidad fundamental como un electrón ni es una partícula ni es una onda, pero bajo algunas circunstancias se comporta como si fuera una onda, y bajo otras, como si de una partícula se tratara. Pero de ninguna manera se puede diseñar un experimento que muestre al electrón comportándose de las dos formas a la vez. Esta idea de la onda y la partícula como facetas complementarias de la compleja personalidad del electrón se llama complementariedad.
Born descubrió una nueva forma de interpretar las ondas de Schrödinger. Lo más importante que figura en la ecuación de Schrödinger, que corresponde a las olas físicas en un estanque, es una función de onda, que generalmente se expresa con la letra griega psi (ψ). Trabajando en Göttingen al lado de físicos experimentales que estaban realizando nuevos experimentos que confirmaban la naturaleza del electrón casi diariamente, Born no podía aceptar simplemente que esta función psi correspondiera a una onda real del electrón, aunque como casi todos los físicos del momento (y de los posteriores) encontró que las ecuaciones de ondas eran las más convenientes para resolver muchos problemas. De modo que trató de encontrar una forma de asociar una función de onda con la existencia de partículas. La idea que presentó ya había sido tratada con anterioridad en el debate sobre la naturaleza de la luz, pero él la adoptó ahora y la retocó. Las partículas son reales, en opinión de Born, pero en cierto sentido son conducidas por las ondas, y la intensidad de la onda (más exactamente, el valor de ψ2) en cada punto del espacio es una medida de la probabilidad de encontrar la partícula en ese punto. No se puede saber con certeza dónde se sitúa una partícula como el electrón, pero la función de onda permite deducir la probabilidad de que, a realizar un experimento diseñado para localizar al electrón, se le localiza en un determinado sitio. Lo más extraño de esta idea es que acepta que cualquier electrón puede estar en cualquier sitio; lo que indica exactamente es que es probable que esté en algunos sitios y muy improbable en otros. Así, como en el caso de las reglas estadísticas que dicen que es posible que todas las moléculas de aire de una habitación se agrupen en las esquinas, la interpretación de Born de elimina cierto grado de certeza del ya incierto mundo cuántico.
Tanto las ideas de Bohr como las de Born encajaban muy bien con el descubrimiento de Heisenberg, a finales de 1926, de que la incertidumbre es verdaderamente inherente a las ecuaciones de la mecánica cuántica. Las matemáticas que aseguran que pqqp también afirman que nunca se puede saber con certeza el valor de p y de q. Si llamamos p al momento de un electrón, por ejemplo, y utilizamos q como una referencia de su posición, podemos imaginar una fórmula para medir p o q con mucha precisión. El valor del error de la medida puede designarse con Δp o Δq, ya que los matemáticos utilizan esta letra griega, delta (Δ), para simbolizar pequeñas cantidades de magnitudes variables. Lo que Heisenberg demostró fue que si, en este caso, se trata de medir simultáneamente ambas, la posición y el momento de un electrón, nunca se obtendrá un éxito completo, porque Δp × Δq tiene que resultar siempre mayor que ℏ, la constante de Planck, dividida entre 2π. Cuanta más precisión se logra en la determinación de la posición de un objeto, menos certeza se tiene sobre su momento. Y si es el momento del objeto el que se conoce con mucha precisión, entonces no se tiene ninguna seguridad sobre la posición en que se encuentra. Esta relación de incertidumbre tiene grandes implicaciones de las que se informa detalladamente en la tercera parte de este libro. El punto importante a señalar, no obstante, es que ello no representa ninguna deficiencia de los experimentos utilizados para medir las propiedades del electrón. Es una regla fundamental de la mecánica cuántica el que, por principio, es imposible medir con absoluta precisión ciertos pares de propiedades simultáneamente; entre ellas el momento y la posición. No existe la verdad absoluta en el nivel cuántico.[37]
La relación de incertidumbre de Heisenberg mide la superposición entre las dos descripciones complementarias del electrón, o de otras entidades físicas fundamentales. La posición es esencialmente una propiedad corpuscular; las partículas pueden localizarse de manera exacta. Las ondas, por el contrario, no ofrecen una localización precisa, pero tienen momento. Cuanto más se conoce sobre el aspecto ondulatorio de la realidad, menos se conoce sobre su faceta corpuscular, y viceversa. Los experimentos diseñados para detectar partículas siempre detectan partículas; los experimentos diseñados para detectar ondas siempre detectan ondas. Ningún experimento muestra al electrón comportándose simultáneamente como una onda y como una partícula.
Bohr subrayó la importancia de los experimentos para nuestra comprensión del mundo cuántico. Sólo se puede investigar el mundo cuántico realizando experimentos, y cada experimento, en efecto, plantea una cuestión del mundo atómico. Las preguntas que se presentan aquí están altamente influidas por la experiencia cotidiana, por lo que si se buscan propiedades tales como momento y longitud de onda se obtienen respuestas que pueden interpretarse en esos mismos términos. Los experimentos se basan en la física clásica, incluso a sabiendas de que la física clásica no es válida como descripción de los procesos atómicos. Además, es necesario interferir en los procesos atómicos si de verdad se desea observarlos, lo que significa, según Bohr, que carece de sentido preguntarse qué hacen los átomos cuando no se les está observando. Todo lo que se puede hacer, como Born puso de relieve, es calcular la probabilidad de que un experimento determinado proporcione un resultado concreto.
Esta serie de ideas —incertidumbre, complementariedad, probabilidad, y la perturbación del sistema por el observador— forman parte de la llamada interpretación de Copenhague de la mecánica cuántica, aunque nadie en Copenhague (ni en ningún otro sitio) describió nunca con esas palabras una posición definida como la interpretación de Copenhague, y uno de sus ingredientes esenciales, la interpretación estadística de la función de onda, realmente viniera de Max Born, que estaba en Göttingen. La interpretación de Copenhague significa muchas cosas para muchos científicos, si no casi todo para todos, y ella misma tiene una imprecisión coherente con el mundo mecánico cuántico que describe. Bohr presentó por primera vez en público una visión de conjunto de la teoría en una conferencia en Como, Italia, en setiembre de 1927. Esta fecha señala la época en que se completó una teoría mecánico cuántica consistente en un esquema que podía ser utilizado por cualquier físico competente para resolver problemas con átomos y moléculas, sin ser muy necesario el pensar acerca de los fundamentos, siempre que se dedicara a seguir el recetario para encontrar las soluciones.
En las décadas siguientes se realizaron muchas contribuciones al estilo de las de Dirac y Pauli, y los pioneros de la nueva teoría cuántica fueron convenientemente condecorados por el Comité Nobel, si bien la adjudicación de los premios por el citado comité siguió una propia y curiosa lógica. Heisenberg recibió el Premio Nobel en 1932, considerando que sus colegas Born y Jordan tenían el mismo derecho a recibirlo; el mismo Born quedó amargado por ello durante años, comentando a menudo que Heisenberg no supo lo que era una matriz hasta que él (Born) se lo dijo, y escribió a Einstein en 1953: «Por aquella época él, ciertamente, no tenía ni idea de lo que era una matriz. Fue él quien recogió todas las recompensas de nuestro trabajo conjunto, como el Premio Nobel, por ejemplo.»[38] Schrödinger y Dirac compartieron el Premio Nobel en 1933, pero Pauli tuvo que esperar hasta 1945 para recibirlo por el descubrimiento del principio de exclusión y, finalmente, Born fue galardonado en 1954 con el famoso premio por sus trabajos sobre la interpretación probabilística de la mecánica cuántica.[39]
A pesar de toda esta actividad —los nuevos descubrimientos de los años 30, las concesiones de los premios, y las nuevas aplicaciones de la teoría cuántica en las décadas posteriores a la Segunda Guerra Mundial— no se puede ocultar el hecho de que la época de los avances fundamentales acabó en los mismos años 20. Puede ser que estemos al borde de otra de estas eras, y que se progrese descartando la interpretación de Copenhague y la cómoda pseudofamiliaridad de la función de onda de Schrödinger. Antes de pasar revista a estas drásticas posibilidades es necesario mencionar todo lo que esa teoría ha conseguido realizar, teoría que se completó esencialmente antes del año 1930.

Capítulo 7
Cocinando con los cuantos

Para estar en condiciones de utilizar las recetas cuánticas, los físicos necesitan tener en cuenta varios datos. No hay un modelo de lo que un átomo y las partículas elementales son, y nada da cuenta de lo que acontece cuando no se les observa. Pero las ecuaciones de la mecánica ondulatoria (la más popular y la de uso más extendido) pueden utilizarse para efectuar predicciones sobre una base estadística. Si se efectúa una observación de un sistema cuántico y se obtiene A como resultado de la medida, las ecuaciones cuánticas proporcionan la probabilidad de obtener el resultado B (o C, o D, o cualquier otro) si se efectúa la misma observación cierto tiempo después. La teoría cuántica no dice cómo son los átomos, ni lo que están haciendo cuando no se les observa. Desafortunadamente, la mayoría de los usuarios de las ecuaciones de onda no valoran este dato y sólo hablan mecánicamente del papel de las probabilidades. Los estudiantes aprenden lo que Ted Bastin ha llamado «una forma cristalizada de las ideas imperantes a finales de los años 20… con las que el físico medio, que realmente nunca se pregunta lo que piensa sobre las cuestiones fundamentales, puede resolver sus problemas concretos».[40] Ellos aprenden a pensar sobre las ondas como si fueran reales, y pocos acaban un curso en teoría cuántica sin una imagen del átomo en su cabeza. La gente trabaja con la interpretación probabilística sin entenderla realmente, y resulta una prueba de la potencia de las ecuaciones de Schrödinger y Dirac en particular, y de la interpretación de Born, el que incluso sin entender por qué las recetas sirven la gente pueda cocinar tan prácticamente con los cuantos.
El primer «chef» cuántico fue Dirac. De la misma forma que había sido la primera persona ajena a Göttingen en entender la nueva mecánica matricial y desarrollarla ulteriormente, también fue el que se ocupó de la mecánica ondulatoria de Schrödinger para dotarla de una base más sólida al mismo tiempo que la perfeccionaba. Al adaptar las ecuaciones a los requisitos de la teoría de la relatividad, añadiendo el tiempo como la cuarta dimensión, Dirac se encontró en 1928 con la necesidad de introducir el término que hoy se toma como representativo del espín del electrón, proporcionando una inesperada explicación del desdoblamiento de las rayas espectrales que tanto había desconcertado a los teóricos durante esa década. El mismo perfeccionamiento de las ecuaciones dio lugar a un resultado inesperado que abrió el camino para el desarrollo moderno de la física de partículas.

La antimateria
De acuerdo a las ecuaciones de Einstein, la energía de una partícula que tiene masa m y momento p está dada por

E2 = m2c4 + p2c2

que se reduce a la conocida fórmula E = mc2 cuando el momento es cero. Pero esto no es todo. Puesto que la energía se obtiene tras calcular la raíz cuadrada del segundo miembro de la igualdad, se puede decir matemáticamente que E puede ser positiva o negativa. Tan verdadero es 2 × 2 = 4 como −2 × −2 = 4, y por lo tanto E = ±mc2. Tales raíces negativas aparecieron en las ecuaciones con tanta frecuencia como para no poderlas imaginar sin significado, resultando obvio que la única solución que interesa es la positiva. Dirac no se detuvo en este obvio escalón sino que puso de manifiesto las implicaciones correspondientes. Cuando se calculan los niveles de energía en la versión relativista de la mecánica cuántica aparecen dos conjuntos, uno de energías positivas mc2 y el otro de negativas −mc2. Los electrones, de acuerdo a la teoría, deberían caer al nivel de energía más bajo que no estuviera ocupado, e incluso el estado de energía negativa más alto es de menor energía que el más bajo de los de energía positiva. Entonces, ¿qué significado tienen los niveles de energía negativa? ¿Por qué no caen en ellos todos los electrones del universo y desaparecen?
La respuesta de Dirac se basó en el hecho de que los electrones son fermiones, y que sólo un electrón puede ocupar cada posible estado (dos por nivel de energía, uno para cada valor del espín). Presumiblemente, razonó Dirac, si los electrones no caen lasta estados de energía negativa es porque todos están ya ocupados. Lo que se entiende por espacio vacío es, en realidad, un mar de electrones de energía negativa. Y no se detuvo aquí. Si se dota de energía a un electrón, éste ascenderá en la escalera de los niveles de energía. Así, si se suministra energía suficiente a un electrón del mar de energía negativa, debe saltar hasta el mundo real y hacerse visible como un electrón ordinario. Para pasar del estado −mc2 al estado +mc2 necesita claramente una energía adicional de 2me2 que, para la masa del electrón, es alrededor de 1 MeV y puede darse bastante fácilmente en procesos atómicos o en las colisiones entre partículas. El electrón de energía negativa, una vez promovido al mundo real, es un electrón normal en todos los sentidos, pero habrá dejado como consecuencia un hueco en el mar de energía negativa que representará la ausencia de un electrón cargado negativamente. Uno de estos huecos, afirmó Dirac, debe comportarse como una partícula cargada positivamente (dos negaciones se afirman, la ausencia de una partícula cargada negativamente en un mar negativo debe manifestarse como una carga positiva). Cuando se le ocurrió la idea por primera vez, razonó que, a causa de la simetría de la situación, esta partícula cargada positivamente debía tener la misma masa que el electrón. Pero al publicar la idea sugirió que la partícula de carga positiva podía ser el protón, que era la otra partícula conocida a finales de los años 20. Como él dice en Directions in Physics, ello fue un gran error, y debió haber tenido el valor suficiente para predecir que los experimentalistas habrían de encontrar una partícula previamente desconocida con la misma masa que el electrón pero con carga eléctrica positiva.
Nadie supo con certeza qué valor asignar al trabajo de Dirac, en un principio. La idea de que la contrapartida positiva del electrón fuera el protón no fue admitida; sin embargo, nadie se ocupó del asunto seriamente hasta que Cari Anderson, un físico norteamericano, descubrió la traza de una partícula cargada positivamente en sus pioneras observaciones sobre rayos cósmicos en 1932. Los rayos cósmicos son partículas energéticas que llegan a la Tierra desde el espacio exterior. Habían sido descubiertas por el físico austríaco Victor Hess antes de la Primera Guerra Mundial, lo que le llevó a compartir el Premio Nobel con Anderson en 1936.
Los experimentos de Anderson consistían en la detección de partículas cargadas por su movimiento en una cámara de niebla, un dispositivo en el que las partículas dejan una estela como la de condensación de un avión. Descubrió así que algunas partículas producían unas trazas que se curvaban en presencia de un campo magnético de la misma forma que la de un electrón, pero en sentido contrario. Sólo podía tratarse de partículas con la misma masa que un electrón pero con carga positiva y fueron bautizadas con el nombre de positrones. Anderson recibió el Premio Nobel en 1936 por este descubrimiento, tres años después de que Dirac recibiera el suyo, y tal hallazgo transformó la imagen que los físicos tenían del mundo de las partículas. Habían sospechado durante tiempo que existía una partícula atómica neutra, el neutrón, que James Chadwick descubrió en 1932 (recibiendo por ello el Premio Nobel en 1935), y les animó la idea de un núcleo atómico constituido por protones positivos y neutrones neutros, rodeados por electrones negativos. Pero los positrones no tenían cabida en este esquema, y la idea de que las partículas pudieran crearse a partir de la energía cambió por completo el concepto de partícula fundamental.
Cualquier partícula puede, en principio, ser producida según el mecanismo de Dirac a partir de la energía, viniendo siempre acompañada de la producción de su correspondiente antipartícula, el hueco en el mar de energía negativa. Aunque los físicos prefieren actualmente versiones más eruditas de la creación de partículas, las reglas son prácticamente las mismas, y una de las principales establece que cuando una partícula se encuentra con su correspondiente antipartícula cae en el hueco, liberando una energía de valor 2mc2 y desapareciendo no en forma de humareda, sino como una explosión de rayos gamma. Antes de 1932, muchos físicos habían observado trazas de partículas en cámaras de niebla y muchas de las trazas corresponderían a positrones; pero hasta que tuvo lugar el descubrimiento de Anderson siempre se había supuesto que tales trazas correspondían a electrones en movimiento alrededor del núcleo y no a positrones exteriores. Los físicos estaban predispuestos en contra de la idea de nuevas partículas. Hoy la situación ha dado un giro de ciento ochenta grados y, según Dirac, «la gente está dispuesta a postular una nueva partícula ante la menor evidencia, sea teórica o experimental» (Directions in Physics, página 18). El resultado es que el conjunto o zoo de las partículas elementales comprende, además de las dos partículas fundamentales conocidas en los años 20, más de 200, las cuales pueden ser todas producidas mediante la producción de energía suficiente en los aceleradores de partículas, siendo la mayor parte de ellas altamente inestables, ya que pueden desintegrarse muy rápidamente en una lluvia de nuevas partículas y de radiación. Dentro de este zoo figuran el antiprotón y el antineutrón, descubiertos a mitad de los años 50 y casi perdidos, pero no por ello menos demostrativos de la validez de las ideas originales de Dirac.
Se han escrito muchos libros sobre el zoo de las partículas y muchos físicos han logrado su fama como taxonomistas de partículas. Pero parece que no puede haber nada fundamental en tal profusión de partículas, y la situación recuerda a la que se daba en espectroscopia antes del desarrollo de la teoría cuántica, cuando los espectroscopistas podían medir y clasificar las relaciones entre rayas en diferentes espectros pero no tenían idea de las causas últimas de las conexiones que observaban. Cabe esperar algo verdaderamente básico que proporcione las reglas fundamentales para la creación del conjunto de partículas conocidas, un punto de vista que Einstein expresó a su biógrafo Abraham Pais en los años 50. «Estaba claro que él pensaba que no era el momento de preocuparse por esas cosas y que llegaría un día en que esas partículas aparecerían como soluciones de las ecuaciones de una teoría del campo unificado.»[41] Da la impresión de que Einstein tenía razón y en el Epílogo de este libro se presenta una introducción elemental a una posible teoría unificada que incluiría al zoo de las partículas. Por el momento, es suficiente hacer constar que la gran explosión de la física de partículas a partir de los años 40 tiene su origen en el desarrollo de Dirac de la teoría cuántica, una de las primeras recetas del libro de cocina cuántico.

El interior del núcleo
Después de los triunfos de la mecánica cuántica en la explicación de comportamiento de los átomos, era natural que los físicos dedicaran su atención a la física nuclear, pero a pesar de muchos éxitos de tipo práctico (incluyendo el reactor de Three Mile Island y la bomba de hidrógeno) todavía no se tiene una idea tan clara de mecanismo que rige el comportamiento de un núcleo como la que se posee ahora sobre el del átomo. En términos de sus radios, el núcleo es 100.000 veces más pequeño que el átomo; como el volumen es proporcional al cubo del radio, es más significativo decir que el átomo es mil billones (1015) de veces mayor que el núcleo. Propiedades simples como la masa y la carga del núcleo se pueden medir con relativa facilidad y condujeron al concepto de isótopo: núcleos que tienen el mismo número de protones y por lo tanto forman átomos con el mismo número de electrones (y las mismas propiedades químicas), pero con distinta masa al diferir en el número de neutrones).
Como todos los protones agrupados en el núcleo tienen carga eléctrica positiva y, por tanto, se repelen entre sí, debe existir alguna unión extraña que les mantenga unidos, una fuerza que sólo actúa a nivel de las pequeñas distancias que se dan en el núcleo, y que es llamada la fuerza nuclear fuerte. También existe una fuerza nuclear débil que, si bien es menos potente que la fuerza eléctrica, juega un importante papel en determinadas reacciones nucleares. Parece como si los neutrones también jugaran un papel importante en la estabilidad del núcleo, porque una simple cuenta del número de protones y neutrones en los núcleos estables permitió a los físicos construir una imagen algo parecida al modelo de capas de electrones alrededor del núcleo. El mayor número de protones encontrado en un núcleo natural es de 92, concretamente en el uranio. No obstante, los físicos han sido capaces de construir núcleos con hasta 106 protones; éstos son inestables (excepto algunos isótopos del plutonio, de número atómico 94) y se rompen originando otros núcleos. En total, existen unos 260 núcleos estables conocidos; el conocimiento que se posee acerca de ellos, incluso actualmente, es menos satisfactorio que el modelo de Bohr como una descripción del átomo. No obstante, hay signos claros de que existe cierta estructura en el interior del núcleo.
Los núcleos que tienen 2, 8. 20, 28, 50, 82 y 126 nucleones (neutrones o protones) son especialmente estables, y los elementos correspondientes son mucho más abundantes en la naturaleza que los de átomos con un número ligeramente distinto de nucleones, por lo que se les suele llamar números mágicos. Pero los protones condicionan la estructura del núcleo, y para cada elemento sólo existe un rango limitado de posibles isótopos correspondientes a distintos números de neutrones; el número de neutrones posibles es generalmente un poco mayor que el número de protones y aumenta en elementos más pesados. Los núcleos que poseen números mágicos tanto de protones como de neutrones son especialmente estables, y los teóricos predicen sobre esta base que deben ser estables los elementos superpesados con alrededor de 114 protones y 184 neutrones en sus núcleos; pero estos núcleos tan masivos nunca se han encontrado en la naturaleza ni se han obtenido en los aceleradores de partículas mediante la fusión de otros núcleos.
El núcleo más estable de todos es el hierro-56, por lo que núcleos más ligeros estarían en situación de ganar nucleones para convertirse en hierro, mientras núcleos más pesados estarían en disposición de perder nucleones y evolucionar hacia la forma más estable. En el interior de las estrellas, los núcleos más ligeros, hidrógeno y helio, son convertidos en núcleos más pesados en una serie de reacciones nucleares que fusionan a los núcleos ligeros formándose elementos tales como carbono y oxígeno en su camino hacia el hierro, liberando energía en el proceso. Cuando algunas estrellas estallan como supernovas, una gran cantidad de energía gravitacional se invierte en los procesos nucleares y esto lleva la fusión más allá del hierro, formándose elementos más pesados, como uranio y plutonio. Cuando los elementos más pesados retroceden hacia la configuración más estable mediante la expulsión de nucleones en forma de partículas alfa, electrones, positrones, o neutrones individuales, también se libera energía, energía almacenada en alguna explosión de supernova en un pasado remoto. Una partícula alfa es esencialmente el núcleo de un átomo de helio y contiene dos protones y dos neutrones. Mediante la expulsión de una partícula alfa, un núcleo reduce su masa en cuatro unidades y su número atómico en dos. Y todo ello lo hace de acuerdo con las reglas de la mecánica cuántica y de las relaciones de incertidumbre descubiertas por Heisenberg.

img013.jpg
Fig. 7-1. Un pozo de potencial en el corazón de un núcleo atómico. Una partícula en A permanece en el interior del pozo salvo que pueda ganar la energía suficiente para saltar la cresta y llegar a B, desde donde rodará pendiente abajo La incertidumbre cuántica permite, ocasionalmente, atravesar la barrera del pozo de A a B (o de B a A) sin disponer de la energía suficiente para sobrepasar la cúspide.

Los nucleones se mantienen unidos dentro del núcleo por la fuerza nuclear fuerte, pero si una partícula alfa se encuentra en las proximidades del núcleo es fuertemente repelida por éste en virtud de la fuerza eléctrica. Los efectos combinados de las dos fuerzas originan lo que los físicos llaman un pozo de potencial. Imagínese una sección transversal de un volcán de suaves pendientes y con un cráter profundo. Una pelota colocada fuera del cráter rodará por la ladera de la montaña, pero si se la coloca en el cráter caerá hasta el centro del volcán. Los nucleones en el interior del núcleo se encuentran en situación parecida: están dentro del pozo, en el corazón del átomo, pero si pueden superar el límite superior —aunque sea en una mínima porción— «rodarán por la pendiente» impulsados por la fuerza eléctrica. El problema está en que, de acuerdo con la mecánica clásica, los nucleones (o los grupos de nucleones tales como una partícula alfa) no pueden trepar por el pozo hasta el límite por no disponer de la energía suficiente; si la tuvieran, ya no estarían en el pozo. El punto de vista mecánico-cuántico de la situación es. sin embargo, bastante diferente. Aunque el pozo de potencial sigue siendo una barrera, no es insuperable, y existe una probabilidad determinada, aunque muy pequeña, de que una partícula alfa pueda aparecer fuera y no dentro del núcleo. Siguiendo los términos del principio de incertidumbre, una de las relaciones de Heisenberg que involucra a la energía y al tiempo y establece que la energía de una partícula sólo puede estar definida dentro de un rango ΔE a lo largo de un periodo de tiempo Δt, de tal forma que el producto ΔE × Δt ha de ser mayor que ℏ. Durante un corto intervalo de tiempo, una partícula puede tomar prestada energía de la relación de incertidumbre, ganando la suficiente como para saltar la barrera de potencial antes de devolverla. Cuando retoma a su estado propio de energía ya se encuentra fuera del pozo, alejándose precipitadamente.
También se puede pensar sobre la misma situación en términos de la incertidumbre en la posición. Una partícula que se encuentra dentro del pozo puede detectarse fuera, ya que su posición sólo está determinada de un modo difuso en mecánica cuántica. Cuanto mayor es la energía de la partícula, tanto más fácil le resulta escapar, pero no necesita disponer de la energía suficiente para alcanzar la cresta, en el sentido estricto de la teoría clásica. El proceso es como si la partícula atravesara la barrera por un túnel, y se trata de un efecto típicamente cuántico.[42] Ésta es la base de la desintegración radiactiva, pero para explicar la fisión nuclear se ha de recurrir a un modelo nuclear diferente.
Olvídese, hasta que se diga lo contrario, la imagen de los nucleones individuales en sus capas respectivas y considérese al núcleo como si de una gotita de líquido se tratara. De la misma forma que una gota de agua puede cambiar sucesivamente su aspecto geométrico, algunas de las propiedades colectivas del núcleo se pueden explicar en base al cambio de forma del mismo. Puede imaginarse un núcleo grande bamboleándose de un lado a otro al tiempo que cambia su forma desde una esfera hasta algo parecido a un cilindro y viceversa. Si se le proporciona energía, el núcleo puede sufrir oscilaciones tan intensas que lo rompan en dos, originando un par de núcleos más pequeños y un salpicado de gotas diminutas, partículas alfa y beta y neutrones. En algunos núcleos esta división puede provocarse mediante la colisión de un neutrón rápido, y aparece una reacción en cadena si cada núcleo fisionado de esta forma produce suficientes neutrones para asegurar la fisión de, al menos, otros dos núcleos en sus proximidades. En el caso del uranio-235, que contiene 92 protones y 143 neutrones, siempre se producen, a través de la colisión contra neutrones libres, dos núcleos diferentes con números atómicos en el intervalo de 34 a 58 y sumando 92. Cada fisión libera unos 200 MeV de energía y desencadena otras varias, suponiendo que la muestra de uranio es lo suficientemente grande como para que los neutrones no se puedan escapar de ella. El proceso abandonado a sí mismo exponencialmente es la base de la bomba atómica; si se modera utilizando un material que absorba los neutrones en la proporción conveniente se obtendrá un reactor de fisión controlada que puede utilizarse para calentar agua hasta vaporizarla y generar electricidad. Una vez más, la energía que se extrae es la almacenada en una explosión estelar remota en el tiempo y en el espacio.
En virtud del proceso de fusión se puede intentar imitar en la Tierra la producción de energía de una estrella como el Sol. No obstante, sólo se ha podido copiar el primer peldaño de la escalera de la fusión, desde el hidrógeno al helio, y no se ha podido controlar la reacción, sino sólo originarla, dejándola abandonada a sí misma, en la bomba de hidrógeno o de fusión. El problema en la fusión es el contrario que en la fisión. En lugar de provocar la ruptura de un núcleo grande hay que lograr la unión de pequeños núcleos, venciendo la repulsión electrostática natural, debida a sus cargas positivas, hasta que están tan próximos que la fuerza nuclear fuerte, que es de muy corto alcance, pueda contrarrestar a la fuerza eléctrica y lograr la fusión de ambos. En cuanto unos pocos núcleos se han fusionado de esta forma, el calor generado en el proceso crea la energía que origina una avalancha de todos los demás núcleos en su atropellada huida del punto de fusión, lo cual detiene el proceso.[43] La esperanza de obtener cantidades ilimitadas de energía en el futuro a través de la fusión nuclear radica en que se pueda encontrar una forma de lograr la fusión de suficientes núcleos en un punto durante el tiempo necesario para conseguir la liberación de una suficiente cantidad de energía aprovechable. Es importante que durante el proceso la energía liberada supere a la invertida para lograr la aproximación de los núcleos. Esto es muy fácil en una bomba; esencialmente, basta rodear de uranio los núcleos cuya fusión se pretende y entonces provocar en el uranio una explosión de fisión. La presión hacia adentro proveniente de la explosión circundante acercará entre sí lo suficiente a los núcleos de hidrógeno como para provocar la segunda y más espectacular explosión de fusión. Pero algo bastante más sutil se requiere en las centrales nucleares civiles, y las técnicas que se investigan incluyen la utilización de campos magnéticos fuertes preparados para actuar como recipientes de núcleos cargados y pulsos de luz provenientes de haces láser que provocan la unión de los núcleos. Los láseres, por supuesto, se construyen de acuerdo con otra receta del libro de cocina cuántico.

Láseres y máseres
Dirac fue el gran «chef» que descubrió la receta para crear partículas nuevas en la cocina cuántica, a pesar de lo cual los procesos nucleares se entienden de una forma menos completa que la representada por el modelo de Bohr para los fenómenos atómicos. Quizá por eso no resulte tan sorprendente encontrarse con que el mismo modelo de Bohr aún tiene sus aplicaciones. Algunos de los desarrollos científicos recientes más exóticos, los referentes a los láseres, pueden ser entendidos por cualquier aprendiz aventajado de cocinero cuántico que haya oído hablar del modelo de Bohr y no requieren gran ingenio para su interpretación. (El ingenio se emplea en este caso en la tecnología necesaria para su construcción.) Así, con el perdón de Heisenberg, Born, Jordan, Dirac y Schrödinger, se ignorarán las sutilezas cuánticas por un momento y se volverá al sencillo modelo de los electrones en órbita alrededor del núcleo de un átomo. Recuérdese que, en este modelo, cuando un átomo gana un cuanto de energía, uno de sus electrones salta a una órbita diferente, y que cuando un átomo excitado se abandona a sí mismo, más pronto o más tarde el electrón acaba por caer en el estado fundamental, liberando un cuanto de radiación precisamente definido y con una longitud de onda determinada. El proceso se llama emisión espontánea y representa lo contrario de la absorción.
Cuando Einstein estaba investigando tal proceso en 1916 y trataba de establecer las reglas estadísticas básicas de la teoría cuántica, que luego encontró tan detestables, se dio cuenta de que existía otra posibilidad. Un átomo excitado puede ser provocado para que libere su energía adicional y vuelva al estado fundamental si un fotón que pase ante él se lo recuerda. Este proceso se conoce con el nombre de emisión estimulada y sólo tiene lugar si el fotón que lo origina tiene exactamente la misma longitud de onda que el fotón que el átomo está presto para radiar. En una imagen análoga a la cascada de neutrones que aparece en una reacción en cadena de fisión nuclear, podemos imaginar una serie de átomos excitados y un único fotón presente con la longitud de onda apropiada para estimular la radiación de un átomo; el fotón original más el nuevo pueden estimular a otros dos átomos para que radien; los cuatro fotones resultantes pueden provocar a cuatro átomos más, y así sucesivamente. El resultado es una cascada de radiación, toda ella con una misma frecuencia. Más aún, a causa de la forma en que se ha provocado la emisión, todas las ondas se mueven exactamente en fase, elevándose todos los picos al unísono y descendiendo todas las depresiones a la vez, produciéndose así un haz muy puro de lo que se llama radiación coherente. Como las crestas y los valles de tal radiación no se compensan entre sí, toda la energía liberada por los átomos está presente en el haz y puede ser acumulada enfocando el haz sobre una pequeña superficie de material.
Cuando se excita una colección de átomos o de moléculas mediante calor, éstas pasan a ocupar una banda de niveles de energía más altos y, abandonados a sí mismos, radian energía correspondiente a distintas longitudes de onda de una forma incoherente y desorganizada, proporcionando mucha menos energía efectiva de la que los átomos y las moléculas liberan en realidad. Pero hay procedimientos que permiten la ocupación preferente de una banda estrecha de niveles de energía, para después provocar el retomo de los átomos excitados desde esta banda a su estado fundamental. El provocador de la cascada lo constituye una pequeña entrada de radiación de la frecuencia apropiada; la salida es un haz de la misma frecuencia pero muy amplificado, mucho más intenso. Estas técnicas las desarrollaron por vez primera equipos de Estados Unidos y de la URSS a finales de los años 40 de forma independiente mediante la utilización de radiación de la banda de radio del espectro, desde aproximadamente 1 cm hasta 30 cm, conocida como la banda de microondas; los pioneros recibieron el Premio Nobel por su trabajo en 1954. Dado que la radiación de esta banda se llama radiación de microondas, y puesto que el proceso implica la amplificación de microondas por emisión estimulada de radiación, en la línea de las ideas de Einstein de 1917, el proceso se conoce abreviadamente por las siglas MASER[44], término introducido por sus descubridores.
Transcurrieron diez años antes de que alguien encontrara la forma de obtener una amplificación análoga para frecuencias de la zona óptica del espectro, y fue en 1957 cuando dos personas tuvieron la misma idea, más o menos simultáneamente. Uno (que carece haber sido el primero) fue Gordon Gould, un estudiante de la Universidad de Columbia; el otro fue Charles Townes, uno de los pioneros del máser, y ambos compartieron el Premio Nobel en 1964. Los argumentos en tomo a qué descubrió cada uno exactamente y cuándo lo hizo han sido objeto de disputas legales a propósito de los derechos de patente, dado que los láseres[45] representan actualmente una gran baza económica. Este tema no va a ser tratado aquí; pero hay que indicar que hoy existen diferentes clases de láseres, siendo los más simples los de bombeo óptico.
En este dispositivo, un material (por ejemplo, un rubí) se prepara en forma de varilla con sus extremos lisos y pulidos, estando rodeado por una fuente de luz brillante proporcionada por la descarga de un tubo de gas que produce pulsos de luz con la suficiente energía como para excitar los átomos de la varilla. Todo el aparato se mantiene frío para asegurar la mínima cantidad de interferencia a causa de la excitación térmica de los átomos en la varilla, y los destellos brillantes se utilizan para estimular (o bombear) los átomos a un estado excitado. Cuando el láser entra en funcionamiento, un pulso de luz pura de rubí emerge desde el extremo liso de la varilla transportando miles de watios de potencia.
Variaciones sobre este tema incluyen hoy día láseres líquidos, láseres de gas, láseres fluorescentes y otros. Todos se basan en los mismos principios: se suministra energía incoherente y se obtiene luz coherente en forma de un pulso que transporta gran cantidad de energía. Algunos, como los láseres de gas, proporcionan un haz de luz puro y continuo que sirve de recta perfecta en topografía y que ha encontrado multitud de usos y aplicaciones en conciertos de música moderna y en publicidad. Otros producen pulsos de energía, potentes pero de corta duración, y pueden utilizarse para perforar objetos duros (incluso pueden tener un día aplicaciones militares). Los láseres como instrumentos cortantes se usan en situaciones tan diferentes como la industria textil y la microcirugía. Y los haces de láser pueden utilizarse para el transporte de información de manera mucho más efectiva que las ondas de radio, ya que la cantidad de información que puede transmitirse por segundo aumenta paralelamente a la frecuencia de la radiación empleada. Los códigos barrados de muchos productos de los supermercados se identifican mediante lectores de láser; los discos compactos y los videodiscos que han aparecido en el mercado actualmente se leen mediante láser; las verdaderas fotografías tridimensionales, los hologramas, se hacen con ayuda de láser; y así tantas otras cosas.
La lista no acabaría nunca, incluso sin contar las aplicaciones de los máseres en la amplificación de señales débiles (como por ejemplo, las de satélites de comunicación), en radar y en otros campos; y todo ello no proviene de la teoría cuántica propiamente dicha, sino de la versión original de la física cuántica. Si se efectúa una compra que pasa un control de salida por láser, o si se asiste a un concierto de rock con espectaculares despliegues de láseres de colores, o si se sigue por TV vía satélite, o si se oye el disco compacto grabado según las modernas técnicas, o si se admira la perfección de una reproducción holográfica, todo ello es gracias a Albert Einstein y a Niels Bohr, que pusieron de manifiesto los principios de la emisión estimulada hace más de sesenta años.

El poderoso «chip»
La principal influencia de la mecánica cuántica en nuestra vida cotidiana se da, indudablemente, en el área de la física del estado sólido. El nombre mismo de estado sólido no es nada sofisticado, y probablemente se haya oído sin que haya sido asociado con la teoría cuántica. Se refiere a la rama de la física que nos ha proporcionado la radio de transistores, los relojes digitales, las calculadoras de bolsillo, los microordenadores y las lavadoras programables. La ignorancia acerca de la física del estado sólido no se debe al hecho de que sea una esotérica rama de la ciencia, sino a que sus aplicaciones son tan familiares que no se repara en el principio en que se basan. Y, una vez más, no se podría disponer de ninguno de estos adelantos sin la colaboración de la cocina cuántica.
Todos los dispositivos mencionados en el párrafo anterior se basan en las propiedades de los semiconductores, que son sólidos con propiedades intermedias entre las de los conductores y las de los aislantes, como su nombre indica. Sin entrar en detalles, los aislantes son sustancias que no conducen la electricidad, y no la conducen porque los electrones están firmemente ligados a los núcleos de sus átomos, todo de acuerdo con las reglas de la mecánica cuántica. Pero en los conductores, como los metales, sucede que cada átomo tiene algunos electrones que están sólo ligeramente ligados al núcleo y se encuentran en niveles de energía próximos a la cima del pozo de potencial atómico. Cuando los átomos de un sólido se sitúan próximos, la cúspide de un pozo de energía potencial se ve rebajada por efecto del pozo del átomo contiguo, y los electrones de estos niveles altos quedan libres para moverse de un núcleo atómico a otro, sin estar realmente ligados a ninguno, y son capaces de transportar una corriente eléctrica a través del metal.
La conductividad está regida principalmente por la estadística de Fermi-Dirac, la cual prohíbe a estos electrones débilmente ligados caer en lo profundo del pozo de potencial atómico porque allí los estados de energía correspondientes a electrones fuertemente ligados están todos ocupados. Si se comprime un cuerpo metálico, resiste la presión a pesar de que los metales son difíciles de comprimir. Y la razón de su resistencia a la presión está en el principio de exclusión de Pauli para fermiones, pues los electrones no pueden ser comprimidos hasta niveles más estrechamente ligados.
Los niveles de energía para los electrones en un sólido se calculan mediante las ecuaciones de onda mecánico-cuánticas. Los electrones que están estrechamente ligados al núcleo se dice que están en la banda de valencia de un sólido, y los electrones que son libres para moverse de un núcleo a otro se dice que están en la banda de conducción. En un aislante todos los electrones están en la banda de valencia; en un conductor están situados en la banda de conducción.[46] En un semiconductor, la banda de valencia está completa, y sólo existe una pequeña diferencia de energía entre ésta y la banda de conducción (del orden de 1 eV). Así que es fácil para un electrón saltar a la banda de conducción y transportar una corriente eléctrica a través del material. Al contrario de lo que sucede en un conductor, este electrón que ha ganado energía deja una vacante en la banda de valencia. De la misma forma que Dirac razonaba sobre la creación de electrones y positrones a partir de energía, esta ausencia de un electrón cargado negativamente en la banda de valencia se comporta, en cuanto a las propiedades eléctricas, como si se tratara de una carga positiva. De forma que un semiconductor natural presenta normalmente unos pocos electrones en la banda de conducción y algunas vacantes positivas en la banda de valencia, pudiendo ambas transportar corriente eléctrica. Se pueden imaginar sucesivas caídas de electrones desde la banda de conducción a huecos de la banda de valencia seguidas de saltos de otros e desde la banda de valencia a los huecos que dejaron aquéllos en la de conducción; también puede imaginarse a las vacantes como partículas reales de carga positiva moviéndose en dirección opuesta a los electrones. En cuanto a las corrientes eléctricas se refiere, ambos puntos de vista conducen al mismo resultado. Los semiconductores naturales serían sumamente interesantes aunque sólo fuera por la clara analogía que proporcionan acerca de la creación de un par electrón-positrón. Pero resulta muy difícil controlar sus propiedades eléctricas, y es ese control, precisamente, el que ha lecho a estos materiales tan importantes en nuestra vida cotidiana. El control se consigue mediante la creación de dos tipos de semiconductores artificiales, uno con abundancia de electrones libres y el otro de huecos libres.
Una vez más, la idea es de fácil comprensión, pero no tan sencilla de llevar a la práctica. En un cristal de germanio, por ejemplo, cada átomo tiene cuatro electrones en su capa más exterior (para la idea superficial que se pretende explicar, el modelo de Bohr es suficiente), que son compartidos con los de los átomos próximos para formar los enlaces químicos que mantienen unido al cristal. Si el germanio se «dopa» con unos cuantos átomos de arsénico, los átomos de germanio aún dominan en la estructura de la red cristalina, y los átomos de arsénico han de instalarse como mejor puedan. En lenguaje químico, la diferencia fundamental entre el arsénico y el germanio está en que el arsénico tiene un quinto electrón en su capa externa, y la mejor forma que tiene un átomo de arsénico de instalarse en una red de germanio es «olvidarse» del electrón extra y presentarse con cuatro electrones, como si se tratara de un átomo de germanio. Los electrones extra que proporcionan los átomos de arsénico pasan a la banda de conducción del semiconductor así creado sin que existan los correspondientes huecos. Un cristal de esta clase se llama semiconductor de tipo n.
Otra posibilidad consiste en «dopar» al germanio (volviendo al ejemplo inicial) con galio, que sólo tiene tres electrones disponibles. El efecto es análogo a la creación de un hueco en la banda de valencia por cada átomo de galio presente, por lo que los electrones de valencia pueden saltar a los huecos que, a todos los efectos que nos interesan, se comportan como cargas positivas. Un cristal de esta clase se llama semiconductor de tipo p. Es interesante lo que sucede cuando ambos tipos de semiconductores se ponen en contacto: el exceso de carga positiva en un lado de la frontera y de carga negativa en el otro origina una diferencia de potencial eléctrico que trata de impulsar electrones en un sentido y de oponerse a su movimiento en el otro. Un par de semiconductores cristalinos unidos de esta forma constituyen lo que se llama un diodo, y sólo permite el paso de la corriente eléctrica en una dirección. De una manera más sutil, los electrones pueden ser inducidos a saltar de n a un hueco de p, emitiendo una chispa de luz cuando lo logran. Un diodo diseñado para producir luz de esta forma se llama diodo de emisión de luz o, abreviadamente, LED[47]; estos diodos se utilizan para la señalización numérica en algunas calculadoras de bolsillo, en relojes y en otros dispositivos con señales gráficas visuales. Un diodo que opera en la otra dirección, absorbiendo luz y bombeando un electrón desde un hueco hasta la banda de conducción, es un fotodiodo; se utiliza para asegurar que una corriente eléctrica sólo fluirá cuando el semiconductor sea iluminado por un haz de luz. Ésta es la base de los dispositivos de apertura automática de puertas que actúan cuando se interrumpe el haz luminoso.
Cuando tres semiconductores se colocan en forma de sandwich (pnp o npn), el resultado es un transistor. Cada elemento del transistor suele ir conectado a una parte del circuito eléctrico del que forma parte, como por ejemplo en una radio, donde se reconocen por su forma de patas de araña que emergen del metal o de la envoltura plástica que protege al semiconductor. Con materiales convenientemente «dopados» es posible construir dispositivos en los que un pequeño flujo de electrones a través de una unión np provoque otro flujo mucho mayor en la otra unión del sandwich, actuando entonces el transistor como un amplificador. Como todo aficionado a la electrónica sabe, los diodos y los elementos de amplificación son la base del diseño de cualquier sistema de sonido, pero incluso los transistores no son hoy más que una bonita reliquia y no se encontrará ya ninguna cápsula de tres patas en su radio, salvo que ésta sea lo suficientemente antigua.
Hasta los años 50 la radio constituyó un elemento de distracción; se trataba de un aparato repleto de circuitos y lámparas incandescentes de vacío que hacían el trabajo que hoy desempeñan los semiconductores. A finales de los años 50, con la revolución del transistor en marcha, las lámparas fueron sustituidas por transistores y los cables por bloques con los circuitos impresos y los transistores soldados. De aquí se tardó poco en pasar al circuito integrado, donde todos los circuitos y los semiconductores (diodos, amplificadores y demás) se aglutinan convenientemente en una pieza que constituye el núcleo de una radio, cassette o lo que sea. Al mismo tiempo una revolución similar tenía lugar en la industria de las calculadoras y de los ordenadores.
Al igual que la vieja radio, las primeras máquinas de calcular eran grandes e incómodas de manejar. Estaban repletas de válvulas y contenían kilómetros de cables. Incluso hace veinte años, con la primera revolución sobre estado sólido en plena vigencia, una máquina que hiciera el mismo trabajo que hoy realiza un microordenador moderno del tamaño de una máquina de escribir requería toda la planta baja de un edificio para acomodar el cerebro. Las otras plantas, con aire acondicionado, se empleaban para distribuir el resto de la maquinaria. La revolución que ha convertido aquel ingenio en una máquina de mesa que cuesta unas cuantas decenas de miles de pesetas es la misma que ha llevado de la radio de los abuelos a la radio del tamaño de un paquete de cigarrillos: y es la revolución del paso del transistor al «chip».
Los cerebros biológicos y los ordenadores electrónicos pertenecen ambos al mundo de los circuitos. El cerebro humano contiene unos 10.000 millones de conexiones en forma de neuronas, que son células nerviosas; un ordenador tiene elementos análogos, que son los diodos y los transistores. En 1950 un ordenador con el mismo número de elementos electrónicos que nuestro cerebro habría sido tan grande como la isla de Manhattan; hoy. a base de diminutos «chips» convenientemente ensamblados, las conexiones necesarias cabrían en el propio volumen de un cerebro humano, si bien la conexión de tal ordenador sería un problema y aún no se ha resuelto. Pero el ejemplo indica lo pequeño que es el «chip», incluso comparado con el transistor.
El semiconductor que se utiliza en los típicos micro «chips» actuales es el silicio (básicamente no es otra cosa que la arena común). Con los estímulos apropiados, la electricidad pasa a través del silicio; sin ellos, no. Los cristales de silicio de unos 10 cm de grosor se tallan en láminas tan finas como cuchillas de afeitar que, a su vez, se trocean en cientos de pequeños «chips» rectangulares, cada uno más pequeño que una cabeza de cerilla. En cada uno de estos «chips» se graba un denso conjunto de delicados circuitos electrónicos equivalentes a transistores, diodos, circuitos integrados y todo lo demás. Un «chip» es, efectivamente, un ordenador completo, y el resto de los dispositivos de un microordenador moderno no son sino complementos para suministrar información y para obtenerla a partir del «chip». Su fabricación es tan barata (sin tener en cuenta los costos de diseño de los circuitos y de la construcción de la maquinaria necesaria para reproducirlos) que pueden producirse a cientos, someterse a pruebas y sencillamente tirar a la basura los que no resultan. Fabricar un «chip», partiendo de cero, puede costar cientos de millones de pesetas; producir tantos como se quiera, iguales que el primero, puede salir a unas pocas pesetas cada uno.
Hay unas cuantas cosas más del mundo actual que descansan en el cuanto. Las recetas de un solo capítulo del libro de la cocina cuántica han proporcionado los relojes digitales, los ordenadores personales, los cerebros electrónicos que guían las cápsulas espaciales hasta su órbita (y que, a veces, deciden no dejarlas volar, independientemente de lo que los operadores humanos puedan decir), la TV portátil, sistemas personales de estéreo y de hi-fi que puedan ensordecer y muy buenas ayudas para sordos, para compensar la correspondiente pérdida de audición. Auténticos ordenadores portátiles (de bolsillo) no pueden estar muy lejos; para las máquinas inteligentes habrá que esperar un poco más, pero es una posibilidad bastante real. Los ordenadores que controlan los ingenios enviados a Marte y la exploración por el Voyager del Sistema Solar exterior son muy similares a los «chips» que controlan los juegos de «marcianitos», y todos se basan esencialmente en el extraño comportamiento de los electrones de acuerdo a las reglas cuánticas elementales. No obstante, la historia del poderoso «chip» no agota el potencial de la física del estado sólido.

Los superconductores
Al igual que los semiconductores, los superconductores tienen un nombre lógico. Un superconductor es un material que conduce la electricidad sin oponer aparentemente ninguna resistencia. Representa lo más parecido que se puede imaginar al movimiento perpetuo; no es que se obtenga algo por nada, sino más bien un raro ejemplo de que realmente para obtener algo en física hay que pagar, recibiendo siempre el cambio oportuno. El fenómeno de la superconductividad puede explicarse por un cambio que hace que los electrones formen pares entre sí. Aunque cada electrón tiene espín semientero, y por eso obedece la estadística de Fermi-Dirac y el principio de exclusión, un par de electrones puede comportarse bajo ciertas circunstancias como una partícula individual con espín entero. Tal partícula ya no está sometida al Principio de exclusión y obedece a la misma estadística de Bose-Einstein que describe, en términos mecánico-cuánticos, el comportamiento de los fotones.
El físico holandés Kamerlingh Onnes descubrió la superconductividad en 1911, cuando encontró que el mercurio perdía toda su resistencia eléctrica cuando se enfriaba por debajo de 4.2 grados en la escala de temperatura absoluta (4,2 °K, son, aproximadamente, −269 °C). Onnes consiguió el Premio Nobel por su trabajo sobre bajas temperaturas en 1913, pero fue por otro tema, el de la preparación del helio líquido, y el fenómeno de la superconductividad no fue satisfactoriamente explicado hasta 1957, cuando John Bardeen, León Cooper y Robert Schrieffer presentaron una teoría que les valió el Premio Nobel de Física en 1972.[48] La explicación se basa en la forma en que los pares de electrones interaccionan con los átomos en una red cristalina. Un electrón interacciona con el cristal y, como consecuencia de esta interacción, la interacción del cristal con el otro electrón del par se modifica. Así que, a pesar de su tendencia natural a repelerse entre sí, el par de electrones forma una asociación débilmente ligada, pero suficiente para implicar el cambio de la estadística de Fermi-Dirac a la de Bose-Einstein. No todos los materiales pueden hacerse superconductores, e incluso en aquéllos en que esto es posible, cualquier pequeña perturbación de las vibraciones térmicas de los átomos del cristal puede acabar con el emparejamiento de los electrones; ésta es la razón por la que el fenómeno sólo se da a muy bajas temperaturas, entre 1 y 10 °K. Por debajo de una cierta temperatura crítica, que varía de un material a otro pero que siempre es la misma para una sustancia dada, algunos materiales se hacen superconductores; por encima de dicha temperatura, los pares electrónicos se rompen y el material presenta propiedades eléctricas normales.
Esta teoría presenta el inconveniente de que los materiales que son buenos conductores a la temperatura ambiente no son los mejores superconductores. Un buen conductor normal permite que los electrones se muevan libres precisamente porque no interaccionan mucho con los átomos de la red cristalina; pero sin la interacción entre los electrones y los átomos no hay forma de que aparezca el acoplamiento entre electrones que permite una superconductividad efectiva a bajas temperaturas.

img014.jpg
Fig. 7-2. Pasan cosas extrañas en una unión de Josephson, constituida por dos piezas de semiconductor separadas por una capa de aislante. Bajo circunstancias apropiadas, los electrones pueden atravesar la barrera por el efecto túnel.

Es una lástima que los superconductores se tengan que enfriar tanto para que actúen como tales, porque los usos potenciales de un superconductor más apropiado son fáciles de imaginar; la transmisión de potencia a través de cables sin ninguna pérdida de energía sería un ejemplo claro. Pero los superconductores también tienen otras aplicaciones. Un conductor metálico usual puede ser atravesado por un campo magnético, pero un superconductor crea corrientes eléctricas en su superficie que repelen y alejan al campo magnético; son pantallas perfectas contra interferencias no deseadas de campos magnéticos, pero impracticables en la medida en que la pantalla ha de ser enfriada hasta sólo unos pocos grados K. Cuando dos superconductores se separan mediante un aislante cabe esperar un flujo nulo de corriente eléctrica; pero recuérdese que el electrón obedece a las mismas reglas cuánticas que permiten a las partículas escapar del núcleo por efecto túnel. Si la frontera es lo suficientemente delgada, la probabilidad de que los pares electrónicos puedan atravesarla es significativa, si bien no produce resultados prácticos. Tales uniones (llamadas uniones de Josephson) no originan corriente si existe una diferencia de potencial en la frontera, pero sí crean corriente si tal voltaje es nulo. Y una doble unión de Josephson, constituida por dos piezas de material superconductor diseñadas en forma de tenedor de dos puntas perfectamente acopladas y separadas por una fina capa de aislante, puede simular adecuadamente el comportamiento mecánico cuántico del electrón en el experimento de a doble rendija, que se tratará con detalle en el capítulo siguiente y que es la piedra angular de algunas de las extrañas peculiaridades del mundo cuántico.

img015.jpg
Fig. 7-3. Se pueden disponer dos uniones de Josephson de forma que constituyan un sistema análogo al del experimento de la doble rendija para la luz. Con este dispositivo la interferencia entre electrones puede ser observada, mostrando una indicación más de la naturaleza ondulatoria de estas partículas.

No sólo los electrones pueden unirse para formar pseudobosones que desafían las leyes clásicas de la física a bajas temperaturas. Los átomos de helio pueden presentar un comportamiento parecido y ésta es la base de una propiedad del helio líquido que se llama superfluidez. Si se agita una taza con café y luego se la deja en observación, se comprueba que el remolino de líquido se hace más lento y acaba por desaparecer a causa de las fuerzas de viscosidad que equivalen en los fluidos al rozamiento. Si la misma operación se realiza con helio enfriado por debajo de 2,17 °K, el remolino no desaparece. Incluso abandonado a sí mismo, el fluido puede ascender por un lateral de la taza hasta rebosar, y en lugar de resultar difícil su paso a lo largo de un tubo estrecho, el helio superfluido discurre tanto más fácilmente cuanto más estrecho es el tubo que lo contiene. Todo este extraño comportamiento puede explicarse a partir de la estadística de Bose-Einstein y, aunque de nuevo las bajas temperaturas requeridas hacen difícil el encontrar aplicaciones prácticas del fenómeno, el comportamiento de los átomos a estas bajas temperaturas proporciona la oportunidad de observar procesos cuánticos en acción, como en el caso de los electrones en la superconductividad. Si se coloca un poco de helio superfluido en un recipiente estrecho, de unos 2 mm de diámetro, y se hace girar el recipiente, al principio el helio permanece en reposo. Al aumentar la velocidad de giro, para un valor crítico del momento angular, en el helio aparece un flujo angular, pasando de un estado cuántico a otro. Ningún estado intermedio —correspondiente a valor intermedio del momento angular— está permitido por las reglas cuánticas, y la colocación completa de átomos de helio, una masa visible considerablemente mayor que un átomo individual o que las partículas del mundo cuántico, puede ser observada comportándose de acuerdo a las leyes cuánticas. La superconductividad, como se verá más adelante, puede aplicarse a objetos a la escala humana, no sólo a la atómica. La teoría cuántica no está restringida al mundo de la física, ni siquiera al mundo de las ciencias de la naturaleza. Toda la química se entiende hoy en términos de las leyes fundamentales cuánticas. Y la química es la ciencia de las moléculas más que de los átomos individuales y de las subunidades de átomos, por lo que incluye a las moléculas más importantes para la vida humana: las moléculas vivientes, incluyendo la molécula de la vida, el ADN. El conocimiento actual de la vida misma está firmemente enraizado en la teoría cuántica.

La vida misma
Dejando aparte la importancia de la teoría cuántica en la comprensión de la química de la vida, existen relaciones personales directas entre algunos de los personajes importantes en la historia cuántica y el descubrimiento de la estructura en doble hélice del ADN, la molécula de la vida. Las leyes que describen la difracción de rayos X por cristales fueron descubiertos por Lawrence Bragg y su padre William a través de trabajos realizados en el Cavendish, en los años anteriores a la Primera Guerra Mundial. Recibieron conjuntamente el Premio Nobel por ello, Lawrence a tan temprana edad (en 1915, cuando efectuaba el servicio militar como oficial en Francia) que aún estaba vivo (a pesar de haber servido en Francia durante la Primera Guerra Mundial) cincuenta años más tarde, para celebrar las bodas de oro del acontecimiento. W. Bragg ya había logrado una reputación previa en física por sus estudios sobre las radiaciones alfa, beta y gamma, y en los últimos años de la primera década del siglo veinte había demostrado que tanto los rayos gamma como los rayos X se comportan, en algunos aspectos, como partículas. La ley de Bragg sobre la difracción de los rayos X, que es la clave para desvelar los secretos de la estructura de los cristales, se basa, no obstante, en las propiedades ondulatorias de los rayos X que son dispersados por los átomos de un cristal. Las figuras de interferencia resultantes dependen de la distancia entre los átomos en el cristal y de la longitud de onda de los rayos X; ello proporciona una herramienta eficaz para localizar con precisión las posiciones de los átomos individuales en redes cristalinas, por complejas que éstas sean.
La idea que condujo a la ley de Bragg se remonta a 1912 y se debe esencialmente a L. Bragg. A finales de los años 30 era profesor de física del Cavendish en Cambridge, tras suceder a Rutherford al jubilarse éste, y aún seguía dedicado activamente a la investigación sobre los rayos X entre otras muchas cosas. Fue durante esta década cuando la nueva ciencia de la biofísica comenzó a progresar. El trabajo pionero de J. D. Bernal sobre la determinación de la estructura y composición de moléculas biológicas por difracción de rayos X llevó a investigaciones precisas de las complejas moléculas de proteínas que realizan muchas de las funciones de la vida. Los investigadores Max Perutz y John Kendrew compartieron el Premio Nobel de Química en 1962 por la determinación de las estructuras de la hemoglobina (la molécula que transporta el oxígeno en nuestra sangre) y la mioglobina (una proteína de los músculos), como resultado de la investigación que comenzaron en Cambridge, antes de la Segunda Guerra Mundial.
Sin embargo, los nombres que han quedado para siempre ligados a los orígenes de la biología molecular en la mitología popular son los de Francis Crick y James Watson, que desarrollaron el modelo de doble hélice para el ADN al principio de los años 50 y recibieron el Premio Nobel de «Fisiología o Medicina» (junto con Maurice Wilkins), también en 1962. La flexibilidad del Comité Nobel para conseguir honrar a diferentes pioneros en el campo de la biofísica concediendo premios el mismo año bajo los encabezamientos de química y fisiología es admirable, pero es de lamentar que las reglas estrictas contra las concesiones póstumas impidieran adjudicar una fracción del premio de Crick-Watson-Wilkins a la colega de este último, Rosalind Franklin, a quien se debe gran parte del importante trabajo cristalográfico que reveló la estructura del ADN, pero que había muerto en 1958 a la edad de 37 años. El sitio que ocupa Franklin en la mitología popular es el de la ardiente feminista del libro de Watson The Double Helix, una narración personal sobre su época en Cambridge, altamente divertida pero lejos de ser un retrato fiel y preciso de sus colegas ni de él mismo.
Los trabajos que condujeron a Watson y Crick al descubrimiento de la estructura del ADN se llevaron a cabo en el Cavendish, todavía bajo el mandato de Bragg. Watson, un joven norteamericano que se encontraba en Europa para hacer investigación posdoctoral, describe en su libro su primer encuentro con Bragg cuando solicitaba autorización para trabajar en el Cavendish. Aquella figura de blanco bigote le impresionó vivamente, recordándole una reliquia del pasado científico, como aquella clase de hombres que debían pasar la mayor parte del día en algún club señero de Londres. La autorización fue concedida y Watson quedó sorprendido por el interés activo que Bragg mostraba en la investigación, proporcionando una incalculable —aunque no siempre bien recibida— guía en el camino hacia la solución del problema del ADN. Francis Crick, aunque mayor que Watson, era aún un estudiante que preparaba su tesis doctoral. Su carrera científica, como la de muchos otros de su generación, se vio interrumpida por la Segunda Guerra Mundial, aunque en su caso puede que ello no le resultara negativo. Él comenzó como físico, y fue a finales de los años 40 cuando se dirigió hacia la biología, decisión inspirada en no poca medida por un pequeño libro de Schrödinger, publicado en 1944. El libro, titulado What Is Life?, es un clásico —todavía se lanzan ediciones del mismo y vale la pena conseguirlo— que exponía la idea de que las moléculas fundamentales de la vida podrían ser entendidas en términos de las leyes de la física. Las importantes moléculas que había que explicar en aquellos términos eran los genes que llevan la información sobre cómo ha de ser construido un ser vivo y sobre cómo funciona. Cuando Schrödinger escribió What Is Life? se pensaba que los genes, como tantas moléculas vivientes, estaban constituidos por proteínas; aproximadamente por esa misma época, sin embargo, se descubriría que los caracteres hereditarios son realmente transportados por moléculas de un ácido llamado ácido desoxirribonucleico, hallado en el núcleo central de células vivas.[49] Éste es el ADN, y su estructura es la que Crick y Watson determinaron utilizando los datos sobre rayos X obtenidos por Wilkins y Franklin.
El hecho clave es que el ADN es una molécula doble, formada por dos cadenas enrolladas una alrededor de otra. El orden en el que los diferentes componentes químicos, llamados bases, están ensartados en las columnas de ADN contiene una información que la célula viva utiliza para construir las moléculas que han de llevar a cabo todo el trabajo, como transportar oxígeno por la sangre o hacer trabajar a los músculos. Una cadena de ADN puede desenrollarse parcialmente, poniendo de manifiesto una sarta de bases que actúan a modo de plantilla para la construcción de las otras moléculas; o puede desenrollarse completamente y reproducirse a sí misma mediante la oportuna unión de cada base con la complementaria a lo largo de la cadena y la construcción de una imagen especular de la misma para formar una nueva doble hélice. En ambos procesos, la materia prima está constituida por la «sopa» química que hay en el interior de la célula viva; los dos son esenciales para la vida. Y el hombre ahora puede manipular el mensaje codificado en el ADN alterando las instrucciones codificadas en el anteproyecto de vida; al menos, en el caso de algunos organismos vivos relativamente simples.
Ésta es la base de la ingeniería genética. Se puede crear material genético —ADN— mediante la combinación de técnicas químicas y biológicas, y microorganismos tales como las bacterias pueden ser estimulados para tomar este ADN de la «sopa» química que lo rodea e incorporarlo a su propio código genético. Si a una cierta clase de bacterias se le proporciona de esta forma la información codificada sobre cómo fabricar insulina humana, sus propias factorías biológicas se encargarán de hacerlo y proporcionarán exactamente la sustancia requerida por los diabéticos para poder llevar una vida normal. La idea de alterar el material genético humano para eliminar los defectos que originan problemas tales como la diabetes está aún lejos de verse realizada, pero no existe ninguna razón teórica por la que no pueda conseguirse. Un paso más inmediato, sin embargo, será el utilizar las técnicas de ingeniería genética con otros animales y con plantas, para producir clases superiores de alimentos y para otras necesidades humanas.
Los detalles acerca de este tema se pueden encontrar en muchos otros libros.[50] Pero lo importante es que todo el mundo ha oído hablar de la ingeniería genética y ha leído algún artículo sobre el milagroso panorama —y sobre los peligros— que depara el futuro. No obstante, muy pocos pueden apreciar que la comprensión de las moléculas vivientes que hacen posible la ingeniería genética se basa en el conocimiento actual de la mecánica cuántica, sin la cual no se podrían interpretar los datos obtenidos por la difracción de rayos X, aparte de muchas otras cosas. Para comprender cómo construir, o reconstruir, genes se debe comprender cómo y por qué los átomos se agrupan sólo en ciertas disposiciones, estando separados por ciertas distancias y con enlaces químicos de cierta intensidad. Esta comprensión es el dato fundamental que la física cuántica ha proporcionado a la química y a la biología molecular.
Este tema no estaría un poco más desarrollado de lo debido de no haber sido por un miembro del University College de Gales. En marzo de 1983, en un artículo en el New Scientist, mencioné de pasada que «sin la teoría cuántica no habría ingeniería genética, ni ordenadores, ni centrales nucleares (o bombas)». Ello originó una queja de un miembro de tan respetable institución basada en que él estaba harto de oír sacar a cuento con el mínimo pretexto a la ingeniería genética como el rumor científico de moda, y que no se debía permitir que John Gribbin hiciera tan escandalosas afirmaciones. ¿Qué posible conexión, por pequeña que fuera, podía existir entre teoría cuántica y genética? Es de esperar que tal conexión ahora esté clara. Por una parte, desde un punto de vista más superficial, resulta ideal poder destacar el hecho de que la conversión de Crick a la biofísica estuvo directamente inspirada por Schrödinger, y que el trabajo que condujo al descubrimiento de la doble hélice del ADN se hubiera llevado a cabo bajo la dirección formal, aunque a veces molesta, de Lawrence Bragg; ya en un plano más profundo, por supuesto, la razón para el interés de pioneros como Bragg y Schrödinger, y la siguiente generación de físicos tales como Kendrew, Perutz, Wilkins y Franklin, en problemas biológicos, estuvo en que estos problemas representan, como destacó Schrödinger, simplemente otra clase de física, que trata con colecciones de gran número de átomos de moléculas complejas.
Lejos de rectificar el comentario pasajero que se hizo en New Scientist, es mejor reforzarlo. Si se pide a personas cultas, inteligentes, pero no científicos, que resuman las más importantes contribuciones de la ciencia a la nueva vida actual y que sugieran los beneficios posibles, o los riesgos, del progreso científico en un futuro próximo, seguramente proporcionarán una lista donde estarán incluidos la tecnología sobre ordenadores (automatización, desempleo, distracción, robots), la energía nuclear (bombas, misiles, centrales), la ingeniería genética (nuevos medicamentos, fabricación de seres clónicos, amenazas de enfermedades provocadas por el hombre, mejoras en cultivos) y los láseres (holografía, rayos de la muerte, microcirugía, comunicaciones). Probablemente, la gran mayoría de las personas consultadas habrá oído hablar de la teoría de la relatividad, que no juega ningún papel en su vida ordinaria; pero casi nadie será consciente de que cada tema de la lista tiene sus raíces en la mecánica cuántica, una rama de la ciencia de la que puede que no hayan oído hablar y que, casi con certeza, no saben a qué se refiere.
No son los únicos. Todos aquellos logros han sido conseguidos por la cocina cuántica, utilizando las reglas que parecen funcionar aunque nadie realmente entiende por qué. A pesar de las conquistas de las últimas seis décadas, es dudoso que alguien entienda por qué funcionan las recetas cuánticas. El resto de este libro está dedicado a poner de manifiesto algunos de los profundos misterios que se esconden tan a menudo, y a mostrar algunas de las posibilidades y de las paradojas.

Parte 3
Y más allá

«Es mejor debatir una cuestión sin llegar a concluirla, que llegar a una conclusión sin debatirla.»
JOSEPH JOUBERT
1754-1824

Capítulo 8
Azar e incertidumbre

El principio de incertidumbre de Heisenberg, que se ve hoy como el dato central de la teoría cuántica, no fue aceptado de forma inmediata por sus colegas, sino que necesitó cerca de diez años para alcanzar esta elevada posición. A partir de los años 30, sin embargo, puede que su papel haya sido valorado excesivamente.
La idea surgió tras la visita de Schrödinger a Copenhague en setiembre de 1926, con ocasión de su famosa observación a Bohr acerca de los «malditos saltos cuánticos». Heisenberg se dio cuenta de que una de las principales razones por las que Bohr y Schrödinger a veces parecían estar duramente enfrentados era un conflicto entre conceptos distintos. Ideas como posición y velocidad (o espín, más tarde), no tienen el mismo significado en el mundo de la microfísica que en el mundo ordinario. Así que, ¿cuál es el significado? y ¿cómo pueden relacionarse ambos mundos? Heisenberg volvió a la ecuación fundamental de la mecánica cuántica

pq − qp = ℏ/i

y demostró, a partir de ella, que el producto de las incertidumbres en la posición (Δq) y en el momento (Δp) tiene que ser siempre mayor que ℏ. La misma regla sobre incertidumbres se aplica a cualquier par de lo que se llaman variables conjugadas, variables que multiplicadas entre sí han de tener dimensión de acción, como ℏ; las unidades de acción son energía × tiempo, y el otro par importante de tales variables es la energía (E) y el tiempo (t). Los conceptos clásicos del mundo cotidiano también existen en el mundo atómico, afirmó Heisenberg, pero sólo pueden emplearse en la forma restringida que las relaciones de incertidumbre revelan. Cuanto con más precisión se conozca la posición de una partícula, tanto más imprecisamente conoceremos su momento, y viceversa.

El significado del principio de incertidumbre
Estas sorprendentes conclusiones fueron publicadas en Zeitschrift für Physik en 1927, pero mientras teóricos como Dirac y Bohr, familiarizados con las nuevas ecuaciones de la mecánica cuántica, apreciaron inmediatamente su significado, muchos experimentadores vieron en las conclusiones de Heisenberg un reto a sus habilidades. Creyeron que Heisenberg afirmaba que sus técnicas no eran lo suficientemente buenas como para medir simultáneamente la posición y el momento, y trataron de diseñar experimentos que le demostraran que estaba equivocado. Pero fue un intento inútil, ya que se basaban en algo que él no había dicho.
Este malentendido está aún vigente, en parte a causa de cómo se enseña con frecuencia la idea de incertidumbre. El mismo Heisenberg utilizó el ejemplo de la observación de un electrón para precisar su idea. Sólo se pueden ver las cosas mediante su observación, lo que implica el impacto de fotones de luz sobre ellas y sobre nuestros ojos. Un fotón no altera mucho a un objeto como una casa, por lo que no es de esperar que una casa se vea afectada porque se la observe. Para un electrón, en cambio, las cosas son bastante diferentes. En primer lugar, un electrón es tan pequeño que se debe usar energía electromagnética de una longitud de onda corta para poder observarlo (con ayuda de instrumentos especiales). La radiación gamma de este tipo es muy energética, y cualquier fotón de la radiación gamma que tras rebotar en un electrón pueda ser detectado por el dispositivo experimental habrá cambiado drásticamente la posición y el momento del electrón; si el electrón está en un átomo, el mismo acto de observarlo mediante un microscopio de rayos gamma puede incluso desalojarlo del átomo.
Todo ello da una idea general sobre la imposibilidad de medir, con absoluta precisión y simultáneamente, la posición y el momento de un electrón. Pero lo que el principio de incertidumbre plantea es que, de acuerdo a la ecuación fundamental de la mecánica cuántica, no existen cosas tales como un electrón poseyendo simultáneamente una posición precisa y un momento preciso.
Esto presenta implicaciones de largo alcance. Como Heisenberg escribe al final de su artículo en Zeitschrift, «no podemos conocer, por principio, el presente en todos sus detalles». Aquí es donde a teoría cuántica se libera del determinismo de las ideas clásicas. Para Newton sería posible predecir por completo el futuro si se conociera la posición y el momento de cada partícula del universo; para los físicos modernos, la idea de tan perfecta predicción no tiene sentido, porque no se puede conocer la posición y el momento con precisión absoluta ni siquiera de una partícula. A la misma conclusión se llega a través de las diferentes versiones de las ecuaciones, la mecánica ondulatoria, las matrices de Heisenberg-Born-Jordan y los números q de Dirac, si bien este último tratamiento puede considerarse el más conveniente al evitar toda comparación física con el mundo de cada día. Dirac estuvo a punto de llegar a las relaciones de incertidumbre antes que Heisenberg. En un artículo en Proceedings of the Royal Society en diciembre de 1926, señaló que en la teoría cuántica es imposible contestar a cualquier cuestión que se refiera a valores numéricos simultáneos de q y p, aunque «es de esperar, sin embargo, que se pueda contestar a cuestiones en las que sólo q o sólo p adquieran valores numéricos dados».
Hasta la década de los 30 los filósofos no resaltaron las implicaciones de estas ideas en el concepto de causalidad —según el cual todo suceso está causado por otro suceso específico— y en el problema de predecir el futuro. Mientras tanto, aunque las relaciones de incertidumbre habían sido deducidas a partir de las ecuaciones fundamentales de la mecánica cuántica, algunos expertos influyentes comenzaron a enseñar la teoría cuántica partiendo de las relaciones de incertidumbre. Wolfgang Pauli influyó de manera esencial en esta tendencia. Escribió un importante artículo enciclopédico sobre la teoría cuántica que comenzaba con las relaciones de incertidumbre, y animó a un colega, Herman Weyl, a empezar su libro de texto Theory of Groups and Quantum Mechanics prácticamente del mismo modo. Este libro se publicó originariamente en alemán en 1928 y en inglés (por Methuen) en 1931. Los dos juntos, el libro y el artículo de Pauli, marcaron el tono de una generación de textos típicos. Los estudiantes formados con estos textos se convirtieron, en algunos casos, en profesores a su vez y transmitieron el mismo estilo de enseñar a las nuevas generaciones. Como resultado, a los estudiantes universitarios actuales se les introduce en la teoría cuántica a través de las relaciones de incertidumbre.[51]
Esto es un accidente peculiar de la historia. Después de todo, las ecuaciones básicas de la teoría cuántica llevan a las relaciones de incertidumbre, pero si se parte de éstas no hay forma de deducir las ecuaciones cuánticas fundamentales. Lo que es peor, la única forma de introducir la incertidumbre sin las ecuaciones es utilizar ejemplos, como el microscopio de rayos gamma para la observación de electrones, lo que inmediatamente hace que la gente piense que la incertidumbre se refiere exclusivamente a limitaciones experimentales, y no a una verdad fundamental sobre la naturaleza del universo. Así. se aprende una cosa, después se da marcha atrás para aprender otra, y luego se vuelve adelante para descubrir qué es exactamente lo que se aprendió al principio. La ciencia no es siempre lógica, ni tampoco lo son los que enseñan ciencia. Este sistema ha producido unas generaciones de confundidos estudiantes y unos malentendidos sobre el principio de incertidumbre; estos errores no los ha de compartir el lector, sino que debe descubrir las cosas en el orden correcto. Sin embargo, si no se está demasiado preocupado por las sutilezas científicas, y se desea penetrar en el extraño mundo cuántico, tiene mucho sentido comenzar con una exploración de ese mundo a través de un sorprendente ejemplo de su peculiar naturaleza. En el resto de este libro, el principio de incertidumbre no pasará de ser la menos peculiar de las cosas que se tratará.

La interpretación de Copenhague
Un aspecto importante del principio de incertidumbre, al que no siempre se presta la atención que merece, es que no opera en el mismo sentido hacia adelante y hacia atrás en el tiempo. Muy pocos hechos en física tienen en cuenta la forma en que fluye el tiempo, y éste es uno de los problemas fundamentales del universo que habitamos donde ciertamente hay una distinción entre el pasado y el futuro. Las relaciones de incertidumbre indican que no es posible conocer la posición y el momento simultáneamente, y consiguientemente no es posible predecir el futuro; el futuro es esencialmente impredecible e incierto. Pero es compatible con las reglas de la mecánica cuántica idear un experimento a partir del cual se pueda calcular exactamente cuál era la posición y el momento. de un electrón, por ejemplo, en algún instante del pasado. El futuro es esencialmente incierto; no se sabe con certeza hacia dónde vamos. Pero el pasado está exactamente definido; se sabe exactamente de dónde venimos. Parafraseando a Heisenberg se podría afirmar que «podemos conocer, por principio, el pasado en todos sus detalles». Ello se ajusta precisamente a la experiencia cotidiana en cuanto a la naturaleza del tiempo; nos movemos desde un pasado conocido a un futuro incierto, y constituye una característica fundamental del mundo cuántico. Puede estar ligado a la dirección del tiempo que se percibe en el universo a gran escala; otras implicaciones más extrañas serán discutidas más adelante.
Mientras los filósofos se esforzaban por aclarar las intrigantes implicaciones de las relaciones de incertidumbre, para Bohr representaron algo así como el relámpago que iluminó los conceptos entre los que había caminado a ciegas durante cierto tiempo. La idea de complementariedad, según la cual ambas descripciones, la ondulatoria y la corpuscular, son necesarias para comprender el mundo cuántico (aunque de hecho un electrón no es una onda ni una partícula), encontró una formulación matemática en la relación de incertidumbre que establecía la imposibilidad de un conocimiento simultáneo y preciso de la posición y el momento, representando ambos aspectos complementarios y, en cierto sentido, mutuamente excluyentes de la realidad. Desde julio de 1925 hasta setiembre de 1927 Bohr no publicó prácticamente nada sobre teoría cuántica, y fue entonces cuando en una conferencia en Como, Italia, presentó la idea de complementariedad y lo que es conocido como la interpretación de Copenhague para una amplia audiencia. Señaló que mientras en la física clásica concebimos que un sistema de partículas en dirección funciona como un aparato de relojería, independientemente de que sean observadas o no, en física cuántica el observador interactúa con el sistema en tal medida que el sistema no puede considerarse con una existencia independiente. Escogiendo medir con precisión la posición se fuerza a una partícula a presentar mayor incertidumbre en su momento, y viceversa; escogiendo un experimento para medir propiedades ondulatorias, se eliminan peculiaridades corpusculares, y ningún experimento puede revelar ambos aspectos, el ondulatorio y el corpuscular, simultáneamente. En física clásica se pueden describir las posiciones de las partículas con precisión en el espacio-tiempo, y prever su comportamiento de forma igualmente precisa; en física cuántica no se puede, y en este sentido incluso la relatividad es una teoría clásica.
Hubo de pasar mucho tiempo para que estas ideas se desarrollaran y para que su profundo significado fuera captado. Hoy, las características de la interpretación de Copenhague se pueden explicar y entender más fácilmente en términos de lo que pasa cuando se efectúa una observación experimental. En primer lugar, se ha de aceptar que el mero hecho de observar una cosa la cambia y que el observador forma parte del experimento; es decir, no hay un mecanismo que funcione independientemente de que se le observe o no. En segundo lugar, toda la información la constituyen los resultados de los experimentos. Se puede observar un átomo y ver un electrón en el estado de energía A, después volver a observar y ver un electrón en el estado de energía B. Se supone que el electrón saltó de A a B, quizás a causa de la observación. De hecho, no se puede asegurar siquiera que se trate del mismo electrón y no se puede hacer ninguna hipótesis sobre lo que ocurría cuando no se observaba. Lo que se puede deducir de los experimentos, o de las ecuaciones de la teoría cuántica, es la probabilidad de que si al observar el sistema se obtiene el resultado A, otra observación posterior proporciona el resultado B. Nada se puede afirmar sobre lo que pasa cuando no se observa, ni de cómo pasa el sistema de A a B, si es que pasa. Los «malditos saltos cuánticos» que tanto incomodaban a Schrödinger son simplemente una interpretación subjetiva de por qué se obtienen dos resultados diferentes para el mismo experimento, y es una falsa interpretación. A veces las cosas se observan en el estado A, a veces en el B. y la cuestión de qué hay en medio o de cómo pasan de un estado a otro carece completamente de sentido.
Ésta es la característica esencial del mundo cuántico. Es interesante constatar que hay límites al conocimiento sobre lo que un electrón está haciendo mientras se le observa, pero resulta absolutamente sorprendente descubrir que no se tiene ni idea de lo que está haciendo cuando no lo observamos.
En los años 30 Eddington proporcionó algunos de los mejores ejemplos físicos de lo que esto representa, en su libro The Philosophy of Physical Science. Destacó que lo que se percibe, lo que se aprende de los experimentos, está altamente influido por las expectativas, y proporciona un ejemplo, de extraordinaria sencillez, para destapar lo que se oculta bajo las percepciones. Supongamos, afirma, que un artista asegura que en el interior de cada bloque de mármol yace oculta la figura de una cabeza humana. Absurdo. Pero entonces el artista se dedica a su trabajo en el mármol con algo tan simple como un martillo y un cincel y pone al descubierto la forma oculta. ¿Es quizás ése el modo en que Rutherford descubrió el núcleo? «El descubrimiento no amplía el conocimiento que tenemos del núcleo», afirma Eddington, nadie ha visto nunca un núcleo atómico. Lo que se observa son los resultados de los experimentos, que se interpretan en términos de núcleos. Nadie encontró un positrón hasta que Dirac sugirió que podían existir; hoy los físicos aseguran conocer mayor número de las llamadas partículas fundamentales que elementos distintos hay en la tabla periódica. En los años 30, los físicos estaban intrigados a causa de la predicción de otra nueva partícula, el neutrino, que se requería para poder explicar sutilezas de las interacciones entre espines en algunas desintegraciones radiactivas. «No me satisface la teoría del neutrino», afirma Eddington, «no creo en los neutrinos». Pero «¿voy a arriesgarme a decir que los físicos experimentales no tendrán la suficiente ingenuidad como para fabricar neutrinos?».
Desde entonces, se han descubierto neutrinos de tres variedades diferentes (más sus tres diferentes antivariedades) y otras clases de especies han sido postuladas. ¿Pueden tomarse realmente las dudas de Eddington en sentido literal? ¿Es posible que el núcleo, el positrón y el neutrino no existieran hasta que los experimentalistas descubrieron la clase de cincel apropiado para revelar su aspecto? Tales especulaciones afectan a la lógica básica, pero son cuestiones bastante sensatas para plantearlas en el mundo cuántico. Si se sigue correctamente el recetario cuántico, se puede realizar un experimento que produzca unos resultados susceptibles de interpretarse como indicadores de la existencia de una cierta clase de partícula. Casi siempre que se sigue la misma receta, se obtienen los mismos resultados. Pero su interpretación en términos de partículas se da en nuestra mente, y puede que no sea más que una ilusión coherente. Las ecuaciones no indican nada acerca del comportamiento de las partículas cuando no son observadas, y con anterioridad a Rutherford nadie observó un núcleo, ni antes de Dirac nadie llegó siquiera a imaginar la existencia de un positrón. Si no se puede decir lo que hace una partícula cuando no está siendo observada, tampoco se puede decir si existe en tanto no se observa, y es razonable sostener que los núcleos y los positrones no existieron con anterioridad al siglo veinte, porque nadie vio uno antes de 1900. En el mundo cuántico se trata sobre lo que se observa, y nada es real; lo más a lo que se puede aspirar es a lograr un conjunto de ilusiones que sean coherentes entre sí. Desafortunadamente, incluso esas esperanzas se desvanecen ante algunos de los experimentos más simples. Recuérdense los experimentos de la doble rendija que demostraban la naturaleza ondulatoria de la luz. ¿Cómo explicarlos en términos de fotones?

El experimento de los dos agujeros
Uno de los mejores y más conocidos profesores de mecánica cuántica en los últimos años ha sido Richard Feynman, del California Institute of Technology. El tercer volumen de su obra Feynman Lectures on Physics, publicado a principios de los años 60, es un texto típico comparable a otros textos universitarios; el autor ha participado en charlas de divulgación sobre el tema, tales como su serie en la Televisión BBC en 1965, publicada bajo el título The Character of Physical Law. Nacido en 1918, Feynman alcanzó su apogeo como físico teórico en los años 40, cuando participó en el establecimiento de las ecuaciones de la versión cuántica del electromagnetismo, llamada electrodinámica cuántica; recibió el Premio Nobel por este trabajo en 1965. El lugar especial de Feynman en la historia de la teoría cuántica lo ocupa como un representante de la primera generación de físicos que se formó con la base de la mecánica cuántica ya vigente, y con todas las reglas fundamentales establecidas. En tanto que Heisenberg y Dirac tuvieron que trabajar en un ambiente cambiante, donde las nuevas ideas no siempre aparecían en el orden correcto, y la relación lógica entre un concepto y otro (como en el caso del espín) no resultaba obvia inmediatamente, para la generación de Feynman, desde el principio, todas las piezas del rompecabezas se habían descubierto y habían sido colocadas en su sitio tras un considerable esfuerzo, no del todo apreciable a simple vista. Por esta razón, mientras Pauli y sus continuadores pensaron, más o menos fríamente, que las relaciones de incertidumbre eran el punto de partida apropiado para la discusión y la enseñanza de la teoría cuántica, Feynman y aquellos profesores de las últimas décadas que se preocupan personalmente por la lógica en lugar de reproducir las ideas de las generaciones anteriores, han partido de un punto diferente. El elemento básico de la teoría cuántica, afirma Feynman en la primera página del volumen de Lectures dedicado a la mecánica cuántica, es el experimento de la doble rendija. ¿Por qué? Porque éste es «un fenómeno que resulta imposible, absolutamente imposible, explicarlo clásicamente, y que contiene la esencia de la mecánica cuántica. En realidad, contiene el único misterio… las peculiaridades básicas de la mecánica cuántica».

img016.jpg
Fig. 8-1. Un haz de electrones que pasa a través de una rendija simple produce una distribución con la mayoría de las partículas detectadas en línea con la rendija.

En la primera parte de este libro se ha tratado (al igual que hicieron los grandes físicos del primer tercio de siglo) de explicar las ideas cuánticas en términos del mundo cotidiano. Ahora, comenzando por el misterio central, ha llegado el momento de desembarazarse de la experiencia cotidiana, en la medida de lo posible, y explicar el mundo real en términos de la teoría cuántica. No hay analogías que se pueda transportar desde la experiencia ordinaria al mundo del cuanto, y el comportamiento cuántico no ha de ser algo familiar. Nadie sabe cómo es que el mundo cuántico se comporta como lo hace; todo lo que se sabe es que lo hace así. Hay que ajustarse únicamente a dos premisas. La primera es que tanto las partículas (electrones) como las ondas (fotones) se comportan de la misma forma; las reglas del juego son consistentes. La segunda es que, como Feynman anticipó, sólo hay un misterio. Si se logra llegar a pensar en términos relativos al experimento de la doble rendija hay más de media batalla ganada, ya que «cualquier otra situación en mecánica cuántica, resulta que puede siempre explicarse diciendo “¿recuerdas el caso del experimento con los dos agujeros?” Es el mismo hecho».[52]
El experimento es el siguiente. Imagínese una pantalla de cualquier clase —una pared, incluso— con dos pequeños agujeros en ella. Puede tratarse de rendijas largas y estrechas, como en el famoso experimento de Young con la luz, o de pequeños orificios redondeados; es lo mismo. A un lado de esta pared hay otra que lleva incorporada un detector de alguna clase. Si se está experimentando con luz, el detector puede ser una superficie blanca en la que se pueden ver bandas brillantes y oscuras, o puede ser una placa fotográfica que se estudia tras ser revelada. Si se trabaja con electrones, la pantalla puede recubrirse de detectores de electrones, o se puede imaginar un detector móvil que puede desplazarse a voluntad para contar el número de electrones que llegan a algún punto particular de la pantalla. Los detalles no son importantes, en la medida que se disponga de alguna forma de registrar lo que sucede en la pantalla. Al otro lado de la pared con los dos agujeros, hay una fuente de fotones, electrones, o de lo que sea. Puede ser una lámpara o un cañón de electrones como el que dibuja la imagen en una pantalla de TV; tampoco aquí son importantes los detalles. ¿Qué sucede cuando los objetos pasan a través de los agujeros y llegan hasta la pantalla? Es decir, ¿qué figura consiguen que forme el detector?

img017.jpg
Fig. 8-2. Un electrón o un fotón que pasa a través de un par de rendijas tiene que comportarse, de acuerdo al sentido común, de la misma forma que si pasara a través de una rendija simple.

img018.jpg
Fig. 8-3. Para electrones y fotones, sin embargo, los experimentos muestran que la figura observada con ambas rendijas abiertas no es la misma que la obtenida por yuxtaposición de lo que se observa separadamente con cada rendija.

En una primera etapa, es mejor olvidar el mundo cuántico de los fotones y los electrones y observar qué pasa en el mundo cotidiano. Es fácil ver cómo se difractan las ondas a través de los agujeros, utilizando un depósito de agua en el que se realiza el experimento. La fuente puede ser un dispositivo cualquiera que oscilando arriba y abajo forme ondas regulares. Las ondas se dispersan a través de los agujeros y forman una figura regular de crestas y valles alternados a lo largo del detector a causa de la interferencia entre las ondas provenientes de cada agujero. Si se bloquea uno de los agujeros, la altura de las ondas en la pantalla varía de una forma regular y simple. Las ondas más grandes aparecen en la zona de la pantalla más próxima al agujero, y a cualquier lado la amplitud de las ondas es menor. La misma figura resulta si se tapa este agujero y se abre el bloqueado previamente. La intensidad de la onda, que es una medida de la cantidad de energía que transporta, es proporcional al cuadrado de su altura o amplitud, H2, y muestra un aspecto similar para cada agujero por separado. Pero si se abren ambos agujeros, la figura es mucho más compleja. Aparece un máximo de intensidad en la zona de la pantalla equidistante de los dos agujeros, pero la intensidad decrece enormemente a ambos lados del máximo, donde las dos clases de ondas se compensan entre sí, proporcionando una figura con máximos y mínimos repitiéndose alternativamente a lo largo de la pantalla. Matemáticamente, en lugar de obtenerse que la intensidad debida a los dos agujeros a la vez es la suma de sus respectivas intensidades por separado (la suma de los cuadrados de las amplitudes), lo que resulta es el cuadrado de la suma de las dos amplitudes. Para ondas cuyas amplitudes se representan mediante H y J, por ejemplo, la intensidad I no es H2 + J2, sino

I = (H + J)2

expresión que desarrollada conduce a

I = H2 + J2 + 2 HJ

El último sumando representa la contribución debida a la interferencia de las dos ondas y, teniendo en cuenta que H y J pueden ser positivas o negativas, ello da cuenta precisamente de los máximos y mínimos de la figura de interferencia.
Si se llevara a cabo un experimento del mismo tipo con partículas macroscópicas del mundo cotidiano (Feynman utiliza su fantasía para imaginar un experimento en el que un arma de fuego dispara balas contra los agujeros de la pared, y se recogen en pequeños recipientes de arena que se encuentran distribuidos por todo el detector), no se encontraría ningún término de interferencia. Se encontraría, tras haber disparado un gran número de balas a través de los agujeros, diferente número de balas en los distintos recipientes. Con sólo un agujero abierto, la distribución de balas disparadas hasta la pantalla sería análoga a la variación de intensidad de las ondas de agua a través de un solo agujero. Pero con ambos agujeros abiertos, la distribución de balas en los diferentes receptáculos sería exactamente la suma de los efectos separados: un máximo de balas en la zona que equidista de los dos agujeros y una suave cola decreciente a ambos lados, sin máximos ni mínimos causados por interferencia. En este caso, considerando que cada bala representa una unidad de energía, la distribución de intensidad viene dada por

I = I1 + I2

donde I1 se corresponde con H2 e I2 con J2 en el ejemplo ondulatorio. No hay término de interferencia.

img019.jpg
Fig. 8-4. Las ondas de probabilidad parecen decidir dónde va cada partícula del haz e interfieren exactamente como si de ondas de agua se tratara (v. la fig. 1-3).

Es fácil imaginar qué sigue a continuación. Piénsese en el mismo experimento hecho con luz y con electrones. El experimento de la doble rendija se ha realizado muchas veces con luz y produce unas figuras de difracción igual que en el ejemplo con ondas. El experimento con electrones no se ha llevado a cabo de forma completamente similar —existen problemas a la hora de trabajar a tan pequeña escala—, pero se han realizado experimentos equivalentes dispersando haces de electrones mediante los átomos de un cristal. Para mantenerse a un nivel sencillo, conviene continuar con el experimento imaginario de la doble rendija, traduciendo a este lenguaje los inequívocos resultados obtenidos de los experimentos reales con electrones. Los electrones también originan, como la luz, figuras de difracción.
¿Cuál es la conclusión? ¿Se trata de la dualidad onda-corpúsculo con la que se ha aprendido a convivir? La cuestión es que se aprende a convivir con ella a propósito del recetario cuántico, pero sin preocuparse en serio por las implicaciones. Ha llegado el momento de hacerlo. La función ψ de Schrödinger, la variable en su ecuación de ondas, tiene algo que ver con un electrón (o con la partícula que describa la ecuación). Si ψ es una onda, no sorprende encontrar que se difracte y produzca una figura de inteferencia, y es sencillo demostrar que se comporta como la amplitud de la onda y ψ2 como su intensidad. La figura de difracción del experimento de la doble rendija con electrones no es más que la representación de ψ2. Si hay muchos electrones en el haz, lo anterior tiene una explicación simple: ψ2 representa la probabilidad de encontrar un electrón en un sitio determinado. Millares de electrones inciden sobre los agujeros, y se puede predecir sobre una base estadística donde llegarán, empleando esta interpretación de la onda ψ. Ésta fue la gran contribución de Born al recetario cuántico. Pero, ¿qué le sucede a cada electrón individual?

img020.jpg
Fig. 8-5. Se necesitan las reglas del comportamiento ondulatorio para asignar probabilidades a la aparición de un electrón en A o en B; pero cuando se observa A o B se ve un electrón —una partícula— o no. No se ve una onda. No se puede decir qué hace realmente el electrón mientras atraviesa el dispositivo experimental.

Se puede entender sin gran dificultad que una onda —de agua, por ejemplo— puede pasar por los dos agujeros de la pared. Una onda es algo disperso. Pero un electrón todavía parece una partícula, aunque se le asocien propiedades ondulatorias. Es natural pensar que cada electrón individual debe, con seguridad, pasar a través de un agujero o del otro. Se puede ensayar experimentalmente el bloqueo alternativo de los agujeros. Si se hace, se obtiene en la pantalla la distribución usual en experimentos con una única rendija. Cuando se abren simultáneamente los dos agujeros, sin embargo, no aparece la figura suma de las dos individuales, como sería el caso para las balas. En su lugar, se obtiene una figura de interferencia de ondas. Y aún se mantiene esta distribución si se ralentiza el funcionamiento del disparador hasta el punto de que en cada instante sólo un electrón esté atravesando el dispositivo. Un electrón sólo puede pasar por un agujero, cabe pensar, y luego llegar al detector; entonces se dispara otro electrón y así sucesivamente. Tras una paciente espera para que llegue al detector el suficiente número de electrones, se observa que la figura obtenida en la pantalla es la figura de difracción de ondas. Ciertamente, tanto para electrones como para fotones, si se considera un millar de experimentos idénticos en mil laboratorios diferentes, y sólo se permite el paso de una partícula en cada experimento, se pueden superponer los mil resultados y aun así se obtiene una distribución global que coincide con la de difracción, análogamente a como si se hubiera permitido el paso de mil electrones juntos por el dispositivo de uno de aquellos experimentos. Un electrón individual, o un fotón, incidiendo de esta forma sobre un agujero de la pared obedece en cada caso las leyes estadísticas convenientes, lo cual sólo puede ocurrir si él «sabe» si el otro agujero está abierto o cerrado. Éste es el misterio central del mundo cuántico.
Se puede tratar de «despistar» al electrón disparando más o abriendo repentinamente uno de los agujeros mientras el electrón está ya en tránsito por el aparato. No importa, la figura en la pantalla es siempre la «correcta» atendiendo al estado de los agujeros en el instante en que el electrón llega a la primera pared. Se puede tratar de ver por cuál de los agujeros pasa el electrón. Cuando el experimento correspondiente se realiza, el resultado es todavía más extraño. Imagínese un dispositivo que registre el paso de un electrón por un agujero sin impedirle seguir su camino hacia el detector. En este caso los electrones se comportan como las partículas corrientes del mundo ordinario. Siempre se detecta un electrón pasando por uno u otro de los agujeros, pero nunca por los dos a la vez. Ahora la figura correspondiente en la pantalla detectara es totalmente análoga a la del caso de las balas, sin ninguna señal de interferencia. Los electrones resulta que no sólo saben si los dos agujeros están abiertos o no, sino también si están siendo observados o no, ajustando su comportamiento en consonancia. No existe un ejemplo más claro de interacción entre el observador y el experimento. Cuando se intenta observar la onda dispersa del electrón, ésta se colapsa en una partícula definida; pero si no se la observa mantiene su carácter. En términos de probabilidades de Born, el electrón se ve forzado, a causa de la observación, a escoger una línea de acción entre una serie de probabilidades. Existe una cierta probabilidad de que pase por un agujero, y una probabilidad equivalente de que lo haga por el otro; la interferencia entre probabilidades origina la figura de difracción en la pantalla. Si se detecta el electrón, éste sólo puede estar en un sitio, y esto modifica la distribución de probabilidad en su evolución posterior; para este electrón, ahora es posible afirmar a través de qué agujero pasó. Pero salvo que alguien lo observe, la naturaleza misma no «sabe» por qué agujero pasa el electrón.

El colapso de las ondas
El dato es la observación. Una observación experimental sólo tiene sentido en el contexto del experimento y no puede utilizarse para extrapolaciones sobre características no observadas. Se puede decir que el experimento de la doble rendija indica que se está trabajando con ondas; igualmente, si sólo se observa la figura en la pantalla detectora, se puede deducir que el aparato tiene dos agujeros, no uno. El todo es lo que tiene relevancia: el aparato, los electrones y el observador son partes integrantes del experimento. No se puede afirmar que un electrón pasa por uno de los agujeros si no se están observando los agujeros ante el paso de los electrones (y esto es un experimento diferente). Un electrón sale del disparador y llega al detector, y parece que posee información del montaje experimental completo, incluyendo al observador. Como Feynman explicaba a su audiencia televisiva de la BBC en 1965, si se dispone de un aparato capaz de indicar a través de cuál de los agujeros pasa el electrón, sólo entonces se puede afirmar que pasa por uno o por el otro. Pero si no se posee un aparato para determinar por cuál de ellos pasa el electrón, no se puede afirmar nada con seguridad. «Concluir que el electrón pasa bien por uno o por el otro de los agujeros cuando no se le está observando es originar un error», afirmó. El término holista se ha convertido en una palabra de uso tan equívoco que es dudoso adoptarlo. No obstante, no hay vocablo más apto para describir el mundo cuántico. Es holista; las partes están, en cierta medida, en interacción con el todo. Y el todo no se refiere exclusivamente al montaje experimental. El mundo parece reservarse todas sus opciones, todas sus probabilidades, que están tan abiertas como sea posible. Lo extraño de la usual interpretación de Copenhague del mundo cuántico es que es el acto de observar al sistema físico lo que le obliga a seleccionar una de sus opciones, que entonces se hace real.
En el más sencillo experimento con los dos agujeros, la interferencia de las probabilidades puede interpretarse en términos del electrón que, tras abandonar el disparador, se desvanece desapareciendo de la vista, y es sustituido por una colección de electrones fantasmas, cada uno con un camino diferente hasta llegar a la pantalla detectora. Los fantasmas interfieren entre sí y cuando se observa la detención de los electrones en la pantalla se encuentran las huellas de esta interferencia, incluso si se trabaja con un solo electrón real en cada instante. Sin embargo, esta distribución de electrones fantasmas sólo da cuenta de lo que pasa cuando no se observa; cuando se hace, todos los fantasmas excepto uno desaparecen y uno de esos fantasmas se materializa como un electrón real. En términos de la ecuación de ondas de Schrödinger, cada uno de esos electrones fantasmas corresponde a una onda, o más bien a un paquete de ondas, las ondas que Born interpretó como una medida de la probabilidad. La observación que obliga a cristalizarse a uno de los fantasmas de la colección de electrones potenciales es equivalente, en términos de mecánica ondulatoria, a la desaparición de toda la distribución de ondas de probabilidad excepto un paquete de ondas que describa un electrón real. Esto recibe el nombre de colapso de la función de onda y, por extraño que resulte, constituye el núcleo de la interpretación de Copenhague, que a su vez es el fundamento de la cocina cuántica.
Es sumamente dudoso, no obstante, que muchos de los físicos, ingenieros electrónicos y otros que utilizan el recetario cuántico sean conscientes de que las reglas que resultan tan fiables en el diseño de láseres y computadores, o en el estudio de material genético, se basan explícitamente en la hipótesis de que miríadas de partículas fantasmas interfieren constantemente entre sí y que sólo se funden en una única partícula real cuando la función de onda se colapsa durante una observación. Y lo que aún es peor, en cuanto se detiene la observación del electrón, o de lo que sea, éste se desdobla inmediatamente en una nueva colección de partículas fantasmas, cada una siguiendo su propio camino aleatorio a través del mundo cuántico. Nada es real salvo que sea observado, y cesa de ser real en cuanto se detiene la observación.
Es posible que la gente que utiliza el recetario cuántico lo haga por la familiaridad de las ecuaciones matemáticas. Feynman explica la receta básica de forma simple. En mecánica cuántica, un suceso es un conjunto de condiciones iniciales y finales, ni más ni menos. Un electrón abandona el disparador a un lado del dispositivo experimental, y el electrón llega a un detector particular al otro lado de la pared. Eso es el suceso. La probabilidad de un suceso viene dada por el cuadrado de un número que es, esencialmente, la función de onda de Schrödinger, ψ). Si hay más de una forma en que el suceso puede ocurrir (estando abiertos los dos agujeros), entonces la probabilidad de cada suceso posible (la probabilidad de que el electrón llegue a un detector determinado) viene dada por e cuadrado de la suma de las funciones de onda, y aparece interferencia. Pero si se efectúa una observación para descubrir cuál de las alternativas ocurre en realidad (detectar por qué agujero pasa el electrón) la distribución de probabilidad es justamente la suma de los cuadrados de las respectivas funciones de onda, y el término de interferencia desaparece; la función de onda se colapsa.
La física en este caso resulta imposible de aplicar, pero las matemáticas son claras y simples, son ecuaciones familiares a cualquier físico. En tanto que se evite preguntar el significado de lo que hace, no hay problemas. Pregúntese por qué el mundo ha de ser así, y el mismo Feynman tiene que contestar, «no tenemos ni idea». Si se insiste en solicitar una imagen física de lo que ocurre, se encontrará todas las explicaciones disueltas en un mundo de fantasmas donde las partículas sólo parecen reales cuando se las observa, y donde incluso propiedades como el momento y la posición son únicamente artilugios de las observaciones. No es sorprendente que muchos físicos de prestigio, incluyendo a Einstein, hayan dedicado décadas enteras a tratar de encontrar vías alternativas a esta interpretación de la mecánica cuántica. Sus intentos, que serán descritos brevemente en el capítulo siguiente, han fallado todos, y cada nuevo fallo en los conatos por acabar con la interpretación de Copenhague ha reforzado la base de esta imagen de un mundo fantasmal de probabilidades, preparando el terreno para continuar más allá de la mecánica cuántica y para desarrollar una imagen nueva del universo holista. La base para esta nueva imagen es la expresión última del concepto de complementariedad, pero aún queda por explicar otra difícil teoría antes de poder pasar a las implicaciones.

Reglas complementarias
La relatividad general y la mecánica cuántica se toman normalmente como los dos grandes triunfos de la física teórica del siglo veinte, y el deseo de todo físico es lograr una verdadera unificación de ambas en una gran teoría. Sus esfuerzos, como se verá, están proporcionando ciertamente notables avances en el conocimiento de la naturaleza del Universo. Pero aquellos esfuerzos no parecen tener en cuenta el hecho de que en un sentido estricto las dos imágenes del mundo pueden resultar irreconciliables.
En su primera exposición de lo que se dio en llamar la interpretación de Copenhague, alrededor de 1927, Bohr señaló el contraste entre descripciones del mundo en términos de una pura coordinación espacio-temporal y una causalidad absoluta, y la imagen cuántica, donde el observador interfiere con el sistema sujeto a observación y es una parte del mismo sistema. Las coordenadas en el espacio-tiempo representan la posición; la causalidad se basa en el conocimiento preciso de las cosas que están ocurriendo, esencialmente en el conocimiento de sus momentos. Las teorías clásicas suponen que se pueden conocer ambas a la vez; la mecánica cuántica demuestra que la precisión en la coordinación del espacio-tiempo se paga con incertidumbre en el momento y, por tanto, en la causalidad. La relatividad general es una teoría clásica, en este sentido, y no puede tenerse como la pareja que, junto con la mecánica cuántica, proporcionan una descripción fundamental del Universo. Caso de llegarse a un conflicto entre ambas teorías, es la cuántica la que debe adoptarse para lograr la mejor descripción del mundo en que vivimos.
Pero, ¿qué es eso del «mundo en que vivimos»? Bohr sugirió que la misma idea de un mundo único puede ser equívoca y ofreció otra interpretación del experimento de la doble rendija. Incluso en un experimento tan simple, existen muchos caminos por los que un electrón o fotón pueden atravesar cada uno de los agujeros. Pero supóngase que sólo hay dos posibilidades: que la partícula pase por el agujero A o que pase por el B. Bohr afirma que hay que entender cada una de estas posibilidades como representativa de un mundo diferente. En un mundo, la partícula pasa por el agujero A; en el otro, pasa por el agujero B. El mundo real, el mundo de la experiencia, no es ninguno de esos mundos simples. Este mundo es una mezcla híbrida de esos dos mundos posibles correspondientes a los dos trayectos de la partícula, y cada mundo interfiere con el otro. Si se observa por cuál de los agujeros pasa el electrón, ya sólo hay un mundo porque se elimina la otra posibilidad, y en este caso ya no hay interferencia. No son exactamente electrones fantasmas lo que Bohr infiere de las ecuaciones cuánticas, sino realidades fantasmas, mundos fantasmas que sólo existen cuando no son observados. Imagínese este simple ejemplo elaborado hasta el punto de implicar no sólo dos mundos unidos por un experimento de doble rendija, sino miríadas de colecciones de realidades fantasmas correspondientes a las miríadas de formas según las cuales cada sistema cuántico del Universo puede evolucionar. Considérese cada posible función de onda para cada partícula posible (o cada valor permitido para los números q de Dirac). Combínese esto con el problema de que un electrón en A sabe si el agujero B está abierto o cerrado, y que, en principio, sabe el estado cuántico de todo el Universo. Ahora será fácil comprender por qué la interpretación de Copenhague fue atacada tan duramente por alguno de los expertos que comprendió sus más profundas implicaciones, a pesar de que otros también expertos, aunque molestos por tales implicaciones, encontraran convincente la explicación. Sin embargo, muchas personas totalmente despreocupadas por las implicaciones últimas, procedieron felizmente a utilizar el recetario cuántico, colapsando funciones de onda y todo lo que ello conllevaba, para transformar el mundo en que vivimos.

Capítulo 9
Paradojas y posibilidades

Cada ataque contra la interpretación de Copenhague ha reforzado su posición. Cuando pensadores de la talla de Einstein tratan de poner de manifiesto los defectos de una teoría, pero los defensores de ésta logran refutar los argumentos de los atacantes, la teoría debe emerger con mayor firmeza tras la prueba. La interpretación de Copenhague es definitivamente correcta, puesto que funciona. Cualquier otra mejor interpretación de las reglas cuánticas debe incluir a la de Copenhague como un punto de vista operativo que permite a los experimentalistas predecir el resultado de sus experimentos —al menos en un sentido estadístico— y que sirve para que los ingenieros diseñen sistemas con láseres, ordenadores y demás. No vale la pena mencionar todo el trabajo de fundamentación que se produjo como resultado de la refutación de todas las contrapropuestas a la interpretación de Copenhague; esta tarea ha sido muy bien realizada por otros. No obstante, quizá convenga señalar un punto importante que menciona Heisenberg en su libro Physics and Philosophy, del año 1958. Todas las contrapropuestas, señalaba Heisenberg, se ven «obligadas a sacrificar la simetría esencial de la teoría cuántica (por ejemplo, la simetría entre ondas y partículas o entre posición y velocidad). Entonces, se puede suponer razonadamente que la interpretación de Copenhague no puede evitarse si estas propiedades de simetría… resultan ser una característica genuina de la naturaleza; y, por ahora, cada experimento realizado confirma este punto de vista» (página 128).
Existe una variación más refinada de la interpretación de Copenhague (no una refutación o contrapropuesta) que desde luego incluye esta simetría esencial; esta imagen quizá más asequible de la realidad cuántica será descrita en el capítulo once. Sin embargo, no es sorprendente que Heisenberg la ignorara en su libro publicado en 1958, ya que el nuevo modelo empezó a desarrollarse en esa época, de la mano de un estudiante de doctorado en los Estados Unidos. Antes de exponer tal contribución, sin embargo, es mejor exponer cómo la combinación de teoría y experimentos han llegado a establecer en 1982, fuera de toda duda, la validez de la interpretación de Copenhague como punto de vista operativo de la realidad cuántica. La historia comienza con Einstein, y acaba en un laboratorio de física en París, más de cincuenta años después; es una de las grandes historias de la ciencia.

El reloj en la caja
El gran debate entre Bohr y Einstein sobre la interpretación de la teoría cuántica comenzó en 1927 en el quinto Congreso Solvay, y continuó hasta la muerte de Einstein en 1955. Einstein, además, mantuvo una correspondencia continua con Born sobre el mismo tema, de la que pueden extraerse importantes conclusiones del debate a través de la lectura de The Born-Einstein Letters. La polémica se centró en torno a una serie de testes imaginarios de las predicciones de la interpretación de Copenhague, no mediante experimentos reales llevados a cabo en el laboratorio, sino mediante experimentos imaginarios. El juego consistía en que Einstein trataba de diseñar un experimento en el que sería teóricamente posible medir dos magnitudes físicas complementarias simultáneamente, la posición y el momento de una partícula, o su energía exacta en un preciso instante, por ejemplo. Bohr y Born trataban de demostrar entonces cómo el experimento imaginado por Einstein no podía llevarse a cabo en la forma requerida para socavar los cimientos de la teoría. Un ejemplo, el experimento del reloj en la caja, servirá para ilustrar cómo iba este juego científico.
Imagínese una caja, en palabras de Einstein, con un agujero en una de sus paredes cubierto por un obturador que se abre y se cierra mediante el control ejercido por un reloj que se encuentra en el interior de la caja. Además del reloj y del mecanismo del obturador, la caja está plena de radiación. Dispóngase el aparato de forma que en un preciso instante de tiempo, previamente determinado, el obturador se abre y permite la salida de un fotón antes de volverse a cerrar. Pésese la caja, tanto antes como después de la salida del fotón. En virtud de la equivalencia entre masa y energía, la diferencia entre las dos pesadas suministra la energía de! fotón ausente. De esta forma se conoce la energía exacta del fotón y el instante preciso en que atravesó el agujero, lo cual proporciona una refutación del principio de incertidumbre.

img021.jpg
Fig. 9-1. El experimento del reloj en la caja. La parafernalia que se necesita para que el experimento funcione (pesas, muelles, etcétera) hace siempre imposible eliminar la incertidumbre en la medida simultánea de la energía y del tiempo (véase el texto).

Bohr, como siempre ante este tipo de argumentos, acertaba de pleno tras considerar los detalles prácticos que podían hacer viables las mediciones. La caja ha de pesarse, por lo que debe estar suspendida mediante un resorte, por ejemplo, en un campo gravitatorio. La marcha del reloj depende de su posición en el campo gravitatorio, como el mismo Einstein había establecido en su teoría de la relatividad. Cuando el fotón se escapa, el reloj se mueve, tanto porque a causa de la variación de peso el resorte se contrae, como en virtud del retroceso causado por el fotón. Como su posición puede cambiar existe cierta incertidumbre en su localización en el campo gravitatorio y, como consecuencia de ella, cierta incertidumbre en la marcha del reloj. Incluso si se añade un pequeño peso a la caja para situar el resorte en su posición original, y se mide este peso extra para determinar la energía del fotón, no se pasa de lograr una reducción de la incertidumbre dentro de los límites permitidos por la relación de Heisenberg, que en este caso es ΔE Δt > ℏ. Parece fuera de toda duda que Bohr estaba dispuesto de manera especial a refutar los argumentos de Einstein con la ayuda de las propias ecuaciones de la relatividad de Einstein.
Los detalles de éste y otros experimentos imaginados que aparecieron en el curso del debate Einstein-Bohr se pueden encontrar en el libro de Abraham Pais Subtle Is the Lord…. Pais señala que no existe nada personal en la insistencia de Bohr en una descripción completa y detallada de los míticos experimentos; en este caso, los pesados tomillos que fijan la balanza, el resorte que permite medir la masa pero que debe permitir también el movimiento de la caja, el peso pequeño que debe añadirse, y todo lo demás. Los resultados de todos los experimentos tienen que ser interpretados en términos del lenguaje clásico, del lenguaje de la realidad cotidiana, y los instrumentos utilizados para medir deben ser descritos de esa misma forma. Se podría fijar la caja rígidamente de forma que no hubiera incertidumbre en su posición, pero entonces sería imposible medir el cambio de masa. El dilema de la incertidumbre surge al tratar de expresar ideas cuánticas con el lenguaje ordinario, y es por eso que Bohr señaló la importancia de los tornillos y de las tuercas en los experimentos.

La paradoja E.P.R.
Einstein aceptó la crítica de Bohr de éste y otros experimentos imaginados, y a principios de la década de los 30 presentó una nueva clase de testes imaginados de las reglas cuánticas. La idea básica subyacente en esta nueva tentativa consistía en utilizar la información experimental sobre una partícula para deducir propiedades, como la posición y el momento, de una segunda partícula. Esta versión del debate no llegó a ser resuelta en vida de Einstein, pero ya ha sido satisfactoriamente contrastada, no mediante un apropiado experimento imaginado, sino mediante un experimento real, de laboratorio. Una vez más, Bohr ha resultado ganador y Einstein derrotado.
A principios de los años 30, la vida personal de Einstein pasó por un período de confusión. Tuvo que abandonar Alemania a causa de la amenaza de persecución por el régimen nazi. En 1933 se estableció en Princeton, y en diciembre de 1936 moría Elsa, su segunda esposa, tras una larga enfermedad. En medio de tanto contratiempo él continuó preocupándose por la interpretación de la teoría cuántica, derrotado por los argumentos de Bohr pero sin quedar interiormente convencido por la interpretación de Copenhague; con su inherente incertidumbre y con su falta de causalidad estricta, no podía ser ésta la última palabra que sirviera como descripción válida del mundo real. Max Jammer ha descrito con exhaustivos detalles la evolución del pensamiento de Einstein acerca de este tema por aquella época, en The Philosophy of Quantum Mechanics. Se unieron varios cabos entre 1934 y 1935, cuando Einstein elaboró en Princeton junto con Boris Podolsky y Nathan Rosen un artículo en el que se presentaba lo que se conoce como «la Paradoja E.P.R.», a pesar de que no describe ningún tipo de paradoja.[53]
El punto básico es el siguiente: de acuerdo con Einstein y sus colaboradores, la interpretación de Copenhague debía considerarse como incompleta; en realidad existe algún mecanismo subyacente que opera en el Universo y que sólo da la apariencia de incertidumbre e impredictibilidad al nivel cuántico a través de variaciones estadísticas. De acuerdo con este punto de vista, existe una realidad objetiva, un mundo de partículas con momento y posición definidas simultáneamente de forma precisa aun cuando no estén sometidas a observación.
Siguiendo a Einstein, Podolsky y Rosen, imagínese dos partículas en interacción que son separadas de forma que ya no interaccionan con nada más hasta que el observador decide investigar en tomo a una de ellas. Cada partícula tiene su propio momento y está localizada en alguna posición en el espacio. Incluso con las reglas de la teoría cuántica es posible medir con absoluta precisión el momento total de las dos partículas y la distancia entre ellas, cuando se encontraban interaccionando. Cuando, mucho después, se decide medir el momento de una de las partículas, se conocerá automáticamente el momento de la otra, ya que el momento total no cambia con el tiempo. Una vez medido el momento, se mide la posición precisa de esa misma partícula. Ello alterará el momento de ésta, pero no (presumiblemente) el momento de la otra partícula del par; la que está sumamente alejada. De esta medida de posición se puede deducir la posición actual de la segunda partícula a partir de su momento y de la separación inicial entre ambas. Así es posible deducir tanto la posición como el momento de la partícula lejana, lo que supone una violación del principio de incertidumbre. A no ser que las medidas efectuadas sobre la partícula próxima afecten a su par lejano en una violación de la causalidad al tratarse de una comunicación instantánea que atraviesa el espacio («acción a distancia»).
Si se acepta la interpretación de Copenhague, concluye el artículo E.P.R., se «llega a que la realidad de la posición y el momento del segundo sistema depende del proceso de medida llevado a cabo en el primer sistema, que no ejerce ningún tipo de perturbación sobre el segundo. No cabe ninguna definición razonable de realidad que permita esto».[54] Aquí es donde el equipo divergía claramente de la mayor parte de sus colegas y de toda la escuela de Copenhague. Nadie estaba en desacuerdo con la lógica de la argumentación, sino que discrepaban en lo que constituye una definición razonable de realidad. Bohr y sus colegas basaban sus teorías en la idea de una realidad en la que la posición y el momento de la segunda partícula carecía de significado objetivo en tanto no fueran medidas, con independencia de cómo se actúe con la primera partícula. Debía elegirse entre un mundo de realidades objetivas y el mundo cuántico. Pero Einstein se situó dentro de una pequeña minoría al decidir que de las dos opciones posibles él se inclinaba por la de la realidad objetiva, rechazando la interpretación de Copenhague.
Einstein era una persona honesta, siempre dispuesto a aceptar la evidencia experimental sólida. Si hubiera vivido para verlo, ciertamente habría sido persuadido por las recientes confirmaciones experimentales de que estaba equivocado. La realidad objetiva no tiene cabida en una descripción fundamental del Universo; en tanto que sí la tiene la acción a distancia o la acausalidad. La verificación experimental de esto es tan importante que se ha reservado un capítulo para explicarla. Pero antes de ello, y para que el proceso quede más completo, hay que detenerse en algunas de las otras posibilidades paradójicas inherentes a las reglas cuánticas; las partículas que viajan hacia atrás en el tiempo y, finalmente, el famoso gato medio muerto de Schrödinger.

Viaje en el tiempo
Los físicos emplean frecuentemente un artificio simple para representar el movimiento de partículas a través del espacio y del tiempo en una hoja de papel o en una pizarra. La idea consiste sencillamente en representar el flujo del tiempo en la dirección ascendente de abajo a arriba de la página, y el cambio de posición en el espacio a lo largo de la hoja. Esto reduce tres dimensiones espaciales a una, pero da lugar a representaciones que resultan familiares inmediatamente para cualquiera que haya operado con gráficas, correspondiendo el tiempo al eje «y» y el espacio al eje «x». Estos diagramas espacio-tiempo aparecieron en primer lugar como una herramienta de incalculable valor para la física moderna en la teoría de la relatividad, donde pueden utilizarse para representar muchas de las peculiaridades de las ecuaciones de Einstein en términos geométricos que, a veces, son más sencillos para operar y, en otras ocasiones, son más cómodos para comprender. Fueron adoptados en física de partículas por Richard Feynman en los años 40 y, en ese contexto, usualmente se les conoce como diagramas de Feynman; en el mundo cuántico de las partículas, la representación espacio-tiempo también puede reemplazarse por una descripción en términos de momento y energía, que es más adecuada para el estudio de colisiones entre partículas, pero aquí nos limitaremos a una simple descripción en el espacio-tiempo.
El movimiento de un electrón se representa en un diagrama de Feynman mediante una línea. Un electrón fijo en su lugar del que nunca se mueve se representa por un segmento vertical ascendente que corresponde a un solo movimiento en el tiempo; un electrón que cambia lentamente de posición en el transcurso del tiempo se representa por un segmento ligeramente desviado respecto a la vertical ascendente, y un electrón en movimiento rápido se reconoce por el gran ángulo que forma su línea universo con la de una partícula estacionaria. El movimiento en el espacio puede efectuarse en cualquier dirección, tanto a la izquierda como a la derecha de la representación, y la línea respectiva puede zigzaguear si el electrón es desviado por la colisión con otras partículas. Pero en el mundo cotidiano, o en el mundo de los simples diagramas espacio-tiempo de la teoría de la relatividad, no es previsible la aparición de líneas universo que retrocedan y avancen en el sentido descendente de la página, ya que ello correspondería a un movimiento hacia atrás en el tiempo.

img022.jpg
Fig. 9-2. El movimiento de una partícula a través del espacio y del tiempo puede representarse mediante una línea universo.

Continuando con el ejemplo de los electrones, se puede dibujar un simple diagrama de Feynman que muestre cómo un electrón moviéndose en el espacio-tiempo choca con un fotón y cambia su dirección, después emite un fotón y retrocede según otra dirección. Los fotones juegan un papel crucial en esta descripción del comportamiento de las partículas, al actuar como los portadores de la fuerza eléctrica. Cuando dos electrones se aproximan, ejercen una repulsión mutua que los vuelve a alejar a causa de la fuerza eléctrica que se da entre partículas con carga eléctrica del mismo tipo. El diagrama de Feynman asociado a tal fenómeno presenta dos líneas universo convergentes, a continuación un fotón que emerge de uno de los electrones (que a su vez retrocede) y que es absorbido por el otro electrón (que resulta impulsado en otra dirección).[55] Los fotones no son únicamente los portadores del campo eléctrico, poseen más funciones. Dirac demostró que un fotón suficientemente energético podía producir un electrón y un positrón en el vacío, convirtiendo su energía en las masas respectivas. El positrón (el hueco del electrón de energía negativa) será de corta vida, porque encontrará en seguida otro electrón y el par se aniquilará originando una explosión de radiación energética que se puede representar en una forma simple como un único fotón.

img023.jpg
Fig. 9-3. Un electrón se mueve a través del espacio y del tiempo, emite un fotón (rayo X) y retrocede con un cierto ángulo.

Otra vez, la interacción completa puede ser representada de forma simple en un diagrama de Feynman. Un fotón viajando por el espacio-tiempo crea espontáneamente un par electrón-positrón; el electrón sigue su camino; el positrón encuentra otro electrón y se aniquilan, apareciendo otro fotón en escena. Pero el descubrimiento que hizo Feynman en 1949 es que la descripción en el espacio-tiempo de un positrón moviéndose hacia adelante en el tiempo es exactamente equivalente a la misma descripción matemática de un electrón moviéndose hacia atrás en el tiempo a lo largo de la misma línea en el diagrama de Feynman.

img024.jpg
Fig. 9-4. Parte de la historia de la vida de un electrón en la que aparecen dos interacciones con fotones.

img025.jpg
Fig. 9-5. A la izquierda, un rayo gamma produce un par electrón-positrón y, después, el positrón se encuentra con otro electrón aniquilándose ambos y resultando otro fotón. A la derecha, un único electrón moviéndose en zigzag a través del espacio-tiempo e interaccionando con dos fotones en la forma de la figura 9-4. Pero en una parte de su vida, este electrón se mueve hacia atrás en el tiempo. Las dos imágenes resultan ser matemáticamente equivalentes.

img026.jpg
Fig. 9-6. En general, la aniquilación de un par partícula-antipartícula puede también ser descrita como una dispersión tan violenta que envía a la partícula hacia atrás en el tiempo.

En cuanto a los fotones, al ser ellos mismos sus propias antipartículas, no hay diferencia en esta descripción entre un fotón moviéndose hacia adelante en el tiempo y otro moviéndose hacia atrás en el tiempo. A efectos prácticos, se puede prescindir de los sentidos de las trazas de fotones en un diagrama e invertir el sentido en la de un positrón tomándola como la de un electrón. El mismo diagrama anterior de Feynman se lee ahora de diferente forma: un electrón en el espacio-tiempo se encuentra con un fotón energético, lo absorbe, y es dispersado hacia atrás en el tiempo hasta que emite un fotón energético y retrocede de forma que vuelve a desplazarse otra vez hacia adelante en el tiempo. En lugar de tres partículas (dos electrones y un positrón en un movimiento complicado) ahora sólo interviene una partícula, un electrón que zigzaguea en el espacio-tiempo, colisionando con fotones en su camino.
En términos de geometría de diagramas, existe una similitud clara entre el ejemplo del electrón que absorbe un fotón de baja energía, altera ligeramente su camino y después emite el fotón y vuelve a cambiar de dirección, con el caso del electrón, tan violentamente dispersado por la interacción con el fotón, que viaja hacia atrás en el tiempo durante una parte de su vida. En ambos casos hay una línea en zigzag con tres tramos rectos y dos vértices. La diferencia está en que en el segundo caso los ángulos son mayores. Fue John Wheeler el primero en intuir que ambos diagramas en zigzag representaban el mismo tipo de suceso, pero fue Feynman quien demostró la equivalencia matemática completa entre ambos.

img027.jpg
Fig. 9-7. Richard Feynman estableció la equivalencia matemática de todos los diagramas del espacio-tiempo con doble codo.

En primer lugar, se mantuvo la idea de que el fotón era su propia antipartícula, por lo que era factible no tener en cuenta la orientación de las trazas del fotón. Un fotón yendo hacia adelante en el tiempo es lo mismo que un antifotón yendo hacia atrás en el tiempo; pero un antifotón es un fotón, de forma que un fotón yendo hacia adelante en el tiempo es lo mismo que un fotón yendo hacia atrás en el tiempo. ¿Resulta sorprendente? Debería serlo. Entre otras cosas, significa lo mismo decir que un átomo en un estado excitado tras emitir energía cae en el estado fundamental, que la energía electromagnética viajando hacia atrás en el tiempo llega hasta el átomo y origina la transición. Esto es un poco complicado de imaginar, porque ahora no se habla de un fotón individual moviéndose en línea recta por el espacio, sino de una superficie esférica creciente de energía electromagnética, de un frente de onda propagándose en todas las direcciones que parten del átomo y sufriendo distorsiones y dispersiones en su avance. La inversión de esta imagen produce un universo en el que un frente de onda perfectamente esférico centrado en el átomo en cuestión ha de ser creado por el Universo y tras una serie de procesos de dispersión ha de converger en ese átomo concreto.
No es la intención de este libro profundizar en esta línea de pensamiento porque, entre otras cosas, se aleja de la teoría cuántica entrando en el terreno de la cosmología. Pero tiene amplias implicaciones para el conocimiento del tiempo y del porqué de nuestra percepción del mismo según un flujo unidireccional. Expuesto de manera simple, la radiación emitida por un átomo en un momento preciso será absorbida por otros átomos más tarde. Esto sólo es posible porque la mayoría de aquellos otros átomos se encuentran en su estado fundamental, lo que significa que el futuro del Universo es frío. La asimetría que se percibe como flujo unidireccional del tiempo es la asimetría entre las épocas más frías y más calientes del Universo. Es más fácil pensar en un futuro frío en términos de un Universo en expansión, porque la expansión misma produce un efecto de enfriamiento; y el hombre vive, efectivamente, en un Universo en expansión. La naturaleza del tiempo, como se ve, puede estar relacionada íntimamente con la naturaleza del Universo en expansión.[56]

El tiempo de Einstein
Pero ¿cómo «ve» el propio fotón el flujo del tiempo? Se sabe por teoría de la relatividad que los relojes en movimiento marchan más lentamente cuanto más se aproximan a la velocidad de la luz. A la velocidad de la luz el tiempo se detiene y el reloj se para. Un fotón, naturalmente, viaja a la velocidad de la luz y esto supone que para un fotón el tiempo carece de sentido. Un fotón que abandona una estrella lejana y llega a la tierra puede invertir miles de años en el viaje, medidos por los relojes terrestres, pero no emplea tiempo alguno en lo que al propio fotón se refiere. Un fotón de la radiación de fondo cósmica ha estado, bajo el punto de vista que predomina en este libro, viajando por el espacio unos quince mil millones de años a partir del Big Bang que originó el Universo, pero para el fotón mismo el Big Bang y el presente son el mismo instante. La línea correspondiente a un fotón en un diagrama de Feynman no tiene dirección en el tiempo, no sólo porque el fotón es su propia antipartícula, sino porque el movimiento en el tiempo no tiene sentido para el fotón; y por eso es por lo que él es su propia antipartícula.
Los divulgadores y místicos que tratan de encontrar una relación entre la filosofía oriental y la física moderna parecen no haber entendido este punto, que implica el que todo el Universo (pasado, presente y futuro) está interconectado a través de una malla de radiación electromagnética, que «ve» todo a la vez. Por supuesto, los fotones pueden ser creados y destruidos, de forma que la red es incompleta. Pero la realidad es una línea de fotón en el espacio-tiempo, relacionando un ojo con, quizá, la Estrella Polar. No hay un movimiento real en el tiempo asociado a una línea que va de la estrella al ojo; el trazo es simplemente la percepción obtenida desde nuestro punto de vista. Otra forma de entender el fenómeno, e igualmente válida, consiste en imaginar la línea como algo eterno alrededor de la cual evoluciona el Universo, y durante estos cambios del Universo una de las cosas que ocurren es que ese ojo y la Estrella Polar ocupan los extremos del trazo.

img028.jpg
Fig. 9-8. Si los trazos de todas las partículas estuvieran fijos de alguna forma en el espacio-tiempo, se podría observar una ilusión de movimientos e interacciones mediante la percepción obtenida desde ahora (en la imagen de la derecha) en adelante, por traslación hacia arriba en el papel. ¿No será la danza de las partículas una simple ilusión causada por nuestra percepción del flujo del tiempo?

¿Qué se puede decir de las líneas correspondientes al resto de las partículas en los diagramas de Feynman? ¿En qué medida son reales? Se puede aplicar lo mismo que en el caso del fotón. Imagínese un diagrama de Feynman que abarque todo el espacio-tiempo, con las líneas de cada partícula dibujadas en él. Imagínese, a continuación, que se observa el diagrama a través de una estrecha ranura que permite únicamente explorar una franja limitada de tiempo, y que esa ranura se mueve uniformemente de abajo a arriba. A través de la ranura se ve una danza compleja de partículas en interacción, de producción de pares, de aniquilaciones y otros sucesos más complejos en un panorama cambiante. No obstante, lo que se está explorando es algo que está fijo en el espacio y en el tiempo. Es la percepción la que cambia, no la realidad subyacente. Al estar condicionados por la observación a través del movimiento permanente y uniforme de la ranura, se observa un positrón moviéndose hacia adelante en el tiempo en vez de un electrón moviéndose hacia atrás en el tiempo, pero tan válida es una interpretación como la otra. John Wheeler ha ido más lejos en este sentido al afirmar que se podría imaginar a todos los electrones del Universo conectados por interacciones hasta llegar a formar un zigzag enormemente complejo, hacia adelante y hacia atrás en el espacio-tiempo. Esta visión tuvo gran influencia en el trabajo definitivo de Feynman; era la imagen de «un único electrón yendo constantemente de un lado para otro, de acá para allá en el espacio-tiempo, hasta tejer una rica tapicería que quizá contenga todos los electrones y positrones del mundo».[57] En esta imagen cualquier electrón en cualquier estado no sería sino un segmento diferente de una única línea Universo, la del único electrón real.
Esta idea no parece razonable en nuestro Universo. Si lo fuera habría que encontrar tantos segmentos invertidos de la línea Universo, tantos positrones, como segmentos en el sentido correcto; o sea electrones. La idea de una realidad fija, siendo la precepción el único dato cambiante, probablemente tampoco encaja a este nivel simple; ¿cómo puede reconciliarse con el principio de incertidumbre?[58]Sin embargo, el conjunto de estas ideas supone una mejor comprensión de la naturaleza del tiempo que la proporcionada por nuestra experiencia cotidiana. El flujo del tiempo en el mundo ordinario es un efecto estadístico, en gran parte causado por la expansión del Universo desde un estado más caliente a otro más frío. Pero incluso a este nivel las ecuaciones de la relatividad permiten el viaje en el tiempo, y el concepto puede entenderse de forma sencilla en términos de diagramas espacio-tiempo.[59]
El movimiento en el espacio puede ocurrir en cualquier dirección y después en la opuesta. El movimiento en el tiempo sólo tiene lugar en una dirección en el mundo de cada día, y ello parece regir también al nivel de las partículas. No se pueden visualizar las cuatro dimensiones del espacio-tiempo formando los ejes relativos ángulos rectos entre sí, pero se puede dejar de lado una dimensión e imaginar lo que significaría ésta regía estricta si se aplica a una de las tres dimensiones escogidas. Es como si estuviera permitido el movimiento hacia arriba y hacia abajo, hacia adelante y hacia atrás, pero el movimiento lateral se viera limitado a dirigirse siempre hacia la izquierda, por ejemplo. El movimiento hacia la derecha está prohibido. Si se toma ésta como la regla fundamental para un juego de niños, y se le pregunta a uno de los participantes sobre la forma de alcanzar un premio que se encuentre en el lado de la derecha (hacia atrás en el tiempo), no le llevará mucho tiempo encontrar una forma de resolver el problema. Simplemente se dará la vuelta, con lo que intercambiará derecha por izquierda, y ahora podrá moverse hacia la izquierda hasta alcanzar el premio. Una alternativa es estirarse en el suelo, con lo que el premio se encontrará hacia arriba con referencia a la cabeza. Es posible moverse hacia arriba hasta tomar el premio y bajar hasta la posición original, recuperando la orientación espacial inicial frente a los posibles espectadores.[60] La técnica permitida por la teoría de la relatividad para viajar en el tiempo es muy similar. Consiste en distorsionar la estructura del espacio-tiempo de forma que en una región local del espacio-tiempo el eje de tiempos apunte en una dirección equivalente a una de las tres direcciones espaciales en la región del espacio-tiempo sin distorsión. Una de las direcciones espaciales asume el papel del tiempo, e intercambiando espacio y tiempo resulta así posible el viaje en el tiempo, tanto hacia adelante como hacia atrás.
El matemático estadounidense Frank Tipler ha efectuado los cálculos que demuestran la posibilidad teórica de ese experimento. El espacio-tiempo se puede distorsionar mediante campos gravitatorios intensos, y la máquina del tiempo imaginaria de Tipler es un cilindro de enorme masa, conteniendo tanta materia como la que hay en nuestro Sol, almacenada en un volumen de 100 km de largo y 10 km de radio, tan denso como el núcleo del átomo, girando dos veces por milisegundo y arrastrando consigo la estructura espacio-tiempo. La superficie del cilindro se movería a la mitad de la velocidad de la luz. Éste es un ingenio, que ni el más loco de los inventores locos estaría dispuesto a montar en su trastero, pero lo importante es que ello sería viable bajo el punto de vista de todas las leyes de la física que hoy se conocen. Incluso existe un objeto en el Universo que tiene la masa de nuestro Sol, la densidad de un núcleo atómico, y da una revolución completa cada 1,5 milisegundos, sólo tres veces más lento que la máquina del tiempo de Tipler. Se trata del pulsar del milisegundo, descubierto en 1982. Es altamente improbable que este objeto sea cilíndrico, ya que una rotación tan violenta probablemente le habrá aplanado hasta obtener una forma de torta. Aun así, debe existir una cierta distorsión muy peculiar en sus proximidades. Un viaje real en el tiempo puede no ser imposible, pero sí extremadamente difícil y muy, muy improbable. Esto, que podría representar el primer paso hacia el desastre, sin embargo, hace un poco más aceptable a normalidad del viaje en el tiempo a nivel cuántico. Tanto la teoría cuántica como la relatividad permiten el viaje en el tiempo, de una u otra forma. Y cualquier dato aceptable según ambas teorías, independientemente de lo paradójico que puede parecer, ha de tomarse en serio. El viaje en el tiempo es una parte integral de algunas de las características del mundo de las partículas elementales, donde, incluso si se es lo suficientemente rápido, puede obtenerse algo de nada.

Algo de nada
En 1935, Hideki Yukawa, por entonces un profesor de física de veintiocho años de la Universidad de Osaka, sugirió una explicación para justificar el hecho de que los neutrones y protones de un núcleo atómico se mantengan unidos, a pesar de que la carga positiva tiende a romper el núcleo a causa de la fuerza eléctrica. Es claro que debe existir otra fuerza más intensa que la eléctrica en las condiciones precisas. La fuerza eléctrica es transportada por el fotón, de modo que, según el razonamiento de Yukawa, esta fuerza nuclear intensa también debía ser transportada por otra partícula. Él dio a ésta el nombre de mesón, y calculó su masa (que resultó estar en un punto intermedio entre la del electrón y la del protón, de ahí el nombre) por aplicación de las reglas cuánticas al núcleo. Como los fotones, los mesones son bosones, pero con una unidad de espín no cero. En contraposición a los fotones, los mesones tienen una vida muy corta, siendo ésta la razón por la que sólo han sido vistos fuera del núcleo bajo condiciones especiales. A su debido tiempo se descubrió una familia de mesones, no exactamente acordes a los previstos por Yukawa, pero sí lo suficientemente parecidos como para confirmar que la idea de partículas nucleares intercambiando mesones como portadores de la intensa fuerza nuclear debe ser considerada de la misma forma que la del intercambio de fotones como portadores de la fuerza eléctrica; Yukawa, consecuentemente, recibió el Premio Nobel de Física en 1949.

img029.jpg
Fig. 9-9. En un diagrama de Feynman, dos partículas interactúan intercambiando una tercera partícula. En este caso particular puede tratarse de dos electrones que intercambian un fotón y son repelidos mutuamente.

Esta confirmación de que las fuerzas nucleares, como las eléctricas, pueden entenderse simplemente en términos de interacciones entre partículas constituye una piedra angular en el punto de vista actual que los físicos tienen del mundo. Todas las fuerzas se entienden hoy como interacciones. Pero, ¿de dónde surgen las partículas portadoras de la interacción? Vienen de ningún sitio, de acuerdo con el principio de incertidumbre; son algo de nada.
El principio de incertidumbre se aplica a las propiedades complementarias de tiempo y energía, igual que a la posición y el momento. Cuanto menos incertidumbre hay sobre la energía involucrada en un suceso a nivel atómico, más incertidumbre pesa sobre el tiempo del mismo, y viceversa. Un electrón aislado no existe, porque puede tomar prestada energía de la relación de incertidumbre durante un período suficientemente corto de tiempo, y emplearla en crear un fotón. El problema reside en que, casi tan pronto como el fotón ha sido creado, tiene que ser reabsorbido por el electrón antes de que el mundo en general detecte que la conservación de la energía ha resultado violada. Los fotones sólo existen durante una pequeñísima fracción de segundo, menos de 10−15 segundos, pero están apareciendo y desapareciendo constantemente en tomo a los electrones. Es como si cada electrón estuviera rodeado de una nube de fotones virtuales, que sólo necesitan un ligero impulso, un poco de energía del exterior, para escapar transformándose en un fotón real. Un electrón que pasa de un estado excitado a otro nivel más bajo en un átomo suministra el excedente de energía a uno de sus fotones virtuales y le permite aparecer libre; un electrón que absorbe energía lo que hace realmente es capturar un fotón libre. Y el mismo tipo de proceso proporciona la ligadura que mantiene unidos a todos los elementos del núcleo.

img030.jpg
Fig. 9-10. La vieja idea de la acción a distancia (a la izquierda) ha sido sustituida por la idea de partículas portadoras de fuerza.

img031.jpg
Fig. 9-11. Dos formas diferentes de entender la misma interacción entre partículas; sólo se cambia un neutrino incidente por un antineutrino emergente. Se trata de la desintegración beta, por la cual un neutrón se transforma en un protón, un electrón y un antineutrino.

En términos más usuales se puede decir que, puesto que la masa y la energía son intercambiables, el alcance de una fuerza es inversamente proporcional a la masa de la partícula que proporciona la ligadura correspondiente, o a la masa de la más ligera, si es que hay más de una involucrada en el proceso. Como los fotones no tienen masa, el alcance de la fuerza electromagnética es, en teoría, infinito, aunque esta fuerza se hace infinitamente pequeña a distancias infinitas de la partícula cargada. Los hipotéticos mesones de Yukawa son de tan corto alcance (el de la interacción nuclear fuerte) que debían poseer una masa de 200 a 300 veces la masa del electrón. Los mesones implicados en dicha interacción fueron encontrados en la radiación cósmica en 1946, y se les conoce como mesones pi, o piones. El pión sin carga o pión neutro tiene una masa que es 264 veces a del electrón, y tanto el pión positivo como el negativo son 273 veces más pesados que el electrón. En números redondos los mesones tienen una masa que es aproximadamente un séptimo de la del protón. Dos protones se mantienen ligados en el núcleo a través del intercambio repetido de piones con una masa que representa una fracción considerable de la propia masa del protón, sin que ello suponga una pérdida real de la masa de los protones. Esto sólo es posible porque los protones son capaces de utilizar ventajosamente el principio de incertidumbre. Se crea un pión, llega hasta otro protón y desaparece, todo ello en el momento de incertidumbre permitido por la «distracción» del universo. Los protones y neutrones —nucleones— sólo pueden intercambiar mesones cuando están extremadamente próximos, esencialmente cuando se están tocando, por usar una expresión inapropiada, del mundo cotidiano. De otra forma, los piones virtuales no pueden cruzar la distancia en el tiempo que el principio de incertidumbre les concede. Este modelo explica así por qué la interacción nuclear fuerte es una fuerza que no surte efectos sobre los nucleones exteriores al núcleo, aunque sí lo hace, y de forma sumamente intensa, sobre los nucleones interiores al núcleo.[61]
Un protón es, aún más que el electrón, el centro de su propia nube de actividad. En su camino a través del espacio (y del tiempo) un protón libre está emitiendo y reabsorbiendo constantemente fotones y mesones, ambos virtuales. Pero aún hay otra forma de considerar este fenómeno. Piénsese en un protón emitiendo un pión y reabsorbiéndolo. El proceso es simple. Pero considérese de esta otra forma. Al principio hay un protón; a continuación hay un protón y un pión; finalmente vuelve a haber un protón. Como los protones son partículas indistinguibles, se puede afirmar libremente que el primer protón desaparece, empleándose su energía, y un poco más prestada por el principio de incertidumbre, en la formación de un pión y un nuevo protón. Poco después, ambas partículas colisionan y desaparecen, creándose un tercer fotón en el proceso y restaurando el balance energético del universo. Y, ¿por qué detenerse aquí? ¿Por qué no puede el protón original ceder su energía, y con un poco más, crear un neutrón y un pión cargado positivamente? Es posible. Y, ¿por qué, entonces, no puede un protón intercambiar este pión positivo con un neutrón de forma que el primero se convierta en un neutrón y el neutrón en un protón? También esto es posible, al igual que el proceso inverso según el cual los neutrones «pasan» a protones y aparecen piones negativos.

img032.jpg
Fig. 9-12. Todas las fuerzas fundamentales pueden representarse en términos de intercambio de partículas. En estos ejemplos, dos partículas con masa no nula (M) interaccionan mediante el intercambio de un gravitón (G), y dos quarks interaccionan mediante el intercambio de un gluón.

img033.jpg
Fig. 9-13. La dirección del tiempo en estos diagramas se elige arbitrariamente. En el caso A, un neutrón y un protón moviéndose de abajo arriba interaccionan mediante el intercambio de un mesón. En el caso B, un neutrón y un antineutrón moviéndose de izquierda a derecha se aniquilan produciendo un mesón que, a su vez, se desintegra creando un par protón-antiprotón. Tales reacciones cruzadas muestran cómo los conceptos de fuerza y partícula son indistinguibles.

A partir de aquí las cosas comienzan a complicarse, ya que no hay razón para detener el proceso. Un pión, a su vez, puede transformarse de manera análoga en un neutrón y en un antiprotón durante un corto intervalo de tiempo antes de volver a su estado normal. Esto le puede suceder incluso a un pión virtual que, a su vez, forma parte de un diagrama de Feynman de un protón o de un neutrón. Un protón que sigue tranquilamente su camino puede estallar en un momento dado originando un enjambre de partículas virtuales, todas ellas en interacción, para luego volver a su estado original. Todas esas partículas virtuales pueden entenderse como combinación de otras partículas involucradas en lo que Fritjof Capra llama la danza cósmica. Y la historia no acaba aquí. Hasta ahora, no se ha conseguido algo de nada, aunque se ha logrado mucho de muy poco. Hay que llevar las cosas hasta los extremos.

img034.jpg
Fig. 9-14. Dos protones se repelen mutuamente mediante el intercambio de un pión.

img035.jpg
Fig. 9-15. Dos electrones interactúan mediante el intercambio de un fotón.

Si existe una incertidumbre inherente a la energía asequible para una partícula en un corto espacio de tiempo, también se puede afirmar que existe una incertidumbre inherente acerca de si una partícula existe o no para un intervalo de tiempo suficientemente corto. Ciertas reglas supuestamente válidas tales como la conservación de la carga eléctrica y el balance entre partículas y antipartículas, originan que no exista nada que impida la aparición de una colección de partículas de la nada, su recombinación y la desaparición de todas ellas antes de que el Universo en general se aperciba de la anormalidad. Un electrón y un positrón pueden emerger de nada, a condición de aniquilarse con la suficiente rapidez. Un protón y un antiprotón pueden hacer lo mismo. Estrictamente hablando, los electrones necesitan la ayuda de un fotón, como los protones la de un mesón, que complete el cuadro. Un fotón que no existe crea un par electrón-positrón que, a continuación, se aniquila produciendo el fotón que los originó; recuérdese que, para el fotón, no hay distinción entre el futuro y el pasado. Alternativamente, un electrón puede imaginarse como persiguiendo a su propia cola en un remolino en el tiempo. Primero aparece emergiendo del vacío como un conejo del sombrero de un mago; después viaja hacia adelante en el tiempo durante un corto intervalo hasta darse cuenta de su error y, reconociendo su propia falta de realidad, retrocede en el tiempo hasta el punto de partida. Allí, vuelve a cambiar de dirección, y así el lazo continúa, con la ayuda de un fotón —se trata de un proceso de colisión a alta energía— en cada extremo del lazo.

img036.jpg
Fig. 9-16. Con la ayuda de un pión cargado, un neutrón se transforma en un protón mediante la interacción con un protón que se convierte en neutrón.

img037.jpg
Fig. 9-17. Un protón también puede crear un pión virtual, que será rápidamente reabsorbido.

img038.jpg
Fig. 9-18. La repulsión entre protones mediante el intercambio de piones es más complicada de lo que parece en la figura 9-14.

De acuerdo con las mejores teorías acerca del comportamiento de las partículas elementales, el vacío es en sí mismo un hervidero de partículas virtuales, incluso cuando no hay partículas reales presentes. Y no se trata de una simple consecuencia de las ecuaciones, puesto que sin tener en cuenta el efecto de estas fluctuaciones del vacío no se obtienen los resultados correctos en los problemas que afectan a las colisiones entre partículas. Ello supone una clara evidencia de que la teoría —basada directamente en las relaciones de incertidumbre— es correcta. Las partículas virtuales y las fluctuaciones del vacío son tan reales como el resto de la teoría cuántica; tan reales como la dualidad onda-corpúsculo, el principio de incertidumbre y la acción a distancia. En un mundo de tal naturaleza, no parece lógico, de ninguna manera, tachar de paradoja el problema del gato de Schrödinger.

El gato de Schrödinger
La famosa paradoja acerca del gato apareció impresa por primera vez en 1935 (Naturwissenschaften, volumen 23, página 812), el mismo año que se publicó el artículo de E.P.R. Einstein calificó la proposición de Schrödinger como la forma «más bonita» de mostrar el carácter incompleto de la representación ondulatoria de la materia como representación de la realidad[62] y, junto con el argumento de E.P.R., la paradoja del gato aún se discute en teoría cuántica. Por el contrario de lo que sucede con la argumentación de E.P.R., no obstante, esta paradoja no ha sido resuelta de forma satisfactoria para todos.
La idea que hay tras este experimento imaginado es muy simple. Schrödinger sugirió el considerar una caja que contiene una fuente radiactiva, un detector que registra la presencia de partículas radiactivas (un contador Geiger, por ejemplo), una botella de vidrio conteniendo un veneno como el cianuro, y un gato vivo. Se diseña el experimento de forma que el detector esté conectado el tiempo suficiente como para que exista una probabilidad del 50 % de que uno de los átomos del material radiactivo se desintegre y el detector registre una partícula. Si el detector registra un suceso de este tipo, el recipiente de vidrio se rompe y el gato muere; si no, el gato vive. No hay forma de conocer el resultado del experimento hasta que se abre la caja y se mira en su interior; la desintegración radiactiva es un fenómeno aleatorio y es impredecible excepto en sentido estadístico. De acuerdo a la interpretación de Copenhague, igual que sucedía en el experimento de la doble rendija donde existía la misma probabilidad de que el electrón pasara por uno u otro de los agujeros y las dos posibilidades solapadas originaban una superposición de estados, en este caso las dos probabilidades iguales para la desintegración y para la no desintegración producirían una superposición de estados. El experimento entero, con el gato y los demás componentes, está basado en la regla de que la superposición es real hasta que se observa, y que únicamente en el instante de dicha observación la función de onda se colapsa en uno de los dos estados. En tanto que no se mire el interior de la caja, hay una muestra radiactiva que se ha desintegrado y no se ha desintegrado, un vaso con veneno que no está ni roto ni entero, y un gato que está muerto y vivo, y ni vivo ni muerto.

img039.jpgimg040.jpg
Fig. 9-19 (Izquierda). Un neutrón puede transformarse brevemente en un protón y un pión cargado, siendo ambos rápidamente reagrupados. Fig. 9-20 (Derecha). Y un pión puede crear un par virtual neutrón-antiprotón durante un intervalo de tiempo igualmente breve.

Una cosa es imaginar una partícula elemental, como el electrón, no estando ni aquí ni allí, sino en cierta superposición de estados, y otra mucho más dura es imaginar algo tan familiar como un gato en esta forma de muerte aparente. Schrödinger imaginó este experimento para poner de manifiesto que existe una grieta en la estricta interpretación de Copenhague, ya que obviamente el gato no puede estar simultáneamente vivo y muerto. Pero ¿es esto más obvio que el hecho de que un electrón no puede ser una partícula y una onda simultáneamente? El sentido común ya ha sido sometido a prueba como guía para la realidad cuántica y no se ha mostrado apropiado. Lo único que se sabe con seguridad sobre el mundo cuántico es que no hay que fiarse del sentido común y que sólo hay que creer en lo que se puede observar directamente o detectar sin ninguna ambigüedad con los instrumentos de medida. No se sabe lo que pasa dentro de la caja salvo que se mire.
La controversia sobre el gato de la caja se ha prolongado por espacio de medio siglo. Para cierta escuela de pensamiento el problema no existe, porque el gato está en condiciones de resolver por sí mismo si está muerto o vivo, y la consciencia del gato es suficiente para provocar el colapso de la función de onda. En este caso, ¿dónde situar la línea de separación? ¿Podría una hormiga ser consciente de lo que pasa?, ¿y una bacteria? Piénsese de otra forma: puesto que se trata sólo de un experimento imaginado, un ser humano voluntario puede ocupar el sitio del gato en la caja (al voluntario se le suele conocer como el amigo de Wigner por Eugene Wigner, un físico que se ocupó profundamente de posibles variaciones del experimento del gato en la caja y que, incidentalmente, es cuñado de Dirac). El ocupante de la caja es ahora un observador competente que tiene la capacidad mecánico-cuántica de colapsar funciones de onda. Si se abre la caja, y suponiendo que se tenga la suerte de encontrarle aún con vida, es seguro que él no explicará ninguna experiencia mística, sino simplemente que la fuente radiactiva no produjo partículas en el tiempo en cuestión. En cualquier caso, para los que se encuentran fuera de la caja la única forma correcta de describir las condiciones en el interior de la misma es la de una superposición de estados, hasta que sea observada.

img041.jpg
Fig. 9-21. Diagrama (espacio-tiempo) de Feynman de una interacción genuina entre varias partículas revelada por una fotografía de una cámara de burbuja y descrita por Fritjof Capra en The Tao of Physics.

img042.jpg
Fig. 9-22. Un simple protón podría verse implicado en una red de interacciones virtuales como ésta (tomado de The World of Elementary Particles, de K. Ford, Blaisdell, Nueva York, 1963). Tales interacciones se dan permanentemente. Ninguna partícula está tan aislada como puede parecer a primera vista.

img043.jpg
Fig. 9-23. Un protón, un antineutrón y un pión pueden aparecer de la nada, como una fluctuación del vacío, durante un breve intervalo de tiempo antes de aniquilarse (A). La misma interacción puede representarse por un lado temporal, con el protón y el neutrón persiguiéndose entre sí en un remolino en el tiempo, ligados mediante el pión (B). Ambos puntos de vista son igualmente válidos.

img044.jpg
Fig. 9-24. Un protón puede morderse la cola en el tiempo de forma análoga.

La cadena no se acaba nunca. Imagínese que tal experimento ha sido anunciado a todo un mundo intrigado por la curiosidad, pero que para evitar las interferencias de la prensa ha sido realizado en un local herméticamente cerrado. Incluso después de haber abierto la caja, e independientemente de que se haya podido saludar al voluntario o haya habido que arrastrar su cuerpo, los periodistas del exterior no conocen el resultado de la experiencia. Para ellos, el edificio completo en el que se ha instalado el laboratorio sigue siendo una superposición de estados. Y así se podría llegar a pensar en una sucesión infinita.
Supóngase ahora que se reemplaza al amigo de Wigner por un ordenador que pueda registrar la información sobre la ocurrencia de desintegración o sobre su ausencia. ¿Puede un ordenador colapsar la función de onda al menos dentro de la caja? ¿Por qué no? De acuerdo a otro punto de vista, lo que importa no es el reconocimiento humano del resultado del experimento, ni siquiera el de una criatura viva, sino el hecho de que el resultado de un suceso al nivel cuántico sea registrado, o cause un impacto en el mundo macroscópico. El átomo radiactivo puede estar en una superposición de estados, pero en el momento que el contador Geiger observa los productos de desintegración, el átomo se ve conducido a un estado o al otro, ya sea al desintegrado o al no desintegrado.
De modo que, al contrario del experimento imaginado de E.P.R., el experimento del gato en la caja realmente ofrece unas sugerencias paradójicas. No puede reconciliarse con la interpretación de Copenhague estricta sin aceptar la realidad de un gato vivo-muerto, y ello ha llevado a Wigner y a John Wheeler a considerar la posibilidad de que, debido a la regresión infinita de causa y efecto, el universo entero puede deber su existencia real únicamente al hecho de ser observado por seres inteligentes. La más paradójica de todas las posibilidades inherentes a la teoría cuántica es una teoría que desciende directamente de la constituida por el gato de Schrödinger y surge de lo que Wheeler llama un experimento de elección retardada.

El universo partícipe
Wheeler ha escrito un gran número de artículos sobre el significado de la teoría cuántica, en publicaciones diferentes, a lo largo de cuatro décadas.[63] Quizá la exposición más clara de su concepto del Universo partícipe está en su contribución en Some Strangeness in the Proportion, que son las actas (editadas por Harry Woolf) de un congreso celebrado en conmemoración del centenario del nacimiento de Einstein. En ese artículo (en el capítulo 22 del volumen) vuelve a contar la anécdota de una ocasión en la que se encontraba participando en el viejo juego de las veinte preguntas con un grupo de personas en una reunión de carácter social. Cuando le llegó a Wheeler el tumo fue enviado a una habitación y el resto de los asistentes se quedaron para decidir qué objeto elegían. Le tuvieron encerrado durante un tiempo «increíblemente largo», lo que seguramente se debía a que buscaban una palabra especialmente difícil o a que le estaban preparando alguna «jugada». A su vuelta se encontró con que las respuestas, de cada participante, a preguntas tales como «¿se trata de un animal?» o «¿es verde?» eran rápidas; pero a medida que avanzaba el juego las respuestas tardaban cada vez más y más en llegar, cosa extraña si, como era lógico, todos se habían puesto de acuerdo en el objeto y las únicas contestaciones posibles eran sí o no. ¿Por qué debían pensar tanto rato antes de dar una contestación tan simple? Al fin, cuando sólo quedaba una pregunta, Wheeler se decidió: «¿es una nube?» La contestación «sí» fue acompañada de una explosión de carcajadas por parte de los presentes, y le hicieron partícipe del secreto.
Se habían puesto de acuerdo en no elegir un objeto determinado, sino que cada persona, cuando era interrogada, debía dar una contestación verdadera referida a algún objeto real que se le ocurriera, y que cumpliera los requisitos impuestos por todas las contestaciones anteriores. Conforme el juego avanzaba se hizo tan difícil para él como para los interrogados.
¿Qué tiene que ver todo esto con la teoría cuántica? De la misma forma que se suele tener un concepto del mundo real existente aun cuando no sea observado, Wheeler imaginaba que existía realmente un objeto que él trataba de identificar. Pero no existía. Todo lo real eran las contestaciones a sus preguntas, de la misma forma que lo único conocido acerca del mundo cuántico son los resultados de los experimentos. La nube era, en cierto sentido, creada por el proceso seguido al preguntar y, en el mismo sentido, el electrón es creado por el proceso de detección experimental. La anécdota ilustra claramente el axioma fundamental de la teoría cuántica de que ningún fenómeno elemental es un fenómeno hasta que no sea un fenómeno detectado. Y el proceso de detección puede originar contradicciones con el concepto ordinario de realidad.
Para aclarar su idea, Wheeler consideró otro experimento imaginado que era una variación del experimento de las dos rendijas. En esta nueva versión, los dos agujeros se combinan con una lente para concentrar la luz que atraviesa el sistema, y la pantalla detectora se reemplaza por otra lente que origine la divergencia de los fotones provenientes de cada rendija. Un fotón que pasa por uno de los agujeros atraviesa la segunda pantalla y la segunda lente le dispersa hasta un detector a la izquierda, por ejemplo; un fotón que pasa por el otro agujero va a parar al detector de la derecha. Con este dispositivo experimental se determina por qué agujero pasó cada fotón, con tanta seguridad como en la versión en la que se detectaba directamente el paso del fotón por las rendijas. Igual que en este caso, si sólo se permite el paso por el aparato de un fotón en cada instante, se logra identificar inequívocamente el camino seguido y no hay interferencia porque no hay superposición de estados.
Vuélvase a modificar el aparato cubriendo la segunda lente con una película fotográfica distribuida en tiras formando una persiana. Las tiras se pueden aproximar entre sí hasta formar una pantalla completa que impida a los fotones atravesar la lente y ser desviados. O, si no, la persiana puede abrirse y permitir el paso de los fotones como antes. Cuando las tiras están perfectamente unidas, los fotones llegan a la pantalla igual que en el experimento de la doble rendija. No hay forma de asegurar por qué agujero pasó cada uno y, sin embargo, se obtiene una figura de interferencia como si cada fotón individual hubiera pasado por los dos agujeros a la vez. Ahora viene la sorpresa. Con el mismo dispositivo experimental, no hay por qué decidir si se va a abrir o a cerrar la persiana antes de que el fotón haya atravesado la lente con los dos agujeros. Se puede esperar hasta que los haya atravesado, y después decidir si se crea un experimento en el que el fotón ha ido sólo por un agujero o por los dos a la vez. En este experimento de elección retardada, algo que se lleva a cabo ahora tiene una influencia inevitable sobre lo que se puede afirmar sobre el pasado. La historia, al menos para un fotón, depende de cómo se elija efectuar una medida.
Los filósofos han meditado mucho sobre el hecho de que la historia no tiene sentido —el pasado no tiene existencia—, salvo en la forma en que aparece registrada en el presente. El experimento de elección retardada de Wheeler muestra este concepto abstracto en términos sólidos y prácticos. «No tenemos más derecho a hablar de lo que el fotón está haciendo —mientras no se le detecta— que a hablar de la palabra en juego, hasta que éste no ha terminado» (Some Strangeness, página 358).
¿Hasta dónde se puede llevar esta idea? Los cocineros cuánticos, al tiempo que construyen sus ordenadores y manipulan material genético, afirmarán que todo esto son especulaciones filosóficas y que ello no tiene sentido alguno en el mundo cotidiano, en el mundo macroscópico. Pero cada cosa del mundo macroscópico está constituida por partículas que obedecen las reglas cuánticas. Todo lo que se considera real está constituido por elementos que no pueden ser considerados como reales; «¿qué otra cosa cabe sino afirmar que, de alguna manera, todo debe estar basado en la estadística de billones de billones de tales actos con participación del observador?»

img045.jpg
Fig. 9-25. El experimento de la doble rendija, con elección retardada, de Wheeler (véase el texto).

Sin tener en cuenta las extrañas coincidencias que producía su intuición (recuérdese su visión del electrón único tejiendo su camino a través del espacio y del tiempo), Wheeler siguió adelante hasta considerar al Universo entero como un circuito autoexcitado y participativo. Comenzando desde el Big Bang, el Universo se expande y se enfría; tras miles de millones de años se producen seres capaces de observar el Universo, y «los actos de participación del observador—vía el mecanismo del experimento de elección retardada— producen, a su vez, una realidad tangible al Universo, no sólo al presente, sino a todo el pasado desde el principio». Observando los fotones de la radiación de fondo cósmica, el eco del Big Bang, puede que sea la causa del Big Bang y del mismo Universo. Si Wheeler está en lo cierto, Feynman estaba más próximo a la verdad de lo que él mismo pensaba cuando afirmó que el experimento de la doble rendija «contiene el único misterio».

img046.jpg
Fig. 9-26. El Universo entero puede entenderse como un experimento de elección retardada en el que la existencia de observadores que detectan lo que acontece es lo que confiere el carácter de realidad tangible al origen de todo.

De la mano de Wheeler, se han tratado temas introducidos en terrenos de la metafísica, que pueden llevar a la conclusión de que todo esto se basa en hipotéticos experimentos imaginados. Se puede pensar lo que se quiera sin que ello suponga suscribir una cierta interpretación de la realidad. Lo que se necesita son evidencias sólidas obtenidas a partir de experimentos reales (no imaginados) sobre los que basar un juicio acerca de la elección más apropiada de la interpretación, entre las variadas opciones metafísicas que se ofrecen. Y esta sólida evidencia es justamente la que ha proporcionado el experimento de Aspect a comienzos de la década de los 80; la prueba de que las extrañas peculiaridades cuánticas no son sólo reales, sino también observables y medibles.

Capítulo 10
La prueba experimental

La demostración directa y experimental de la realidad paradójica del mundo cuántico se basa en versiones modernas del experimento imaginado de E.P.R. Los experimentos modernos no manejan las medidas de la posición y del momento de las partículas, sino las del espín y de la polarización, que no es más que una propiedad de la luz en cierta forma análoga al espín de una partícula material. David Böhm, del Birkbeck College de Londres, introdujo en 1952 la idea de realizar medidas del espín según una nueva versión del experimento de E.P.R., pero no fue sino en la década de los 60 cuando se empezó a considerar seriamente la posibilidad de realizar experimentos que sirvieran como testes directos de las predicciones de la teoría cuántica en estas situaciones. La innovación conceptual apareció en 1964, en un artículo de John Bell, un físico que trabajaba en el C.E.R.N., el famoso centro europeo de investigación próximo a Ginebra.[64] Pero para comprender los experimentos es necesario detenerse en el análisis de dicho artículo y aclarar lo que significa el espín y la polarización.

La paradoja del espín
Afortunadamente, muchas de las peculiaridades del espín de una partícula como el electrón pueden pasarse por alto al realizar estos experimentos. No importa que la partícula deba girar sobre sí misma dos vueltas completas para mostrar el mismo aspecto original. Lo realmente importante es que el espín de una partícula define una dirección en el espacio, con su sentido positivo y negativo, similar a la forma en que el giro de la tierra define la dirección del eje norte-sur. Situado en un campo magnético uniforme, un electrón sólo puede presentarse en uno de estos estados posibles: con el espín paralelo al campo o con el espín antiparalelo al campo; estados que según una convención arbitraria se designarán de ahora en adelante como hacia arriba y hacia abajo. La versión de Böhm del experimento de E.P.R. parte de la idea de dos protones ligados entre sí en una configuración llamada estado singlete. El momento angular total de ese par de protones es siempre cero, y por tanto el sistema se divide en dos partículas componentes que se alejan en sentidos opuestos. Cada uno de estos dos protones puede tener un momento angular o espín, pero deben ser de la misma cuantía de espín, aunque de sentido opuesto, para garantizar que el total sigue siendo cero, como lo era antes de la desintegración.[65]
Se trata de una predicción simple en la que la teoría cuántica y la mecánica clásica están de acuerdo. Si se conoce el espín de una de las partículas que forma el par, se conoce el espín de la otra, ya que el total es cero. Pero, ¿cómo se mide el espín de una partícula? Puesto que se trabaja con partículas en un mundo tridimensional, hay que medir tres direcciones de espín. La suma de los tres componentes (mediante las reglas del cálculo vectorial) proporciona el espín total. Pero en el mundo cuántico, este cálculo es muy diferente. En primer lugar, al medir una componente se alteran las otras dos; las componentes del espín son propiedades complementarias y no pueden medirse simultáneamente como sucede con la posición y el momento. Además, el espín de una partícula como el electrón o el protón está cuantificado. Si se mide el espín en cualquier dirección sólo se pueden obtener las respuestas hacia arriba o hacia abajo, a veces escritas como +1 ó −1. Supóngase que se mide el espín en una cierta dirección, que se puede designar como eje z, y se obtiene el resultado +1 (existe exactamente un 50 % de probabilidad para este resultado en el experimento en cuestión). Mídase a continuación el espín, en una dirección diferente, por ejemplo, según el eje y. Independientemente de cuál sea el resultado, vuélvase a medir el espín en la dirección inicial; este espín es el ya conocido. Repítase el experimento un cierto número de veces y anótense los resultados. Se observará que, a pesar de haberse medido el espín de la partícula en la dirección del eje z (es decir, hacia arriba) antes de medir el espín en la dirección y, se observa tras la medida en la dirección y que sólo se obtiene el resultado +1 para las medidas en la dirección z en un 50 % de las ocasiones. De modo que la medida de la componente de espín complementaria ha corroborado la teoría cuántica.[66]
¿Qué sucede cuando se trata de medir el espín de una de las dos partículas con distanciamiento creciente? Consideradas por separado, cada partícula se puede entender como sometida a fluctuaciones aleatorias de sus componentes de espín, lo cual originará confusionismo a la hora de medir el espín total de cualquiera de las dos. Pero, consideradas en conjunto, las dos partículas deben tener espín igual aunque opuesto. Así, las fluctuaciones aleatorias en el espín de una partícula deben ser exactamente compensadas por las fluctuaciones aleatorias en el espín de la otra, por alejada que se encuentre. Como ocurría en el experimento original de E.P.R., las partículas están conectadas por una acción a distancia. Einstein consideró absurda esta no-localidad «fantasmal», achacándola a una imperfección de la teoría cuántica. John Bell mostró cómo se podían montar dispositivos experimentales para medir esta no-localidad y demostrar lo correcto de las previsiones de la teoría cuántica.

El enigma de la polarización
La mayoría de los experimentos llevados a cabo hasta ahora para someter a prueba directa la teoría cuántica, se han servido de la polarización de fotones en lugar del espín de partículas materiales, pero el principio es el mismo. La polarización es una propiedad que define una dirección en el espacio asociada a un fotón, o a un haz de fotones, de la misma forma que el espín define una dirección en el espacio asociada a una partícula material. Las gafas de sol «polaroid» operan rechazando a todos los fotones que no tienen una polarización determinada, convirtiendo la escena presenciada por el portador de tales gafas en algo más oscuro, imagínese a las gafas de sol como construidas por una serie de se presenta en dos variedades, la de sentido positivo y ¡a de sentido negativo, y también puede utilizarse en testes para contrastar la precisión de la visión cuántica del mundo. La luz polarizada plana, en la que todos los fotones apuntan sus dardos en la misma dirección, puede producirse por reflexión, bajo las circunstancias apropiadas, o mediante el paso de la luz por una sustancia, como unas gafas «polaroid», que sólo permita el paso de una cierta polarización. La luz polarizada plana muestra, una vez más, cómo operan las reglas de la incertidumbre cuántica.

img047.jpg
Fig. 10-1. Ondas polarizadas verticalmente que se deslizan a través de una barrera de piquetes.

img048.jpg
Fig. 10-2. Ondas polarizadas horizontalmente que quedan bloqueadas.

img049.jpg
Fig. 10-3. Polarizadores cruzados que detienen a todas las ondas.

Al igual que el espín de una partícula a nivel cuántico, la polarización de un fotón en una dirección u otra es una propiedad con dos valores posibles que, a veces, se califica como propiedad «sí-no». El fotón o está polarizado en una cierta dirección —la vertical, por ejemplo— o no lo está. Por eso los fotones que pasan a través de una de estas tiras serán bloqueados por otra cuyas tiras formen ángulo recto con las de la primera. Si el primer polarizador es análogo a una ventana de tiras horizontales, el segundo será de tiras verticales. Con toda seguridad, si dos polarizado-res se cruzan de esta forma, no hay luz que los atraviese. Pero supóngase que el segundo polarizador es tal que sus tiras forman un ángulo de 45° con las del primero. ¿Qué ocurre entonces? A los fotones que llegan a este segundo polarizador les sobran 45° para tener la polarización apropiada, y según una imagen clásica del fenómeno no deberían poder pasar. La imagen cuántica es diferente. Desde esta perspectiva, cada fotón tiene un 50 % de probabilidad de atravesar este segundo polarizador, y la mitad de los fotones incidentes, consiguientemente, lo atraviesan. Pero lo realmente desconcertante es que aquellos fotones que logran pasar han girado, en efecto, su polarización y están polarizados a 45° con relación al polarizador original. ¿Cuál será el resultado si ahora se les hace incidir sobre otro polarizador en ángulo recto con el primero? Como un ángulo recto es de 90°, la polarización es de 45° respecto a la orientación del nuevo polarizador. Por tanto, al igual que ocurría en el caso anterior, la mitad de los fotones podrán atravesar esta barrera.

img050.jpg
Fig. 10-4. Dos polarizadores, en ángulo de 45°, permiten el paso de la mitad de las ondas que pasan a través del primero de ellos.

Con dos polarizadores cruzados no hay luz que pueda pasar. Pero si se coloca un tercer polarizador entre el par original, con 45° respecto a cada uno de ellos, una cuarta parte de los fotones de luz que atraviesan el primer polarizador también pasan a través de los otros dos. Es como si existieran dos vallas que juntas proporcionan un cien por cien de seguridad ante cualquier huida y por cautela se decide construir una tercera entre ambas. Pero puede darse el caso de que algunas de las huidas evitadas por la valla doble, no lo sean ahora con una tercera y se produzca alguna huida. Cambiando el experimento se cambia la naturaleza de la realidad cuántica. Este ejemplo da idea de cómo al utilizar polarizadores de diferentes ángulos se han medido diferentes componentes de la polarización, y cada nueva medición destruye la validez de la información conseguida con todas las mediciones anteriores.

img051.jpg
Fig. 10-5. Tres de los polarizadores permiten el paso de la cuarta parte de las ondas que pasan a través del primero de ellos; aunque ninguna pasaría si se eliminara el polarizador intermedio.

Este hecho introduce inmediatamente una nueva variación en el tema expuesto por E.P.R. En lugar de partículas materiales, se pueden emplear fotones, siendo la base del experimento esencialmente la misma. Imagínese ahora algún proceso atómico que produce dos fotones viajando en sentidos opuestos. Existen muchos procesos reales en los que sucede esto, y en tales procesos siempre hay una correlación entre las polarizaciones de los dos fotones. La polarización de ambos ha de ser la misma o, en cierta forma, la opuesta. Para simplificar el experimento es mejor trabajar con el supuesto de que las dos polarizaciones son iguales. Mucho después de que los fotones hayan abandonado el lugar de su nacimiento debe medirse la polarización de uno de ellos. Hay libertad completa para elegir la dirección del polarizador y, una vez determinada ésta, existe una cierta probabilidad de que el fotón elegido atraviese el polarizador. A continuación determínese si la polarización es hacia arriba o hacia abajo en la dirección espacial elegida, con lo que se sabrá que el otro fotón está polarizado de la misma forma, muy alejado en el espacio. Pero ¿qué información tiene el otro fotón? ¿Cómo puede orientarse él mismo de forma que pase los mismos testes que el primero y falle los que este primero falla? Al medir la polarización del primer fotón se colapsa la función de onda, no sólo la de un fotón, sino también la del otro, sumamente alejado, en el mismo instante.
A pesar de sus peculiaridades, el problema planteado aquí no es sino el que Einstein y sus colegas plantearon en los años 30. Pero un experimento práctico vale más que medio siglo de discusión sobre el significado del experimento teórico, y Bell proporcionó a los experimentalistas una forma de medir los efectos de esta acción fantasma a distancia.

El test de Bell
Bernard d’Espagnat, de la Universidad de París-Sur, es un teórico que, como David Böhm, ha estudiado pormenorizadamente las implicaciones de toda la serie de experimentos de E.P.R. En su artículo en la revista Scientific American previamente mencionado, y en su colaboración en el volumen The Physicist’s Conception of Nature, editado por Mehra, ha elaborado las ideas básicas de Bell al respecto. D’Espagnat afirma que nuestra visión ordinaria de la realidad se basa en tres hipótesis fundamentales. Primero, en que hay objetos reales que existen con independencia de que los observemos o no; segundo, en que es lícito extraer conclusiones generales de observaciones o de experimentos; y tercero, en que ninguna influencia puede propagarse más rápidamente que la luz en el vacío, hipótesis que él denomina de localidad. Las tres máximas juntas constituyen la base de la visión que el realismo local ofrece del mundo real.
El test de Bell parte de una visión realista local del mundo. Continuando con el experimento del espín del protón, aunque el experimentalista nunca puede conocer las tres componentes del espín de la misma partícula, puede medir cualquiera de ellas que elija. Si las tres componentes se designan por X, Y y Z, él se encuentra con que cada vez que mide un valor +1 para la componente X del espín de un protón, el valor de la componente X del espín del otro protón es −1, y lo mismo ocurre con los demás valores medidos. Pero él sólo puede medir la componente X para un protón y la Y (o la Z, pero no ambas) para el otro, con lo que resulta posible obtener información sobre la componente X y sobre la componente Y, de cada partícula del par.
En principio es un experimento difícil de realizar; implica medir espines de muchos pares de protones al azar y rechazar aquellas medidas que se refieren a la misma componente del espín para ambos miembros del par. Pero se puede llevar a cabo y proporciona al experimentalista, en principio, conjuntos de resultados en los que pares de conjuntos se identifican como correspondientes a cada protón del par y pueden escribirse como XY, XZ e YZ. Lo que Bell demostró en su artículo ya clásico de 1964 fue que si un experimento de ese tipo se realiza de acuerdo a una visión realista local del mundo, el número de pares en los que los componentes de X y de Y son ambos positivos (X+ Y+) debe ser siempre menor que el de la suma de los pares en la que ZX e YZ son positivos (X+Z+ + Y+ Z+). El cálculo se deduce directamente del lecho obvio de que si una medida demuestra que un protón particular tiene componentes de espín X" e Y, por ejemplo, su estado de espín total puede ser X+YZ+ o bien X+YZ. El resto de la demostración consta de sencillos pasos basados en la teoría de conjuntos. Pero en mecánica cuántica las reglas matemáticas actúan de forma diferente, y si se aplican correctamente llevan al resultado justamente opuesto: el número de pares X+Y+ es mayor, no menor, que la suma de los números de pares X+Z+ e Y+Z+.

img052.jpg
Fig. 10-6. Las partículas con espín semientero sólo pueden disponerse de forma paralela o antiparalela al campo magnético. Las partículas con espín entero también pueden disponerse transversalmente al campo.

Puesto que el cálculo se realizó originariamente bajo un punto de vista realista local del mundo, en la terminología convencional se conoce a la primera de las desigualdades del párrafo anterior como la «desigualdad de Bell», y si dicha desigualdad resulta violada, el punto de vista del mundo que se basa en el realismo local es falso, por lo que la teoría cuántica habrá superado otra prueba más.

La prueba
El test puede aplicarse exactamente igual mediante experimentos en los que se mide el espín de partículas materiales, los cuales son más difíciles de realizar que los que miden la polarización de fotones. Como los fotones tienen masa nula, se mueven a la velocidad de la luz, y no distinguen el tiempo, no queda realmente claro lo que significa el concepto de localidad para un fotón. Aunque la mayoría de los testes de la desigualdad de Bell se han efectuado a base de medidas de polarización de fotones, resulta de una importancia crucial que el único test realizado hasta ahora mediante un experimento de medidas de espines de protones, proporciona resultados que rompen la desigualdad de Bell y, por tanto, apoyan la visión cuántica del mundo.
Éste no fue el primer test de la desigualdad de Bell. Lo llevó a cabo, en 1976, un equipo del Centro de Investigación Nuclear de Saclay, en Francia, y es muy parecido al experimento imaginado original. Se basa en el bombardeo, mediante protones de baja energía, de un blanco que contiene muchos átomos de hidrógeno. Cuando un protón incide sobre un núcleo de un átomo de hidrógeno —que es otro protón— las dos partículas interaccionan a través del estado individual y se pueden medir sus componentes de espín. Las dificultades para realizar tales medidas son inmensas, ya que muy pocos protones son registrados por los detectores e incluso cuando las medidas han sido efectuadas no siempre es posible registrarlas sin ambigüedad. En cualquier caso, los resultados de este experimento francés demostraron claramente la falsedad de las teorías que parten de una visión realista local.
Los primeros testes de la desigualdad de Bell se llevaron a cabo en la Universidad de California, Berkeley, utilizando fotones, y los resultados aparecieron publicados en 1972. En 1975 se habían realizado ya seis testes de ese tipo, cuatro de los cuales proporcionaban una ruptura con la desigualdad de Bell. A pesar de las dudas que puedan existir sobre el significado de la localidad para los fotones, este hecho no deja de ser una evidencia más en favor de la mecánica cuántica, especialmente si se tiene en cuenta que estos experimentos se basan en la utilización de dos técnicas fundamentales diferentes. En la primera versión del experimento, los fotones provenían de átomos de calcio o de mercurio, que pueden excitarse mediante el láser hasta llegar al estado de energía elegido.[67] El retomo desde este estado excitado al estado fundamental tiene lugar mediante dos pasos; primero el electrón pasa a otro estado excitado, de más baja energía, y después al estado fundamental. En cada paso se produce un fotón. En los pasos elegidos en estos experimentos, los dos fotones se producen con polarizaciones correlacionadas. Los fotones de la cascada pueden analizarse mediante contadores apropiados que se colocan tras los filtros polarizantes.
A mediados de la década de los 70 los experimentalistas llevaron a cabo las medidas oportunas utilizando una variación sobre el mismo tema. En sus experimentos, los fotones eran los rayos gamma producidos en la aniquilación de un par electrón-positrón. También aquí las polarizaciones de los dos fotones deben estar correlacionadas y, una vez más, la conclusión final es la evidencia de que la medida de las polarizaciones proporciona unos resultados que rompen con la desigualdad de Bell.
Así que de los siete primeros testes de la desigualdad de Bell cinco están a favor de la mecánica cuántica. En su artículo en Scientific American, d’Espagnat señala que esta evidencia en favor de la mecánica cuántica es más importante de lo que puede parecer a simple vista. La naturaleza de los experimentos y sus dificultades de realización son tales que «una gran variedad de fallos y errores sistemáticos en el experimento podrían destruir la evidencia de una correlación real… por otro lado, no es imaginable un error experimental que pueda crear una falsa correlación en cinco experimentos diferentes. Aún más, los resultados de aquellos experimentos no sólo rompen la desigualdad de Bell, sino que lo hacen precisamente en la forma predicha por la mecánica cuántica».
Desde mediados de los 70, se han llevado a cabo aún más testes, diseñados para eliminar toda posible objeción al experimento. Las piezas del dispositivo experimental debían situarse lo suficientemente alejadas para que cualquier señal entre los detectores que pudiera producir una falsa correlación hubiera de propagarse a mayor velocidad que la de la luz. Así se hizo, y también en este caso la desigualdad de Bell resultaba rota. Quizá la correlación existe porque los fotones «saben», desde el mismo momento en que se crean, qué clase de dispositivo experimental se ha diseñado para detectarlos. Esto podría suceder, sin necesidad de propagación a velocidades superiores a la de la luz, si el aparato se ha instalado previamente, y ello ha impuesto una función de onda global que afecta al fotón desde su nacimiento. El test definitivo, por tanto, de la desigualdad de Bell implica un cambio en la estructura del experimento, ya que debe instalarse mientras los fotones están ya de viaje, en la línea de la modificación sugerida por el experimento de John Wheeler acerca de la doble rendija. Éste es el experimento con el que el equipo de Alain Aspect, en la Universidad de París-Sur, logró en 1982 la última gran refutación de tas teorías realistas locales.
Aspect y sus colegas ya habían realizado testes de la desigualdad de Bell con fotones provenientes de un proceso en cascada y habían encontrado que la desigualdad se rompía. Su aportación consistió en la introducción de un conmutador que cambia la dirección de un haz de luz cuando éste lo atraviesa. El haz puede ser dirigido hacia cualquiera de los dos filtros polarizantes, cada uno de los cuales mide una dirección de polarización diferente y tiene tras él su propio detector de fotones. La dirección del haz de luz que pasa por el conmutador puede cambiarse con extraordinaria rapidez, cada 10 nanosegundos (diez milmillonésimas de segundo, o sea 10 × 10−9 seg.), mediante un dispositivo automático que genera una señal pseudoaleatoria. Puesto que un fotón emplea 20 nanosegundos en viajar desde el átomo en que nace en el centro del experimento hasta el detector, no es posible que ninguna información sobre el dispositivo experimental pueda viajar desde una parte del aparato a la otra y afectar el resultado de la medida; salvo que una influencia de este tipo pueda viajar más deprisa que la luz.

Su significado
El experimento es casi perfecto, aun cuando la desviación de los haces de luz no se debe exactamente al azar, sino que los cambios para cada uno de los dos haces de fotones son independientes. La única dificultad real es que la mayoría de los fotones producidos no son detectados debido a la ineficacia de los propios detectores. Se puede argumentar que sólo se detectan los fotones que violan la desigualdad de Bell, y que los otros obedecerían la desigualdad si sólo ellos fueron los detectados. Pero ni siquiera se ha contemplado la posibilidad de diseñar dispositivos experimentales para someter a test tan improbable comportamiento. Tras la publicación de los resultados obtenidos por el equipo de Aspect poco antes de las Navidades de 1982[68], nadie duda de la confirmación de las predicciones de la teoría cuántica. En efecto, los resultados de este experimento —el mejor que puede conseguirse con las técnicas actuales— rompen la desigualdad en mayor medida que los testes anteriores y están de acuerdo con las predicciones de la mecánica cuántica. Como afirma d’Espagnat, «recientemente se han llevado a cabo experimentos que habrían forzado a Einstein a modificar su concepción de la naturaleza en un punto que él siempre consideró esencial… con seguridad podemos afirmar que la no-separabilidad es hoy uno de los conceptos generales más válidos en física».[69]
Esto no significa que exista alguna posibilidad de poder enviar mensajes que viajen a mayor velocidad que la de la luz. No hay perspectivas de transmisión de información útil de esta forma, porque no hay forma de ligar un suceso que causa otro suceso, con el suceso causado a través de este proceso. Es una característica esencial de la no separabilidad el afectar únicamente a sucesos que tienen una causa común, como la aniquilación de un par electrón-positrón, el retomo de un electrón al estado fundamental o la separación de un par de protones en estado singlete. Imagínese dos detectores muy alejados en el espacio, con fotones que atraviesan a cada uno de ellos y que provienen de alguna fuente central. Si mediante una técnica sutil se altera la polarización de uno de los haces de fotones, un observador situado en el segundo detector percibe cambios en la polarización del haz. Pero ¿qué clase de señal es la que cambia? Las polarizaciones originales, o los espines, de las partículas del haz son resultado de procesos cuánticos aleatorios y no llevan información en sí mismas. Todo lo que verá el observador es una figura aleatoria diferente de la figura aleatoria que él observaría sin las manipulaciones efectuadas sobre el primer polarizador y, por lo tanto, al no existir información en una figura aleatoria, no habría aplicación alguna. La información está contenida en la diferencia entre las dos figuras aleatorias, pero la primera nunca existió en el mundo real, y no hay forma de extraer información.
No hay que decepcionarse ante el hecho de que el experimento de Aspect y los de sus predecesores conduzcan a un punto de vista del mundo tan diferente del que establece nuestro sentido común. Este experimento indica que las partículas que una vez estuvieron ligadas por una interacción continúan, en cierto sentido, siendo partes de un único sistema y que responderán conjuntamente a interacciones posteriores. Virtualmente todo lo que vemos, tocamos y sentimos está constituido por colecciones de partículas que han estado implicadas en interacciones con otras partículas en un pasado remoto, en el Big Bang en el que se creó el universo conocido. Los átomos del cuerpo humano están formados por partículas que una vez estuvieron estrechamente ligadas en la bola de fuego cósmica con partículas que ahora forman parte de alguna estrella lejana y con partículas que constituyen el cuerpo de alguna criatura viviente de algún planeta distante aún por descubrir. También, las partículas que constituyen el cuerpo humano estuvieron muy próximas e interaccionaron alguna vez con las que ahora constituyen otro cuerpo humano. Todos somos parte de un sistema único, al igual que lo eran los dos fotones viajeros del experimento de Aspect.
Teóricos como d’Espagnat y David Bohn señalan que hay que aceptar que, literalmente, cada cosa está conectada con todo lo demás, y sólo un tratamiento holista del Universo resulta apropiado para explicar fenómenos tales como la consciencia humana.
Los físicos y los filósofos en busca de una hipotética nueva imagen de la consciencia y del Universo no han conseguido un mínimo satisfactorio en este campo, y no es éste el lugar apropiado para exponer las especulaciones sobre el gran número de posibilidades que han surgido. Pero un ejemplo basado en la física y en la astronomía aclarará más el concepto. Uno de los grandes enigmas de la física es la propiedad conocida con el nombre de inercia, que es la resistencia de un objeto, no al movimiento, sino a los cambios en su movimiento. En el espacio libre, todo cuerpo se mantiene en movimiento a lo largo de una línea recta y con velocidad constante hasta que se ve afectado por alguna fuerza exterior; éste fue uno de los grandes descubrimientos de Newton. La fuerza necesaria para cambiar el movimiento de un objeto depende de la cantidad de materia que contiene. Pero ¿cómo sabe el objeto que se está moviendo con velocidad constante a lo largo de una línea recta? ¿Respecto a qué mide su velocidad? Desde el tiempo de Newton, los filósofos estaban de acuerdo en que el patrón respecto al cual parece medirse la inercia es el sistema de referencias usualmente conocido como el de las estrellas fijas o galaxias distantes. La tierra girando en el espacio, un péndulo de Foucault como los exhibidos en tantos museos de la ciencia, un astronauta, o un átomo, todos ellos saben cuál es la distribución media de materia en el Universo.
Nadie sabe ni por qué ni cómo ocurre este efecto, y ello ha producido numerosas especulaciones sin utilidad práctica. Si sólo hubiera una partícula en un Universo vacío, no podría haber inercia porque no habría nada respecto a lo que se pudiera medir el movimiento o la resistencia al movimiento. Pero si hubiera dos partículas en ese hipotético universo estando el resto vacío, ¿tendría cada una la misma inercia que si estuvieran en nuestro Universo? Si mágicamente pudiera eliminarse la mitad de la materia de nuestro Universo, ¿seguiría el resto con la misma inercia? ¿tendría la mitad? (¿o quizás el doble?). El misterio es tan grande hoy como lo era hace trescientos años, pero quizás el fin de las teorías realistas locales sobre el Universo proporcione una pista. Si todo lo que interaccionó en el Big Bang mantiene la conexión entre sí, entonces cada partícula de cada estrella y galaxia es consciente de la existencia de todas las demás partículas. La inercia deja de ser un enigma para ser debatido entre cosmólogos y relativistas y se convierte en algo firmemente asentado en el terreno de la mecánica cuántica.
Richard Feynman resume la situación en su libro Lectures: «La paradoja es únicamente un conflicto entre la realidad y el sentimiento de lo que la realidad debiera ser.» ¿Resulta sin interés, como pudiera serlo el debate sobre el número de ángeles que pueden bailar sobre una cabeza de alfiler? Ya, a principios del año 1983, unas pocas semanas después de la publicación de los resultados obtenidos por el equipo de Aspect, científicos de la Universidad de Sussex, en Inglaterra, anunciaban las conclusiones de experimentos que no sólo proporcionan una confirmación independiente de la interconexión de las cosas al nivel cuántico, sino que ofrecen la posibilidad de aplicaciones prácticas que incluyen a una nueva generación de ordenadores, tan avanzados respecto a la actual tecnología del estado sólido como lo fue en su tiempo la radio transistor respecto a la señalización mediante banderas como medio de comunicación.

Confirmación y aplicaciones
El equipo de Sussex, dirigido por Terry Clark, ha atacado el problema de efectuar mediciones de la realidad cuántica invirtiendo los términos. En lugar de tratar de diseñar experimentos que operen en la escala de las partículas cuánticas ordinarias —la escala de los átomos y objetos más pequeños— han dirigido su atención a la construcción de partículas cuánticas de dimensiones más acordes con los dispositivos de medida convencionales. La técnica empleada se basa en la propiedad ya mencionada de la superconductividad, y utiliza un anillo de material superconductor de aproximadamente medio centímetro de diámetro, en el cual hay un estrechamiento en un punto de hasta una diezmillonésima de centímetro cuadrado de sección transversal. Este débil eslabón, inventado por Brian Josephson (que fue el diseñador de la «juntura de Josephson») hace que el anillo de material superconductor actúe como un cilindro abierto tal como un tubo de órgano o un bote sin tapas. Las ondas de Schrödinger que describen el comportamiento de los electrones en el anillo actúan como las ondas estacionarias de sonido en un tubo de órgano, y pueden ser sintonizadas aplicando un campo electromagnético variable de radiofrecuencias. La onda del electrón alrededor del anillo reproduce una partícula cuántica única y, utilizando un detector sensible de radiofrencuencias, el equipo es capaz de observar los efectos de una transición cuántica de la onda del electrón en el anillo. A efectos prácticos es como si tuvieran una única partícula cuántica de medio centímetro de diámetro con la que trabajar; un ejemplo similar al del pequeño recipiente de helio superfluido anteriormente mencionado.
Este experimento proporciona medidas directas de transiciones cuánticas individuales, y también suministra una evidencia más clara de no-localidad. Al comportarse los electrones en el superconductor como un bosón, la onda de Schrödinger que efectúa una transición cuántica se extiende alrededor del anillo completo. Todo este pseudobosón experimenta la transición al mismo tiempo. Sin embargo, no es posible observar que un lado del anillo efectúa la transición en primer lugar y que la otra parte solo actúa cuando ha transcurrido el tiempo suficiente para que una señal que se propaga a la velocidad de la luz haya podido viajar alrededor del anillo e influir en el resto de la partícula. En algunos aspectos, este experimento es un test más convincente que el de Aspect para contrarrestar la desigualdad de Bell. El test de Aspect utiliza argumentos que, aunque matemáticamente resultan inequívocos, no son fáciles de captar por una persona no iniciada en el tema. Es mucho más fácil asimilar el concepto de una única partícula de medio centímetro de diámetro que, no obstante, se comporta como una partícula cuántica individual y que responde, en su totalidad, instantáneamente a cualquier estímulo que recibe desde el exterior.
Clark y sus colegas trabajan en la construcción de un gran macroátomo, probablemente con la forma de un cilindro de 6 metros de largo. Si este sistema responde a los estímulos exteriores de la forma en que se espera, puede representar un primer paso que conduzca a comunicaciones con velocidad de propagación superior a la de la luz. Un detector en un extremo del cilindro, que mida su estado cuántico, responderá instantáneamente a un cambio en el estado cuántico provocado por un estímulo en el otro extremo del cilindro. Esto no es aún aplicable a las comunicaciones convencionales; no es posible construir un macroátomo que abarque desde una distancia de aquí hasta la Luna, por ejemplo, y utilizarlo para eliminar el molesto retraso en las comunicaciones entre los exploradores lunares y el control central en la Tierra. Pero podría tener otras aplicaciones prácticas.
En los ordenadores modernos más avanzados, uno de los factores claves que limitan su rendimiento es la velocidad con que los electrones recorren el circuito eléctrico pasando de unos componentes a otros. Estos retrasos son pequeños, del orden del nanosegundo, pero son muy importantes. La perspectiva de comunicaciones instantáneas a través de grandes distancias no se ha mejorado a pesar de los importantes experimentos de Sussex, pero la construcción de ordenadores en los que todos los componentes respondan instantáneamente a un cambio en el estado de una de las partículas figura ya en el marco de lo posible a corto plazo. Esta posibilidad es la que ha llevado a Clark a realizar la observación de que «cuando estas propiedades se apliquen en el montaje de circuitos convertirán a la ya asombrosa electrónica del siglo veinte en algo comparable a lo que hoy representa un semáforo en este campo».[70]
De modo que la interpretación de Copenhague no sólo es la que se justifica completamente mediante los experimentos, ya que parece que existen muchos proyectos a desarrollar más allá de los que la mecánica cuántica ya ha proporcionado, de la misma forma que éstos iban mucho más a la de los que la física clásica hizo viables en su época. Pero, aun así, la interpretación de Copenhague resulta intelectualmente insatisfactoria. ¿Qué ocurre con todos aquellos mundos cuánticos fantasmales que se colapsan con sus funciones de onda cuando se efectúa una medida de un sistema subatómico? ¿Cómo puede una realidad oculta, ni más ni menos real que la que eventualmente se mide, desaparecer simplemente cuando se efectúa la medida? La mejor respuesta consiste en afirmar que las otras realidades alternativas no desaparecen, y que el gato de Schrödinger ciertamente está tan vivo como muerto al mismo tiempo, pero en dos o más mundos diferentes. La interpretación de Copenhague y sus implicaciones prácticas están totalmente contenidas en una visión más completa de la realidad: la interpretación de la existencia de otros mundos.

Capítulo 11
Otros mundos

Hasta ahora se ha intentado no adoptar una postura determinada y presentar la historia cuántica en todos sus aspectos, dejando que ella hable por sí misma. Sin embargo, este capítulo final presenta la interpretación de la mecánica cuántica que se considera la más satisfactoria y confortable. Éste no es un punto de vista mayoritario; la mayor parte de los físicos aceptan la teoría de las funciones de onda de la interpretación de Copenhague. El punto de vista expuesto aquí es minoritario, pero incluye a la interpretación de Copenhague. La característica esencial que ha impedido que esta interpretación se impusiera en el mundo de la física es que implica la existencia de muchos otros mundos —posiblemente un número infinito de ellos— esencialmente separados en el tiempo de nuestra realidad, paralelos a nuestro propio universo, pero eternamente desconectados de él.

¿Quién observa a los observadores?
Esta interpretación de la existencia de otros mundos de la mecánica cuántica tuvo su origen en el trabajo de Hugh Everett, un licenciado por la Universidad de Princeton en la década de los 50. Investigando en tomo a la peculiar interpretación de Copenhague de imponer a las funciones de ondas, cuando son observadas, el colapso mágico, él discutió posibles alternativas con muchos otros físicos, incluyendo a John Wheeler, que animó a Everett a desarrollar su propia versión como tesis doctoral. Este punto de vista alternativo parte de una premisa muy simple que es la culminación lógica de la consideración de los sucesivos colapsos de la función de onda implicados al realizar un experimento en un laboratorio cerrado: transmitir el resultado a alguien en el exterior, quien a su vez lo puede comunicar a un amigo en otra ciudad que se lo cuenta a otro conocido, y así sucesivamente. En cada peldaño, la función de onda se hace más compleja y abarca más allá del mundo real. Pero en cada etapa las alternativas continúan siendo igualmente válidas, ya que son realidades superpuestas, hasta que la noticia sobre el resultado del experimento llega a su destino. Se puede imaginar la propagación de noticias a través de todo el Universo de esta misma forma, hasta que el Universo entero se encuentra en un estado de funciones de onda superpuestas. Estas realidades alternativas sólo se colapsan en un mundo cuando son observadas. Pero ¿quién observa el Universo?
Por definición el Universo lo contiene todo. Cualquier objeto está incluido en él, de forma que no hay observadores exteriores que se aperciban de la existencia del Universo y entonces colapsen su complejo mecanismo de interacción entre realidades alternativas en una función de onda. La idea de Wheeler sobre la consciencia humana, como ese observador crucial que opera retrospectivamente desde el Big Bang, es una posible solución al dilema, pero implica un argumento circular tan misterioso como el propio enigma que pretende desvelar. Es más factible el argumento solipsista consistente en que sólo hay un observador en el universo, una persona concreta, y sus observaciones son el factor esencial que cristaliza la realidad a partir de la red de las posibilidades cuánticas. Sin embargo, la interpretación de la existencia de otros mundos, de Everett, es otra posibilidad más satisfactoria y más completa.
La interpretación de Everett consiste en admitir que las funciones de onda superpuestas del Universo entero, las realidades alternativas que interaccionan para producir interferencias medibles en el nivel cuántico, no se colapsan. Todas ellas son igualmente reales, y existen en una parte concreta (y que les corresponde) del superespacio (y del supertiempo). Lo que sucede cuando se efectúa una medida en el nivel cuántico es que es forzoso, en virtud del proceso de observación, seleccionar una de esas alternativas, que se convierte en parte de lo que se conoce como mundo real; el acto de observar corta los lazos que mantienen unidas a las realidades alternativas y les permite continuar su propio camino a través del superespacio, cada realidad alternativa con su propio observador, que es el que ha efectuado la citada observación y ha obtenido una respuesta cuántica concreta, creyendo que ha sido este observador el causante del colapso de la función de onda en una única alternativa cuántica.
Es difícil asimilar completamente el párrafo anterior hablando en términos de colapso de la función de onda del Universo entero, pero es mucho más sencillo comprender lo que significa la positiva aportación de Everett si se ofrece un ejemplo más familiar. La búsqueda del gato oculto en la paradójica caja de Schrödinger proporciona exactamente el ejemplo necesario para ilustrar la potencia de la interpretación de la existencia de otros mundos de la mecánica cuántica. La sorpresa está en que, siguiendo sus pasos, no aparece un solo gato real, sino dos.
Las ecuaciones de la mecánica cuántica indican que en el interior de la caja del famoso experimento imaginado por Schrödinger hay aspectos de una función de onda de un gato vivo y de otra de un gato muerto. La interpretación convencional de Copenhague considera a ambas posibilidades desde una perspectiva según la cual ambas funciones de onda son igualmente irreales, y sólo una de ellas es una realidad cuando se observa dentro de la caja. La interpretación de Everett acepta las ecuaciones cuánticas en sentido literal y afirma que ambos gatos son reales. Hay un gato vivo y hay un gato muerto; pero están localizados en mundos diferentes. No se trata de que el átomo radiactivo en el interior de la caja se desintegre o no, sino que hace ambas cosas. Por tanto, el universo se desdobla en dos versiones de sí mismo, idénticas en todo excepto en que en una de ellas el átomo se desintegró y el gato está muerto, y en la otra el átomo no se desintegró y el gato está vivo. Suena a ciencia ficción, pero es mucho más profundo y se basa en unas ecuaciones matemáticas inobjetables, de acuerdo a la premisa de aceptar literalmente el formalismo cuántico.

Más allá de la ciencia ficción
La importancia del trabajo de Everett, publicado en 1957, está en que fundamentó su teoría con una rigurosa base matemática utilizando las reglas ya establecidas de la teoría cuántica. Una teoría se basa en la especulación sobre la naturaleza del Universo, y otra muy diferente en el desarrollo de tales especulaciones hasta elaborar una teoría completa y autoconsistente de la realidad. Ciertamente, Everett no fue el primero en especular de esta forma, aunque parece que él realizó sus teorías con independencia de otras sugerencias previas sobre realidades múltiples y mundos paralelos. La mayoría de aquellas especulaciones anteriores —y muchas más desde 1957— han aparecido en las páginas de los libros de ciencia ficción. La más antigua versión que yo he podido indagar es la que se encuentra en The Legión of Time, de Jack Williamson, publicada originariamente como un serial de revista en 1938.[71]
Muchas de las historias de ciencia ficción se basan en realidades paralelas, como la victoria del Sur en la Guerra Civil Norteamericana o la conquista de Inglaterra por la Armada Invencible. Algunos describen las aventuras de un héroe que viaja en cualquier dirección en el tiempo pasando de una realidad a otra alternativa; son pocas las historias que describen, con lenguaje apropiado, cómo un mundo alternativo de ese tipo puede escindirse del nuestro. En la original narración de Williamson se manejan dos mundos diferentes, ninguno de los cuales consigue una realidad concreta hasta que tiene lugar alguna acción clave en un instante crucial del pasado, donde el curso de esos dos mundos era divergente (en esta historia también aparece el viaje en el tiempo, y la acción resulta tan circular como los argumentos que la justifican). En esta idea hay ecos del colapso de una función de onda en la forma prescrita por la interpretación de Copenhague, y la familiaridad de Williamson con las nuevas ideas de los años 30 aparece claramente descrita en este pasaje en el que un personaje explica lo que sucede:
«Con la sustitución de partículas concretas por ondas de probabilidad, las líneas universo de los objetos ya no son los caminos fijos y simples donde antes se encontraban. Las geodésicas presentan una proliferación infinita de posibles ramificaciones, según las veleidades del indeterminismo subatómico.»
El mundo de Williamson es un mundo de realidades fantasmales, en el que tiene lugar la acción del héroe, donde una de ellas se colapsa y desaparece cuando se toma la decisión esencial y otro de los fantasmas queda seleccionado para convertirse en realidad concreta. El modelo de Everett, en cambio, lo integran muchas realidades concretas; todos los mundos resultan igualmente reales, pero ni los héroes pueden pasar de una realidad a otra vecina. Sin embargo, la versión de Everett es verdadera ciencia, no ciencia ficción.

img053.jpg
Fig. 11-1. La frase «mundos paralelos» sugiere realidades alternativas próximas en el «superespacio-tiempo». Ésta es una falsa imagen.

img054.jpg
Fig. 11-2. Una imagen mejor presenta al Universo en constante desdoblamiento, como un árbol con sus ramas. Pero también ésta es una falsa imagen.

Volvamos al experimento fundamental en física cuántica, al experimento de los dos agujeros. Incluso dentro del esquema de la interpretación de Copenhague convencional, aunque pocos teóricos cuánticos son conscientes de ello, la figura de interferencia producida en la pantalla cuando tan sólo una partícula está atravesando el dispositivo se explica como una interferencia de dos realidades alternativas. En una de estas realidades la partícula pasa a través del agujero A, en la otra lo hace por B. Si se observan los agujeros, se encuentra que la partícula solo pasa a través de uno de ellos, y no hay interferencia. Pero ¿cómo escoge la partícula el agujero por el que debe pasar? Según la interpretación de Copenhague, la elección se efectúa al azar de acuerdo con las probabilidades cuánticas; Dios juega a los dados con el universo. En la interpretación de la existencia de otros mundos, no se escoge. Frente a una elección en el nivel cuántico, no sólo la partícula misma sino el Universo entero se desdobla en dos versiones. En un universo, la partícula pasa a través del agujero A, en el otro a través de B. En cada universo hay un observador que ve a la partícula pasar a través de un único agujero. Y ya para siempre los dos universos quedan completamente separados y desconectados; por eso no hay ya interferencia en la pantalla del experimento.
Basta multiplicar esta imagen por el número de sucesos cuánticos que ocurren constantemente en cada región del Universo para comprender la resistencia de los físicos convencionales ante este modelo. A pesar de todo, como Everett estableció hace muchos años, se trata de una descripción lógica y autoconsistente de la realidad cuántica, compatible con toda evidencia experimental.
A pesar de su perfecto tratamiento matemático, la nueva interpretación de Everett de la mecánica cuántica apenas causó impacto entre la comunidad científica en 1957. Una versión del trabajo apareció en Reviews of Modern Physics,[72] y en el mismo volumen aparecía un artículo de Wheeler llamando la atención sobre la importancia del trabajo de Everett.[73] Pero estas ideas fueron ignoradas hasta que Bryce DeWitt, de la Universidad de Carolina del Norte, se ocupó de ellas, más de diez años después.
No está claro por qué la idea tardó tanto tiempo en ser captada, aunque sólo fuera en la pequeña medida en que consiguió éxito en los años 70. Dejando aparte las densas matemáticas que intervienen, Everett explicó cuidadosamente en su artículo en Reviews of Modern Physics que no es lógico el argumento de que el desdoblamiento del Universo en muchos otros mundos no puede ser real porque no hay experiencia de ello. Todos los elementos de una superposición de estados obedecen a la ecuación de onda con indiferencia completa hacia el resto de los elementos, y la ausencia total de efectos de una rama sobre otra implica que ningún observador podrá nunca apercibirse del proceso de desdoblamiento. Negar este razonamiento es como negar el movimiento de la Tierra en órbita alrededor del Sol porque, si ocurriera, se debería notar el movimiento. «En ambos casos», afirma Everett, «la teoría misma predice que nuestra experiencia ha de ser la que de hecho es».

¿Más allá de Einstein?
En el caso de la interpretación de la existencia de otros mundos, la teoría es conceptualmente simple, causal y da predicciones de acuerdo con la experiencia. Wheeler intentó atraer la atención de los científicos por todos los medios:
«Resulta difícil clarificar hasta qué punto la formulación del estado relativo rompe con los conceptos clásicos. La insatisfacción inicial en este aspecto puede ser paliada por la consideración de algunos episodios de la historia: cuando Newton describió la gravedad mediante algo tan absurdo como la acción a distancia; cuando Maxwell describió algo tan natural como la acción a distancia en términos tan artificiales como las teorías de campos: cuando Einstein negó un carácter privilegiado a cualquier sistema de coordenadas… nada hay comparable en el resto de la física excepto el principio de la relatividad general de que todos los sistemas de coordenadas regulares están igualmente justificados.[74]
Wheeler concluía que «aparte el concepto de Everett, no se dispone de ningún sistema autoconsciente de ideas para explicar lo que puede significar la cuantificación de un sistema cerrado como el Universo de la relatividad general». Pero la interpretación de Everett adolece de un gran defecto: el de tratar de desvalorizar la interpretación de Copenhague a pesar de la sólida posición que ocupa en la física. La versión de los otros mundos de la mecánica cuántica realiza exactamente las mismas predicciones que la de Copenhague en cuanto a los resultados de una observación o de un experimento. Esto representa, a la vez, un punto favorable y otro desfavorable para la nueva interpretación. Como la teoría de Copenhague nunca ha fallado en estas cuestiones de tipo práctico, cualquier nueva interpretación de la física cuántica ha de proporcionar las mismas conclusiones que la de Copenhague cuando sea sometida a test. De modo que la interpretación de Everett pasa el primer test, pero supera a la de Copenhague en la eliminación de las aparentemente paradójicas características de los experimentos del tipo de la doble rendija, o de los testes en la línea del de E.P.R. Desde el punto de vista cuántico es difícil ver la diferencia entre las dos interpretaciones, y la inclinación natural es la de adherirse a la más usual. Sin embargo, para cualquiera que haya estudiado en profundidad los experimentos imaginados de E.P.R., y los distintos testes de la desigualdad de Bell, la tendencia a tomar como válida la interpretación de Everett es mucho mayor. En esta última teoría no es la elección por la componente de espín que se va a medir la que fuerza a la componente de espín de otra partícula, remotamente alejada en el Universo, a adoptar por arte de magia el estado complementario, sino que la elección de la componente de espín que se va a medir lo que decide es en qué ramificación de la realidad se va a vivir. En esta rama del superespacio, el espín de la otra partícula siempre es complementario del que se mide. Es la elección la que decide cuál de los mundos cuánticos se va a observar en los experimentos, y por tanto en cuál se va a habitar, no el azar. En una teoría en la que todos los resultados posibles de un experimento pueden ocurrir realmente, siendo cada resultado observado por su propio conjunto de observadores, no es sorprendente encontrarse con que lo que se observa directamente es uno de los posibles resultados del experimento.

Una segunda visión
La interpretación de los otros mundos de la mecánica cuántica resultó casi conscientemente ignorada por la comunidad de los físicos hasta que DeWitt asumió la idea a finales de los años 60 escribiendo él mismo sobre el tema y animando a un estudiante, Neill Graham, a desarrollar una parte del trabajo de Everett como su propia tesis doctoral. Como DeWitt explicaba en un artículo en Physics Today en 1970,[75] la interpretación de Everett resulta atractiva cuando se aplica a la paradoja del gato de Schrödinger. La preocupación de si el gato está vivo y muerto a la vez, o también ni vivo ni muerto, ya no es importante; en lugar de ello, se sabe que en nuestro mundo la caja contiene un gato vivo o un gato muerto, y que en el mundo contiguo hay otro observador que posee una caja idéntica con un gato que está muerto o con un gato que está vivo. Pero si el Universo está en «constante desdoblamiento en un asombroso número de ramas», entonces «cada transición cuántica que tiene lugar en cualquier estrella, en cualquier galaxia, en cualquier remota esquina del Universo está desdoblando nuestro mundo local sobre la Tierra en miríadas de copias de sí mismo».
DeWitt compara el impacto que le causó el enfrentarse por primera vez con este concepto, con la «idea de 10100 ligeramente imperfectas copias de uno mismo, todas en constante desdoblamiento en copias adicionales». Pero quedó convencido, por su propio trabajo, por las tesis de Everett, y por la nueva aportación de Graham al respecto. Él consideró incluso hasta dónde podía llegar este desdoblamiento constante. En un universo finito —y existen buenas razones para pensar que si la relatividad general es una descripción fiel de la realidad el universo es finito[76]— sólo debe existir un número finito de ramificaciones del árbol cuántico, por lo que puede no existir suficiente sitio en el de superespacio para acomodar a las más extrañas posibilidades la estructura fina de lo que DeWitt llama «mundos disidentes», realidades con pautas de comportamiento extrañamente distorsionadas. En cualquier caso, aunque la interpretación de Everett estricta afirma que todo lo que es posible ocurre en alguna versión de la realidad, en algún lugar del superespacio, eso no es lo mismo que afirmar que todo lo imaginable puede ocurrir. Se pueden imaginar sucesos imposibles que no puedan acomodarse en los mundos reales. En un mundo, por otro lado idéntico al nuestro, incluso si los cerdos (idénticos a nuestros cerdos) tuvieran alas, no podrían volar; los héroes, no importa su calidad, no podrían efectuar saltos en el tiempo para visitar otras realidades alternativas, aunque los escritores y novelistas sobre ciencia ficción sigan especulando sobre las consecuencias de tales acciones; y como éstos, muchos ejemplos más.
La conclusión de DeWitt es tan pesimista como la anterior de Wheeler:
«La visión de Everett, Wheeler y Graham impresiona profundamente. Se trata de un punto de vista causal, que el mismo Einstein podría haber aceptado… tiene más derecho que la mayoría para ser el producto final natural del programa de interpretación que comenzó con Heisenberg en 1925.»
Hace pocos años, Wheeler expresó sus dudas acerca de este tema. Respondiendo a preguntas en un congreso conmemorativo del centenario del nacimiento de Einstein, afirmó sobre la teoría de los otros mundos: «Confieso que últimamente me cuesta apoyar este punto de vista —a pesar de lo mucho que abogué por él a principio— porque me temo que traiga consigo una desmesurada cantidad de bagaje metafísico».[77] Esta afirmación no debe entenderse como un desmantelamiento de la interpretación de Everett; el hecho de que Einstein cambiara de forma de pensar en cuanto a la base estadística de la mecánica cuántica no fue suficiente para acabar con esta interpretación. Ni tampoco quiere decir que lo que Wheeler afirmara en 1957 haya dejado de ser válido. Es cierto que, en 1983, aparte la teoría de Everett, no se disponía de ningún otro conjunto autoconsistente de ideas para explicar lo que significaba cuantificar el Universo. Pero la evolución de Wheeler muestra lo reacio de muchos científicos a aceptar la teoría de los muchos mundos. Particularmente, el bagaje metafísico requerido es menos difícil que la interpretación de Copenhague del experimento con el gato, o que la necesidad de un «espacio de configuración» con tantas dimensiones como resultan de multiplicar por tres el número de partículas del Universo. Los conceptos no son más extraños que otros que parecen familiares sólo porque han sido ampliamente discutidos, y la interpretación de los otros mundos ofrece nuevas perspectivas en tomo a las razones por las que el Universo que habitamos ha de ser como es. La teoría está muy lejos de quedar abandonada o desterrada y todavía merece seria atención.

Más allá de Everett
Los cosmólogos hablan actualmente bastante a la ligera sobre sucesos que tuvieron lugar justamente a continuación del nacimiento del Universo en el Big Bang, y calculan las reacciones que ocurrieron cuando la edad del Universo era de 10−35 segundos o menos. Estos sucesos involucran a una amalgama de partículas y radiación, con producción y aniquilación de pares. Las hipótesis sobre cómo tuvieron lugar esas reacciones se basan en una mezcla de teoría y de observaciones de la forma en que interaccionan las partículas mediante un acelerador gigante como el construido por el C.E.R.N. en Ginebra. De acuerdo a ello, las leyes de la física determinadas a partir de los experimentos realizados en la Tierra pueden explicar de manera lógica y autoconsciente cómo el Universo pasó de un estado de densidad casi infinita al estado en que permanece hoy. Las teorías incluso apuntan a predecir el balance entre materia y antimateria en el Universo, y entre materia y radiación.[78] Toda aquella persona interesada por la ciencia, aunque no esté directamente relacionada con el tema, ha oído hablar de la teoría del Big Bang sobre el origen del Universo. Los teóricos utilizan números que describen sucesos que se afirma ocurrieron en fracciones de segundo hace quince mil millones de años. Pero, ¿quién se para hoy a pensar lo que esas ideas realmente significan? Resulta absolutamente impensable hacerse una idea de las implicaciones correspondientes. ¿Quién puede apreciar lo que realmente supone un número como 10−35 segundos y tratar de comprender la naturaleza del Universo cuando tenía 10−35 segundos de edad? Para los científicos que trabajan con aspectos tan extraños de la naturaleza les sería más útil utilizar el concepto de mundos paralelos.
Esta expresión, tomada de la ciencia ficción, es bastante inapropiada. La imagen natural de realidades alternativas es la de distintas ramificaciones que surgen de un tronco principal y discurren una al lado de otra en el superespacio, como las líneas de una red de ferrocarriles completa. Como una superautopista con millones de carriles paralelos, los escritores de ciencia ficción imaginan a todos estos mundos codo con codo en el tiempo y siendo prácticamente idénticos a nuestro mundo, pero con diferencias que son tanto más ostensibles cuanto más nos movemos en el tiempo. Esta imagen es la que conduce a la especulación sobre la posibilidad de cambiar de carril en la autopista, pasándonos al mundo de al lado. Desgraciadamente las matemáticas no son compatibles con esta sugestiva imagen.
Los matemáticos no tienen problemas para manejar más dimensiones que las tres del espacio familiar tan importante en la vida cotidiana. Nuestro mundo entero, una ramificación de la realidad de los muchos mundos de Everett, se describe matemáticamente con cuatro dimensiones, tres espaciales y una temporal, todas ellas formando direcciones perpendiculares entre sí, y las matemáticas necesarias para describir más dimensiones perpendiculares entre sí y las cuatro anteriores constituyen una sencilla rutina. Ésta es la imagen adecuada para las realidades alternativas; no son paralelas a nuestro propio mundo, sino perpendiculares en el superespacio.[79] Es difícil imaginar esta idea, pero es más asequible para entender la imposibilidad de deslizarse hasta otra realidad alternativa. Si una persona emigrara de nuestro mundo en ángulo recto —lateralmente— estaría creando otro mundo nuevo propio. En realidad, en la teoría de los otros mundos esto es lo que acontece cada vez que el Universo se enfrenta a una elección cuántica. La única forma de penetrar en una de las realidades alternativas creadas por un desdoblamiento tal del Universo como el originado por un experimento como el del gato en la caja, o el de la doble rendija, sería volver atrás en el tiempo en nuestra realidad tetradimensional hasta el instante del experimento, y entonces dirigirse a través del tiempo a lo largo de la ramificación alternativa, perpendicular a nuestro propio mundo tetradimensional.
Esto sería imposible. Las teorías convencionales indican que el verdadero viaje en el tiempo no es posible, por las paradojas que implican, como la de volver atrás en el tiempo y matar al propio abuelo antes de que el padre de uno mismo fuera concebido. Por otra parte, al nivel cuántico de las partículas, éstas parecen estar involucradas constantemente en tal viaje en el tiempo, y Frank Tipler ha demostrado que las ecuaciones de la relatividad general lo permiten. Es posible concebir una clase especial de viaje hacia adelante y hacia atrás en el tiempo que no dé lugar a paradojas, y la forma de tal viaje se basa en la realidad de universos alternativos. David Gerrold estudió estas posibilidades en un ameno libro de ciencia ficción, The Man Who Folded Himself, que vale la pena ser leído como ilustrativo de las complejidades y sutilezas de una realidad de otros mundos. El punto importante es, continuando con el ejemplo, de que si se vuelve hacia atrás en el tiempo y se mata al abuelo se está creando, o entrando en (depende el punto de vista), un mundo alternativo ramificado perpendicularmente al original. En esta nueva realidad, ni el padre, ni uno mismo, habrían nacido nunca, y no hay paradoja porque uno sigue aún vivo en la realidad original, y lo único que ha hecho es viajar hacia atrás en el tiempo hasta una realidad alternativa. Volviendo atrás y deshaciendo el proceso esa persona se reintegra en la ramificación original de realidad, o al menos en una similar.
Gerrold no explica los extraños sucesos que le acontecen a su personaje principal en términos de realidades perpendiculares, ya que la explicación física de las matemáticas de la interpretación de Everett es original y significa una novedad para los escritores de ciencia ficción que éstos no han adoptado, por ahora.[80] El punto que vale la pena señalar es que las realidades alternativas no están, en esta imagen, junto a las nuestras en el sentido de podernos deslizar hacia ellas y retomar con poco esfuerzo. Cada rama de realidad forma ángulo recto con todas las otras. Puede haber un mundo en el que Bonaparte recibió por nombre Pierre, no Napoleón, pero donde la historia discurrió esencialmente como en nuestra propia ramificación de la realidad; y puede haber otro mundo en el que el tal Bonaparte nunca existió. Ambos mundos son igualmente remotos e inaccesibles desde el nuestro. Ninguno puede ser alcanzado si no es a través de un retroceso en el tiempo en nuestro mundo hasta el punto de ramificación apropiado, y entonces avanzando otra vez en el tiempo hacia adelante, y en ángulo recto (uno de los muchos ángulos rectos) a nuestra realidad propia.
Esta idea puede desarrollarse hasta eliminar la naturaleza paradójica de cualquiera de los viajes en el tiempo tan del gusto de escritores y lectores de ciencia ficción, y tan rechazados por los filósofos. Todas las cosas posibles ocurren, en alguna rama de realidad. La clave para llegar hasta otras posibles realidades no es el desplazamiento lateral en el tiempo, sino hacia atrás en nuestra rama y hacia adelante en la nueva. Posiblemente la mejor novela de ciencia ficción escrita jamás, utiliza la interpretación de los otros mundos, aunque no es seguro que el autor, Gregory Benford, lo hiciera conscientemente. En su libro, Timescape, el destino de un mundo resulta fundamentalmente alterado como consecuencia de los mensajes que se envían a los años 60 desde los años 90. El argumento es hábil, atractivo y válido en sí, incluso fuera de un esquema de ciencia ficción. Pero el punto a resaltar aquí es que, debido a que el mundo cambia como resultado de acciones ejecutadas por gente que recibe los mensajes desde el futuro, este futuro del que provienen los mensajes no existe para ellos. Entonces ¿de dónde vienen los mensajes? Se podría, quizá, razonar en base a la interpretación de Copenhague y pensar en términos de un mundo fantasma donde se envían mensajes también fantasmas hacia el pasado que afecta a la forma en que la función de onda se colapsa, pero hay que estar muy influenciado para dar valor a estar argumentación. Por el contrario, en la interpretación de los muchos mundos resulta elemental concebir mensajes retrocediendo en el tiempo a través de una realidad hasta un punto de ramificación donde son recibidos por seres que entonces se mueven hacia adelante en el tiempo en su propia, pero diferente, rama de realidad. Ambos mundos alternativos existen, aunque la comunicación entre ellos se rompe una vez se han tomado las decisiones críticas que afectan al futuro.[81]Timescape, al tiempo que es una buena lectura, contiene un experimento imaginado casi tan misterioso y relevante para el debate en tomo a la mecánica cuántica como el experimento de E.P.R. o el del gato de Schrödinger. Puede que el propio Everett no se diera cuenta, pero una realidad como la de los otros mundos es exactamente la que puede permitir el viaje en el tiempo.

Nuestro lugar especial
De acuerdo a la interpretación de la teoría de los otros mundos, el futuro no está determinado, en cuanto a nuestra percepción consciente del mundo se refiere, pero el pasado sí lo está. Mediante el acto de observación se ha seleccionado una historia real entre las muchas realidades, por lo que una vez que alguien ha visto un árbol en nuestro mundo sigue allí, aunque nadie lo esté contemplando. Y esta idea es válida desde el Big Bang. No obstante, hay muchas rutas para el futuro, y alguna versión de «nosotros» seguirá por cada una de ellas. Cada una de estas versiones de nosotros mismos creerá que avanza a través del único camino, y se mirará en un único pasado, pero resulta absolutamente imposible conocer el futuro porque hay muchos futuros. Incluso se pueden recibir mensajes desde el futuro, bien por medios mecánicos como en Timescape o, si se desea imaginar tal posibilidad, a través de sueños o de percepción extrasensorial. Pero aquellos mensajes no servirán de mucho, ya que ante la multiplicidad de mundos futuros, cualquiera de tales mensajes cabe esperar que esté lleno de confusión y de contradicciones. Si se les tiene en cuenta es altamente probable que nos desviemos por una rama de realidad diferente de la que traían los mensajes, con lo que resulta prácticamente imposible que éstos se hagan realidad alguna vez. Los científicos que sugieren que la teoría cuántica ofrece una posibilidad para la percepción extrasensorial, la telepatía y demás, se equivocan.
La imagen del universo como un diagrama de Feynman a través del cual el presente se mueve de manera uniforme es una simplificación exagerada. La imagen real es la de un diagrama de Feynman multidimensional, correspondiente a todos los posibles mundos, con un presente que se desliza por todos ellos, ascendiendo y retrocediendo por cada ramificación. La pregunta más importante que falta por contestar dentro de este esquema es por qué nuestra percepción de la realidad habría de ser la que es; ¿por qué la elección de caminos a través del laberinto cuántico que se origina en el Big Bang y llega hasta nosotros, debe conducir precisamente a la aparición de la inteligencia en el Universo?
La respuesta se apoya en una idea habitualmente conocida como el principio antrópico. Éste postula que las condiciones que existen en nuestro Universo son las únicas condiciones, salvo pequeñas variaciones, que habrían permitido la evolución hasta una vida como la humana, y así es inevitable que cualquier especie inteligente como nosotros observe un universo como el que detectamos alrededor nuestro.[82] Si el Universo no fuera como es, nosotros no estaríamos aquí para observarlo. Se puede imaginar el Universo siguiendo diferentes caminos cuánticos a partir del Big Bang. Y es posible que algunos de aquellos mundos —debido a las diferencias en las elecciones cuánticas próximas al comienzo de la expansión universal— las estrellas y los planetas no estén formados, y la vida tal como se concibe no exista. En el universo parece haber una preponderancia de las partículas de materia y poco o nada de antimateria. Puede que no exista una razón fundamental que pueda explicar este hecho; es posible que sea un simple accidente debido a las reacciones que tuvieron lugar en la fase de bola de fuego del Big Bang. Igualmente el Universo podría estar vacío, o podría consistir principalmente en antimateria con poco o nada de materia. En el Universo vacío no habrá vida humana; en el Universo antimateria podría haber vida humana, como un mundo real constituido por la imagen reflejada en un espejo. El problema sería por qué apareció un mundo ideal para la vida a partir del Big Bang.
El principio antrópico afirma que pueden existir muchos posibles mundos y que nosotros somos un producto inevitable de nuestra clase de universo. Pero ¿dónde están los otros mundos? ¿Son fantasmas, como los mundos que interaccionan en la interpretación de Copenhague? ¿Corresponden a diferentes ciclos vitales del universo entero, anteriores al Big Bang donde comienzan el espacio y el tiempo que nosotros conocemos? ¿O podrían ser los otros mundos de Everett, todos ellos perpendiculares al nuestro? Ésta es la mejor explicación de que se dispone hasta hoy.
La mayoría de las realidades cuánticas alternativas no son apropiadas para la vida y están vacías. Las condiciones necesarias para la vida son especiales, de forma que cuando seres vivientes miran hacia atrás en el camino cuántico que los han originado, ellos ven sucesos especiales, ramificaciones en la red cuántica que pueden no ser las más probables desde un punto de vista estadístico, pero que son las únicas que conducen a una vida inteligente. La multiplicidad de mundos como el nuestro, pero con diferentes acontecimientos —como el mantenimiento por Gran Bretaña de sus colonias o la colonización de Europa por los nativos norteamericanos— conjuntamente no representan más que una pequeña muestra de una vasta realidad. No es el azar el que ha seleccionado las condiciones especiales apropiadas para la vida entre las posibilidades cuánticas, sino la elección. Todos los mundos son igualmente reales, pero sólo aquellos mundos apropiados contienen observadores.
El éxito de los experimentos del equipo de Aspect al someter a test la desigualdad de Bell ha eliminado todas, excepto dos, de las posibles interpretaciones que en el curso del tiempo se han presentado en tomo a la mecánica cuántica. O se acepta la interpretación de Copenhague con sus realidades fantasmales y sus gatos vivo-muertos, o se acepta la interpretación de Everett con sus otros mundos. Es concebible, por supuesto, que ninguna de las dos posibilidades sea la buena, y que ambas alternativas sean erróneas. Podría aparecer otra interpretación de la realidad mecánico-cuántica que resuelva todos los problemas que la interpretación de Copenhague y la de Everett resuelven, incluyendo el Test de Bell, y que vaya más lejos del conocimiento actual, de la misma forma, por ejemplo, que la relatividad general trasciende e incorpora a la relatividad especial. Si se piensa que éste es un camino fácil para evitar el dilema, recuérdese que esa nueva interpretación debe explicar todo lo que se ha aprendido desde el gran salto en el vacío de Planck, y debe explicar todo tan bien, o mejor, de lo que lo hacen las dos interpretaciones referidas. Ciertamente, es exigir demasiado, y no es el estilo habitual en ciencia el cruzarse tranquilamente de brazos y esperar que alguien aparezca con una mejor solución a nuestros problemas. Por tanto, ya que no existe aún una solución ideal, hay que admitir las implicaciones de la mejor contestación de que se dispone. Tras más de medio siglo de intensos esfuerzos dedicados al problema de la realidad cuántica por los mejores cerebros del siglo veinte, hay que aceptar que la ciencia sólo puede ofrecer actualmente estas dos explicaciones alternativas de la forma en que el mundo está construido. Ninguna de ellas parece muy atrayente a primera vista. O nada es real o todo es real; éste es el panorama.
El tema puede que nunca quede resuelto, porque puede ser imposible idear un experimento en la línea de un viaje en el tiempo que permita dilucidar entre ambas interpretaciones. Pero está muy claro que Max Jammer, uno de los filósofos cuánticos más relevantes, no exageraba cuando decía que «la teoría de los otros mundos es indudablemente una de las más osadas y la más ambiciosa de las teorías construidas en la historia de la ciencia».[83] Prácticamente lo explica todo, incluso la vida y la muerte de los gatos. Ésta es la interpretación que más atrae. Todo en ella es posible, y según las acciones realizadas se escoge el camino a través de los muchos mundos del cuanto. En el mundo que habitamos lo que vemos es lo que hay; no existen variables ocultas; Dios no juega a los dados; y todo es real. Una de las anécdotas que se cuenta y se vuelve a contar sobre Niels Bohr es que cuando alguien acudía a él con una idea aberrante pretendiendo resolver alguno de los problemas de la teoría cuántica de los años 20, él replicaba: «Su teoría es disparatada, pero no es lo suficientemente disparatada como para ser verdad.»[84] La teoría de Everett es lo suficientemente disparatada como para ser verdadera, y ésta parece una observación apropiada para concluir la búsqueda del gato de Schrödinger.

Epílogo
Un tema inacabado

La historia del cuanto que se ha narrado aquí sugiere una teoría perfectamente acabada, excepto la cuestión semifilosófica de si se prefiere la interpretación de Copenhague o la versión de los otros mundos. Ésta es la mejor forma de presentar la historia en un libro, pero no es la verdad completa. La historia del cuanto aún no se ha terminado del todo, y los teóricos actuales se enfrentan a problemas que pueden llevar a avances tan notables como el de Bohr al cuantificar el átomo. Escribir sobre este tema inacabado no resulta atractivo; los puntos de vista aceptados sobre lo que es importante y lo que propiamente puede ser ignorado pueden cambiar completamente antes de que el trabajo sea publicado. Pero con el objeto de sugerir hacia dónde puede apuntar una línea de progreso, este epílogo incluye un resumen de los temas inacabados de la historia del cuanto, así como algunos indicios sobre posibles desarrollos futuros.
El signo más claro de que aún hay algo por descubrir en la teoría cuántica se observa en la rama de la teoría cuántica que pasa por ser la joya, el gran triunfo de esta teoría. Se trata de la electrodinámica cuántica, abreviadamente QED,[85] la teoría que explica la interacción electromagnética en términos cuánticos. La QED es una teoría que floreció en la década de los 40, y que se ha mostrado tan potente que incluso ha sido usada como modelo para una teoría de la interacción nuclear; teoría que, a su vez, ha dado origen a la cromodinámica cuántica, abreviadamente QCD,[86] así llamada porque involucra la interacción entre partículas llamadas «quarks» que presentan propiedades que los teóricos distinguen, caprichosamente, asignándoles nombres de colores. Aún actualmente, la QED es una teoría de gran prestigio; que funciona, aunque sólo sea para completar las matemáticas de forma que éstas conduzcan a una mejor explicación de nuestras observaciones del mundo.
Los problemas aparecen relacionados con el hecho de que un electrón en la teoría cuántica no es la partícula desnuda de la teoría clásica, sino que está rodeado de una nube de partículas virtuales. Esta nube afecta a la masa del electrón. Es posible llegar a establecer las ecuaciones cuánticas del conjunto formado por el electrón y su nube, pero en cuanto tales ecuaciones se resuelven matemáticamente proporcionan soluciones infinitamente grandes. Partiendo de la ecuación de Schrödinger, la pieza clave de la cocina cuántica, el tratamiento matemático correcto del electrón conduce a una masa infinita, energía infinita y carga infinita. No existe forma matemáticamente lícita de eliminar tales infinitos, pero es posible liberarse de ellos mediante un Experimento teórico. Se sabe, por medidas experimentales directas, lo que vale la masa de un electrón y ésta debe ser la respuesta que la teoría ha de proporcionar para la masa conjunta del electrón y su nube. Así, los teóricos eliminan los infinitos de las ecuaciones dividiendo un infinito entre otro infinito. Matemáticamente, si se divide infinito entre infinito se puede obtener cualquier resultado, y por eso ellos afirman que el cociente ha de ser la solución buscada, la masa medida para el electrón. Esta teoría recibe el nombre de renormalización.

img055.jpg
Fig. E-1. El clásico diagrama de Feynman para la interacción entre partículas.

img056.jpg
Fig. E-2. Existen correcciones cuánticas a las leyes de la electrodinámica debido a la presencia de partículas virtuales; los diagramas correspondientes presentan lazos cerrados. Estas situaciones conducen a infinitos que sólo pueden eliminarse mediante el artificio de la renormalización, no del todo satisfactorio.

Para aclarar el significado de lo anterior imagínese que alguien que pesa 69 kg viaja a la Luna, donde la fuerza gravitacional en la superficie es sólo la sexta parte de la fuerza gravitacional sobre la superficie de la Tierra. En una báscula de baño convencional diseñada en la Tierra y transportada en el viaje, en la Luna el pasajero marca solo 11,5 kg, aunque su cuerpo no haya experimentado pérdida de masa alguna. En tales circunstancias sería razonable, quizá, renormalizar la báscula ajustando el mecanismo de forma que se marcara los 69 kg que señalaba en la Tierra. Esto es posible sólo porque se conoce el peso real del pasajero, referido a términos de a Tierra, y se desea mantener la escala con esa convención terrestre. Si la aguja señalara un peso infinito, sólo sería posible ajustarla a la realidad efectuando una corrección infinita, y eso es lo que hacen los teóricos en QED. Pero, aunque dividiendo 69 entré 6 da, sin lugar a dudas, 11,5, dividiendo 11,5 veces infinito entre infinito el resultado no es 11,5, sino que se puede obtener cualquier otro resultado.

img057.jpg
Fig. E-3. El intercambio de dos bosones W entre un neutrino y un neutrón es suficiente para requerir una corrección infinita a los cálculos, comparado con el intercambio de un único bosón.

Si se eliminan los infinitos, las soluciones de la ecuación de Schrödinger proporcionan todo lo que los físicos podrían desear, y describen perfectamente incluso las mayores sutilezas de las interacciones electromagnéticas en los espectros atómicos. Los resultados son perfectos, por lo que la mayoría de los teóricos aceptan a la QED como una buena teoría y no se preocupan por los infinitos, de igual forma que los científicos cuánticos no se preocupan por la interpretación de Copenhague o por el principio de incertidumbre. Pero no por el hecho de que esta teoría sea operativa deja de ser un proyecto; además, el científico cuya opinión habría de ser la más respetable en teoría cuántica no estaba satisfecho con todo esto. En una conferencia pronunciada en Nueva Zelanda en 1975,[87] Paul Dirac afirmaba:
«Debo manifestar que estoy altamente insatisfecho con la situación porque la que se conoce como “buena teoría” implica el despreciar infinitos que aparecen en sus ecuaciones y despreciarlos de una forma arbitraria. Esto no es razonable matemáticamente. Las matemáticas sensatas conducen a despreciar magnitudes que resultan pequeñas; no a despreciar magnitudes que son infinitamente grandes y por eso no se las quiere.»
Tras señalar que, en su opinión, «esta ecuación de Schrödinger no tiene soluciones», Dirac concluyó su conferencia poniendo de manifiesto que habrá de surgir un cambio drástico en la teoría que la haga matemáticamente razonable. «Cambios sencillos no bastarán… Pienso que el cambio apropiado será tan drástico como el paso de la teoría de Bohr a la mecánica cuántica.» ¿Dónde encontrar esa nueva teoría? Señalaremos algunos de los interesantes desarrollos que han surgido dentro de la física actual y que pueden llegar a satisfacer incluso los requerimientos exigidos por Dirac para constituir una buena teoría.

El espacio-tiempo distorsionado
Es posible que el camino para un mejor conocimiento de la naturaleza del universo se encuentre en una parte del mundo físico que hasta ahora ha sido ignorado en la teoría cuántica. La mecánica cuántica dice muchas cosas acerca de partículas materiales; pero no dice prácticamente nada sobre el espacio vacío. Incluso como Eddington ponía de manifiesto hace más de cincuenta años en The Nature of the Physical World, la revolución que creó la imagen de la materia sólida como algo en una gran medida integrado por espacio vacío es más importante que la revolución producida por la teoría de la relatividad. Hasta un objeto sólido como una mesa de trabajo, o este libro, es casi todo el espacio vacío. La proporción entre la materia y el espacio es aún más pequeña que la que existe entre un grano de arena y un gran teatro. La única cosa que la teoría cuántica parece indicar acerca de este olvidado 99,99999… % del universo es que hierve de actividad con su enjambre de partículas virtuales. Desgraciadamente, las mismas ecuaciones cuánticas de la QED conducen a que la densidad de energía del vacío es infinita, y la renormalización ha de aplicarse incluso al espacio vacío. Cuando las ecuaciones ordinarias de la teoría cuántica se combinan con las de la relatividad general para lograr una descripción mejor de la realidad, la situación empeora; los infinitos continúan apareciendo, pero ahora ni siquiera pueden ser renormalizados. Se ve claramente que no es éste el camino correcto. Pero ¿cuál es el buen camino?
Roger Penrose, de la Universidad de Oxford, ha retrocedido hasta las bases teóricas en su intento de encontrar, por diferentes medios, una descripción geométrica del vacío y de las partículas del mismo; estas geometrías implican un espacio-tiempo distorsionado y retorcimientos locales en el espacio-tiempo que se perciben como partículas. Pero, no sólo las matemáticas que esta teoría conlleva resultan inaccesibles para la mayoría de la gente, sino que la teoría en sí está lejos de constituir un cuerpo de doctrina completo. La idea no deja de ser importante; utilizando una sola teoría, Penrose trata de explicar tanto las partículas diminutas como las vastas regiones de espacio vacío que integran un objeto sólido, como este libro. Puede ser una teoría errónea o imprecisa, pero atacando de frente un problema en gran medida ignorado pueden obtenerse razones del fallo de la teoría estándar.
Existen otras formas de imaginar distorsiones del espacio-tiempo por debajo del nivel cuántico. Combinando la constante de la gravitación, la constante de Planck y la velocidad de la luz en el vacío (las tres constantes fundamentales de la física) es posible obtener otra constante, unidad básica de longitud, que podría interpretarse como el cuanto de longitud, representando la región más pequeña del espacio que es susceptible de ser descrita con pleno sentido. Desde luego resulta muy pequeña, unos 10−35 metros, y es conocida como la longitud de Planck. Del mismo modo, combinando las constantes fundamentales de forma diferente se obtiene una, y sólo una, unidad fundamental de tiempo: el tiempo de Planck, que resulta del orden de 10−43 segundos.[88] Carece de sentido hablar de intervalos de tiempo inferiores a este número, o de dimensiones del espacio más cortas que la longitud de Planck.
Las fluctuaciones cuánticas en la geometría del espacio son completamente despreciables en la escala atómica, e incluso en las partículas elementales, pero a este nivel fundamental el mismo espacio puede entenderse como una espuma de fluctuaciones cuánticas; John Wheeler, que fue quien desarrolló esta idea, pone el símil de un océano que parece completamente plano para un aviador que vuela alto y todo lo contrario para los ocupantes de un bote salvavidas agitándose continuamente en medio de una tempestad.[89] A nivel cuántico, el espacio-tiempo debe resultar muy complejo, en sentido topológico, con túneles y puentes conectando las diferentes regiones del espacio-tiempo; alternativamente, de acuerdo a una variación sobre el mismo tema, el espacio vacío podría estar constituido por agujeros negros, del tamaño de la longitud de Planck, estrechamente unidos.
Todas estas ideas resultan vagas, insatisfactorias y confusas. No hay en ellas soluciones a los problemas fundamentales planteados, pero no está de más resaltar que el conocimiento actual acerca del espacio vacío es realmente confuso, impreciso, vago e insatisfactorio si se acepta que todas las partículas materiales pueden no ser más que fragmentos retorcidos del espacio vacío. Partiendo de la base de que si las teorías que entendemos se desmoronan, el progreso probablemente proviene de lo que hoy aún no entendemos, por lo que podría resultar interesante no perder de vista lo que los geómetras cuánticos elaboren en los próximos años. En 1983, no obstante, los titulares de los reportajes científicos hacían referencia a dos aspectos ligados al, ya pasado de moda, tratamiento del problema en términos de partículas.

La simetría rota
La simetría es un concepto esencial en física. Las ecuaciones fundamentales presentan simetría temporal, por ejemplo, y funcionan igualmente bien con el tiempo hacia adelante que hacia atrás. Otras simetrías se pueden entender en términos geométricos. Una esfera giratoria, por ejemplo, puede ser reflejada en un espejo. Mirando hacia abajo desde arriba de la esfera puede observarse un giro en sentido contrario al de las agujas del reloj, en cuyo caso la imagen en el espejo girará en el mismo sentido que las agujas del reloj. Tanto la esfera real como su imagen en el espejo se mueven siguiendo las leyes de la física, que son simétricas en este sentido (y, por supuesto, la imagen en el espejo gira de la misma forma que lo haría la esfera real si el tiempo transcurriera hacia atrás. Si se invierte el sentido del tiempo y se efectúa la reflexión en el espejo, se recupera la situación original). Hay otras muchas clases de simetría en la naturaleza. Algunas de ellas son sencillas de explicar con el lenguaje ordinario; el electrón y el positrón, por ejemplo, se pueden entender como la imagen en un espejo, el uno del otro, y también como la contrapartida a través de una inversión del sentido del tiempo, tras la cual una carga positiva puede interpretarse como una carga negativa. Todas estas ideas de reflexión en el espacio (denominada cambio de paridad, que intercambia la derecha con la izquierda), la reflexión en el tiempo y la reflexión en la carga intervienen en uno de los más importantes principios de la física, el llamado teorema PCT, que establece el que las leyes de la física no se ven afectadas por el intercambio de las tres reflexiones simultáneamente. Este teorema es el fundamento de la hipótesis de que la emisión de una partícula es exactamente equivalente a la absorción de la correspondiente antipartícula.

img058.jpg
Fig. E-4. Simetría por reflexión. La rotación de la esfera en el espejo es la misma que la rotación en el mundo real, si se invierte el sentido del tiempo.

Pero hay otras simetrías mucho más difíciles de explicar en estos términos familiares y que requieren el lenguaje matemático para ser convenientemente captadas. Estas simetrías son cruciales para la comprensión de los últimos avances en el campo de las partículas elementales. Un ejemplo físico sencillo lo aclarará: imagínese una bola en equilibrio sobre una escalera. Si pasamos la bola a otro peldaño, alteramos su energía potencial en el campo gravitatorio en el que se encuentra situada. No importa la forma en que se efectúe el movimiento; se puede efectuar dando una vuelta al mundo o enviando la bola en un cohete a Marte y regresando antes de colocarla en el nuevo peldaño. Lo único que determina el cambio en su energía potencial es la altura de los respectivos peldaños, el inicial y el final. Y tampoco importa el origen respecto al cual se mide la energía potencial. Se puede medir la altura desde el rellano de la escalera y asignar a cada peldaño una energía potencial, o se puede medir la energía respecto a la del peldaño más bajo, en cuyo caso éste se corresponde con un estado de energía potencial cero.[90] La diferencia de energía potencial entre los dos estados es la misma. Es ésta una clase de simetría que se conoce con el nombre de simetría de «gauge» y refleja la propiedad de que hay una posible elección de la energía cero que no afecta a la física del problema.[91]
El mismo proceso tiene lugar con las fuerzas eléctricas. El electromagnetismo de Maxwell es una teoría con simetría de «gauge» y la QED también, como la misma QCD, que está inspirada en la QED. El proceso se complica cuando se opera con campos de materia al nivel cuántico, pero puede resolverse satisfactoriamente mediante una teoría que exhibe la invariancia de «gauge». La QED sólo goza de simetría de «gauge» porque la masa del fotón es cero. Si el fotón tuviera algo de masa sería imposible renormalizar la teoría y surgirían de nuevo los dichosos infinitos. Esto se convierte en un problema cuando los físicos tratan de utilizar la teoría «gauge» de la interacción electromagnética como un modelo para la construcción de una teoría similar de la interacción nuclear débil, el proceso responsable, entre otras cosas, de la desintegración radiactiva y de la emisión de partículas beta (electrones) de los núcleos radiactivos. De la misma forma que la fuerza eléctrica es transportada, o mediada, por el fotón, la fuerza débil debe ser mediada por su propio bosón. Pero la situación es más complicada, porque para que la carga eléctrica se pueda transferir en las interacciones débiles, el bosón débil (el fotón del campo débil) debe transportar carga. Así debe haber como mínimo dos de estas partículas, bosones denominados W+ y W, y puesto que las interacciones débiles no siempre implican transferencias de carga, los teóricos han tenido que utilizar un tercer mediador, el bosón neutro Z, para completar el conjunto de los bosones débiles. La teoría exigía la existencia de esta partícula, ante el desconcierto inicial de los físicos, que no tenían evidencia experimental de su existencia.
Las simetrías matemáticas correctas de la interacción débil, las dos partículas W,[92] y el bosón neutro Z fueron introducidos por Sheldon Glashow, de la Universidad de Harvard, en 1960, y el correspondiente trabajo se publicó en 1961. Su teoría no era completa, pero en ella se podía vislumbrar la posibilidad de una teoría que incorporará a la vez las interacciones débiles y las electromagnéticas. El problema fundamental se basaba en que la teoría requería partículas W, distintas de los fotones, no sólo para transporta la carga, sino que además debían tener masa, lo cual hacía imposible renormalizar la teoría al tiempo que rompía la analogía con el electromagnetismo, donde el fotón es de masa nula. Debían tener masa porque la interacción débil es de corto alcance; si no tuviera masa, el alcance sería infinito, como en el caso de la interacción electromagnética. El problema, no obstante, no afecta tanto a la masa misma como al espín de las partículas. Todas las partículas de masa cero, como el fotón, de acuerdo con las reglas cuánticas sólo pueden presentar el espín paralelo o antiparalelo respecto a la dirección de su movimiento. Si las partículas W no tuvieran masa, habría un tipo de simetría entre fotones y partículas W, y por tanto entre las interacciones electromagnéticas y las débiles, que posibilitaría su combinación en una teoría renormalizable que explicaría ambas fuerzas. Como esta simetría se rompe, el problema, precisamente, aparece.
¿Cómo puede romperse una simetría matemática? El mejor ejemplo se encuentra en el campo del magnetismo. Piénsese en una barra de material magnético como constituida por un gran número de diminutos imanes interiores, correspondientes a los átomos individuales. Cuando el material magnético está caliente, estos pequeños imanes se orientan al azar en todas direcciones, y no aparece campo magnético global; no hay asimetría magnética. Pero si la barra se enfría por debajo de una cierta temperatura, conocida como la temperatura de Curie, repentinamente pasa a un estado magnetizado, con todos los imanes internos alineados. A altas temperaturas, el estado de menor energía corresponde a magnetización cero; a bajas temperaturas, el estado de menor energía corresponde al de todos los imanes alineados (no importa en qué dirección). Se ha roto la simetría y el cambio ha ocurrido porque a altas temperaturas la energía térmica de los átomos domina sobre las fuerzas magnéticas, mientras que a bajas temperaturas las fuerzas magnéticas dominan sobre la agitación térmica de los átomos.
A finales de los años 60, Abdus Salam, que trabajaba en el Imperial College, de Londres, y Steven Weinberg, en Harvard, elaboraron independientemente un modelo para la interacción débil desarrollado a partir de la simetría matemática ideada por Glashow a principios de los años 60 e independientemente por Salam unos pocos años después. En la nueva teoría, la rotura de la simetría requiere un nuevo campo, el campo de Higgs y las partículas asociadas. La interacción electromagnética y la débil se combinan en una simetría, la interacción electrodébil, con bosones mediadores de masa cero. Se demostró más tarde que esta teoría era renormalizable en un trabajo del físico holandés Gerard t’Hooft, en 1971, y desde ese momento se empezó a tomar en serio esa teoría, que quedó firmemente establecida en 1973, ante la evidencia de la partícula Z. La interacción electrodébil sólo opera bajo condiciones de muy alta densidad de energía, como las del Big Bang, y a energía más baja se rompe espontáneamente de forma que las partículas con masa W y Z aparecen provocando que las interacciones electromagnética y débil sigan caminos distintos.

img059.jpg
Fig. E-5. La rotura de simetría aparece, por ejemplo, cuando una barra de material magnético se enfría por debajo de una cierta temperatura.

La importancia de esta nueva teoría puede deducirse a través del hecho de que Glashow, Salam y Weinberg compartieron el Premio Nobel de Física en 1979 por dicha aportación, aunque por entonces no existía una prueba experimental directa de que a teoría fuera correcta. A principios de 1983, sin embargo, el equipo del C.E.R.N. en Ginebra daba cuenta de unos resultados obtenidos en experimentos con partículas a muy altas energías (conseguidos a través de la colisión de un haz de protones de alta energía frente a otro de antiprotones de alta energía), cuya mejor explicación se lograba en términos de las partículas W y Z con masas alrededor de los 80 GeV y 90 GeV, respectivamente. Estos datos encajan muy bien con las predicciones de la teoría de Glashow-Salam-Weinberg, que ya es considerada como una teoría correcta porque proporciona predicciones que pueden someterse a testes, no como la teoría original de Glashow. Entre tanto, los teóricos no han estado ociosos. Si dos interacciones se pueden combinar en una teoría, ¿por qué no pensar en una gran teoría unificada que englobe a todas las interacciones fundamentales? El sueño de Einstein está más cerca que nunca de verse realizado, no exactamente a través de la simetría, sino de la supersimetría y de la supergravedad.

Supergravedad
El problema con las teorías «gauge», aparte de las dificultades de su renormalización, es que no son únicas. De la misma forma que una teoría «gauge» individual incluye infinitos que han de ser tratados mediante la normalización para encajar con la realidad, también existe un infinito número de posibles teorías «gauge», y las escogidas para describir las interacciones de la física han de ser convenientemente tratadas para que puedan ajustarse a las observaciones del mundo real. Pero lo que es peor, no hay nada en las teorías «gauge» que indique cuántas clases diferentes de partículas deben existir; cuántos bariones o cuántos leptones (partículas de la misma familia que el electrón) o cuántos bosones «gauge». Los físicos buscan una teoría ideal única que requiera sólo cierto número de ciertas clases de partículas para explicar el mundo físico. Un paso hacia una teoría de este tipo se dio en 1974, con la invención de la supersimetría.
La idea surgió con los trabajos de Julius Wess, de la Universidad de Karlsruhe, y Bruno Zumino, de la Universidad de California, Berkeley. Partieron de una conjetura acerca de cómo deberían ser las cosas en un mundo simétrico; en él cada fermión tendría un correspondiente bosón con la misma masa. Desde luego no se observa esta clase de simetría en la naturaleza, pero la explicación podría estar en que esa simetría se ha roto como la simetría que agrupa la interacción débil y la electromagnética. Ciertamente si se desarrollan las matemáticas apropiadas, se encuentra que existen modos de describir supersimetrías que existieron durante el Big Bang, pero que a continuación se rompieron de forma que las partículas ordinarias en nuestra física adquirieron masas pequeñas en tanto que sus superhomólogas quedaron con masas muy grandes. Las superpartículas sólo podrían existir durante un corto intervalo de tiempo antes de transformarse en un chorro de partículas de mucha menor masa; para crear hoy las superpartículas, se necesitan condiciones análogas a las del Big Bang (con un nivel de energía muy alto), que incluso pueden llegar a no producirse ni siquiera mediante la colisión de haces protón-antiprotón en el C.E.R.N.

img060.jpg
Fig. E-6. La rotura de la simetría magnética en la figura E-5 se puede explicar en términos de una pelota en una concavidad Con una concavidad la pelota está en un estado simétrico estable. Si hay dos concavidades, la posición simétrica es inestable y la pelota caerá, más bien pronto, en una concavidad o en la otra, rompiéndose la simetría.

Esta teoría es dudosa, pero es interesante considerarla. Existen diferentes clases de teorías de campos supersimétricos y numerosas variaciones sobre el mismo tema, pero las restricciones de la simetría suponen que cada versión de la teoría permite la existencia de sólo un número definido de diferentes clases de partículas. Algunas versiones contienen cientos de partículas fundamentales diferentes, lo que supone una perspectiva desalentadora, mientras que en otras sólo caben unas cuantas, y ninguna de las teorías predice la posibilidad de un número infinito de partículas fundamentales. Además, las partículas se distribuyen esmeradamente en grupos de familias dentro de cada teoría supersimétrica. En la versión más simple, sólo existe un bosón, con espín cero, y otro con espín 1/2; en una versión más complicada hay dos bosones con espín 1, un fermión con espín 1/2 y otro con espín 3/2, y así sucesivamente. Pero aún no se han conseguido avances definitivos. En supersimetrías es esencial tener en cuenta la renormalización. En algunas de estas teorías los infinitos se cancelan automáticamente, no en virtud de un procedimiento ad hoc, al aplicar los métodos matemáticos correspondientes.
La supersimetría no es aún la respuesta final. Todavía hay algo que falta, y los físicos no saben qué es. Diferentes teorías dan cuenta de diferentes aspectos del mundo real, de forma bastante aceptable, pero ninguna teoría supersimétrica explica por sí sola todo el mundo real. No obstante, hay una teoría supersimétrica particular que merece especial mención. Es la llamada supergravedad de N = 8.
Esta supergravedad se apoya en una partícula hipotética, llamada gravitón, que es portadora del campo gravitatorio. Junto con ella hay ocho partículas más (de ahí el N = 8 de su nombre) llamados gravitinos, 56 partículas reales tales como quarks y electrones, y 98 partículas que son mediadores de interacciones (fotones, bosones W, y muchos más gluones). Ello representa un número formidable de partículas, pero que está determinado por la teoría de una forma muy precisa y sin cabida para más. El tipo de dificultades con las que se encuentran los físicos a la hora de contrastar la teoría se pueden poner de manifiesto considerando los gravitinos. Éstos nunca se han detectado, y hay dos razones diametralmente opuestas para ello. Puede que los gravitinos sean partículas esquivas, fantasmagóricas, con muy poca masa, que nunca interaccionan con nada. O, quizá, tienen tanta masa que los dispositivos experimentales actuales no son adecuados para proporcionar la energía necesaria para crearlas y observarlas.
Los problemas son inmensos, pero las teorías como la supergravedad resultan, al menos, consistentes, finitas, y no necesitan de la renormalización. Hay un sentimiento en el ambiente de que los físicos están en el buen camino. Pero si los aceleradores de partículas son inadecuados para comprobar las teorías, ¿cómo pueden estar seguros? Ésta es la razón por la que la cosmología —el estudio de todo el Universo— constituye hoy un boom en el terreno de la ciencia. Heinz Pagels, director ejecutivo de la Academia de Ciencias de Nueva York, afirmaba en 1983: «Hemos entrado ya en la era de la física de los postaceleradores en la que la historia completa del Universo se convierte en el campo de pruebas para la física fundamental.»[93] Y los cosmólogos están impacientes por adherirse a la física de partículas.

¿Es el universo una fluctuación del vacío?
Quizá la cosmología sea realmente una rama de la física de partículas. Podría resultar, de acuerdo a una idea que ha ido tomando cuerpo durante los últimos diez años y que ha pasado de ser considerada como algo completamente disparatado a ser aceptada como algo asombroso, que el Universo y todo lo que hay en él no sea, ni más, ni menos, que una de aquellas fluctuaciones del vacío que permiten la explosión de grandes cantidades de partículas a partir de la nada, que tienen un tiempo determinado, que son reabsorbidas en el vacío. La idea está muy ligada con la posibilidad de que el Universo sea un mundo cerrado. Un Universo que nace con una bola de fuego del Big Bang, se expansiona durante un tiempo para contraerse después en una bola de fuego y desaparecer, es una fluctuación del vacío, pero a una escala muy grande. Si el universo se encuentra exactamente en equilibrio entre una expansión indefinida y un recolapso definitivo, la energía gravitatoria negativa del universo debe compensarse exactamente con la energía positiva correspondiente a toda la materia que hay en él. Un Universo cerrado tiene energía total nula y no es tan difícil obtener algo con energía total cero a partir del vacío, incluso si ello supone la expansión de todas las componentes y su alejamiento, temporal, hasta dar lugar a toda la interesante variedad que se observa en el entorno.
Aquí se acepta esta idea porque interviene en la aparición en su formulación moderna en la década de los 70. La idea original se remonta a Ludwig Boltzmann, el físico del siglo diecinueve que fue uno de los fundadores de la termodinámica moderna y de la mecánica estadística. Boltzmann especulaba sobre la base de un Universo en equilibrio termodinámico, pero que manifiestamente no lo está, por lo que su apariencia actual puede ser el resultado de una desviación temporal del equilibrio, permitida por las reglas estadísticas con tal que el equilibrio se mantenga, en promedio, a largo plazo. Los cambios de tal fluctuación en la escala del Universo visible son pequeñísimos, pero si el Universo existiera en un estado estacionario por tiempo infinito podrían suceder hechos como los que observamos a nuestro alrededor, y puesto que sólo una desviación del equilibrio permitiría la existencia de la vida, no resulta sorprendente la conclusión de que estamos aquí a causa de una extraña desviación del Universo del equilibrio.
Estas ideas de Boltzmann nunca tuvieron aceptación, pero surgían variaciones en tomo a ellas de vez en cuando, como la desarrollada en Nature por el autor. Fue la posibilidad, surgida en 1971, de que el Universo hubiera nacido como fuego, que después se expansionara y que finalmente se colapsara en nada.[94] Dos años después, Edward Tryon, de la City University de Nueva York, publicó un artículo en Nature desarrollando la idea del Big Bang como una fluctuación del vacío, pero refiriéndose en la carta con que lo acompañaba al artículo anónimo sobre el tema anterior como el punto de partida de sus especulaciones.[95] Por eso se pone de manifiesto aquí un interés especial en este modelo cosmológico concreto, aunque es lógico, por supuesto, que sea hoy Tryon el que consiga justa fama por trasladarlo a la idea moderna del universo como una fluctuación del vacío. A nadie en absoluto se le había ocurrido antes esa idea; pero, como él mismo señaló en su momento, si el Universo tiene energía total cero, el tiempo que puede existir de acuerdo a:

ΔE × Δt = ℏ

puede ser verdaderamente muy grande. «No pretendo afirmar que universos como el nuestro se den de manera frecuente, simplemente afirmo que la frecuencia esperada no es cero», dijo Tryon. «La lógica de la situación dicta, no obstante, que los observadores siempre se encuentran en universos capaces de generar vida, y tales universos son impresionantemente grandes.»
Durante diez años la idea no fue tenida en cuenta. Pero recientemente se ha empezado a tomar en serio una nueva versión de ella. A pesar de las esperanzas iniciales de Tryon, los cálculos proporcionaron que cualquier nuevo universo cuántico formado como una fluctuación del vacío realmente había de ser diminuto y un fenómeno de vida tan corto que ocuparía sólo un pequeño volumen en el espacio-tiempo. Pero entonces los cosmólogos descubrieron una forma de hacer que este minúsculo universo se desarrollara a través de una drástica expansión que podría hacerlo crecer hasta el tamaño del Universo en que vivimos, en un abrir y cerrar de ojos. Inflación es una palabra que se utiliza muy a menudo en la cosmología actual, y la inflación explica cómo una minúscula fluctuación podría haber crecido hasta constituir el Universo en que vivimos.

La inflación y el universo
Los cosmólogos ya estaban interesados en cualquier partícula extra que pudiera existir en el Universo porque están en guardia permanentemente ante la masa que falta para que el Universo constituya como un mundo cerrado. Gravitinos con una masa de 1.000 eV por partícula podrían ser particularmente interesantes, no sólo porque ayudarían a cerrar el Universo, sino porque, de acuerdo a las ecuaciones que describen la expansión del Universo a partir del Big Bang, la presencia de tales partículas justificaría la formación de agrupaciones de materia del tamaño de las galaxias. Neutrinos con una masa de unos 10 eV cada uno originarían agrupaciones de materia del tamaño de los cúmulos de galaxias, y así sucesivamente. Pero en los últimos años los cosmólogos se han interesado más en la física de partículas, porque la última interpretación de la rotura de simetrías sugiere que la propia simetría rota puede haberse constituido en la fuerza responsable de la explosión de nuestra burbuja de espacio-tiempo en un estado de expansión.
La idea original es de Alan Guth, del Instituto de Tecnología de Massachusetts. Parte de la imagen de una fase del Universo muy caliente y muy densa en la que todas las interacciones de la física (excepto la gravedad; la teoría todavía no incluye supersimetría) estaban unidas en una interacción simétrica. Al enfriarse el Universo, la simetría se rompió y las fuerzas básicas de la naturaleza —la electromagnética, la nuclear fuerte y la débil— siguieron caminos separados. Por lo tanto, los dos estados del Universo, el anterior y el posterior a la rotura de la simetría, son muy diferentes entre sí. El cambio de un estado al otro es una especie de transición de fase, como el paso del agua líquida a sólida cuando se congela, o a vapor cuando hierve. Por el contrario a estas transiciones de fase ordinarias, sin embargo, la rotura de la simetría en el Universo inicial debiera, de acuerdo con la teoría, haber generado una fuerza gravitacional repulsiva extremadamente grande que separara todos los componentes en una fracción de segundo.
De manera inevitable esta teoría remite a los primeros instantes del Universo, antes de los 10−35 segundos, cuando la temperatura habría estado por encima de los 1028 K, en la medida en que la temperatura tiene sentido para un estado de estas características. La expansión producida por la rotura de la simetría habría sido exponencial, doblándose el tamaño de cada volumen minúsculo del espacio cada 10−35 segundos. En mucho menos de un segundo esta precipitada explosión habría inflado una región del tamaño de un protón hasta las dimensiones del universo observable hoy. Dentro de esa región del espacio-tiempo, en expansión, burbujas de lo que se entiende como el espacio-tiempo ordinario se desarrollan y crecen a través de una transición de fase ulterior.
La versión inicial de Guth del universo inflacionista no intenta explicar de dónde viene la burbuja inicial, pero puede equipararse fácilmente con una fluctuación del vacío del tipo descrito por Tryon.
Esta versión del universo resuelve muchos enigmas cosmológicos; entre ellos el de la coincidencia sumamente singular de que nuestra burbuja del espacio-tiempo parece expansionarse en una medida que corresponde a la frontera entre estar abierto y cerrado. El modelo del Universo inflacionista requiere precisamente este equilibrio, a causa de la relación existente entre la densidad de masa-energía de la burbuja y la fuerza inflacionista. Sin embargo, este modelo asigna al hombre un papel muy insignificante en el Universo, ya que sitúa todo lo que podemos observar en el Universo dentro de una burbuja contenida a su vez en otra burbuja de algún todo, mucho mayor, en expansión.
Vivimos en una época apasionante, aparentemente próxima a una revolución en nuestra comprensión del Universo tan significativa, según la predicción de Dirac, como el paso del átomo de Bohr a la mecánica cuántica. Es especialmente fascinante que la búsqueda del gato de Schrödinger haya llevado hasta el Big Bang, la cosmología, la supergravedad y el Universo inflacionista, porque en un libro previo, Spacewarps, se empezó con la historia de la gravedad y de la relatividad general y acabó en el mismo sitio. En ninguno de los dos casos esto era debido a una planificación previa; en ambas situaciones la supergravedad parece un punto final lógico al que acudir, y ello quizá sea un signo de que la unificación de la teoría cuántica y de la gravedad es posible. Pero no existen conclusiones definitivas aún, y es de esperar que nunca las haya. Como afirmó Richard Feynman, «una forma de detener a la ciencia sería la de realizar únicamente experimentos en el campo en que se conoce la ley». La física es en gran parte exploración de lo desconocido, y:
Lo que necesitamos es imaginación, pero imaginación dentro de una terrible camisa de fuerza. Tenemos que encontrar una nueva visión del mundo que ha de estar de acuerdo con todo lo conocido, pero con algunas predicciones en desacuerdo; de otra forma no es interesante. Y en ese desacuerdo ha de coincidir con la naturaleza. Si se encuentra cualquier otra visión del mundo acorde con todo lo hasta ahora observado, pero en desacuerdo en algún otro punto, se ha hecho un gran descubrimiento. Es prácticamente imposible, pero no del todo…».[96]
Si la física deja de estudiarse alguna vez, el mundo será un lugar mucho menos interesante donde vivir; es la razón por la que es mejor terminar con cabos sueltos, indicios sugestivos, y un panorama de otras historias que quedan por contar, cada una tan fascinante como la del gato de Schrödinger.
Notas:
[1] Cita de la página 2 de Quantum Mechanics, de Ernest Ikenberry.
[2]Citado en muchos libros, por ejemplo en Invitation to Physics de Jay M. Pasachoff y Marc L. Kutner (pág. 3).
[3] Citado en «The Historical Development of Quantum Theory», vol. 1, pág. 16, de Jagdish Mehra y Helmut Rechenberg.
[4] Cita de «Autobiographical Notes» en Albert Einstein Philosopher Scientist, editado por P. A. Schilpp. Tudor. Nueva York. 1949 (pág. 47).
[5] «Diseñó» es la palabra exacta. J. J Thomson era conocido por su torpeza a pesar de planificar brillantes experimentos que otros realizaban; su hijo George dijo en alguna ocasión que aunque J. J. (como le llamaban siempre) «podía diagnosticar los fallos de un aparato con precisión asombrosa era preferible no permitir que lo tocara». (Véase The Questioners. Barbara Lovett Cline. pág 13.)
[6] La pantalla de una televisión actual es parte de un tubo de rayos catódicos; los rayos catódicos que impresionan dicha pantalla son electrones que efectúan un barrido de la misma dirigidos por campos eléctricos y magnéticos variables como los estudiados por Thomson.
[7] Cita de Mehra y Rechenberg, volumen uno.
[8] Véase Physics and Philosophy. página. 35.
[9] Véase la colaboración de M. Klein en Some Strangeness in the Proportion, editado por Harry Woolf. En el mismo volumen, Thomas Kuhn, del llegó incluso más lejos que la mayoría de autoridades en el tema al afirmar que Planck «no tenía la idea de un espectro simple de energía cuando presentó las primeras deducciones de su ley de distribución de la radiación» y que Einstein fue el primero en darse cuenta «del papel esencial de la cuantización en la citada teoría». Kuhn escribe que «es Einstein, y no Planck, el que cuantizó por primera vez el oscilador de Planck». Se puede dejar el debate en manos de los eruditos; pero no hay duda de que las contribuciones de Einstein fueron cruciales para el desarrollo de la teoría cuántica.
[10] Una versión de la historia atribuye dicho traslado a las desavenencias entre Bohr y Thomson a causa del modelo atómico de éste, que no satisfacía a Bohr y al que J. J. sugirió que Rutherford probablemente prestaría mayor atención a sus ideas. Consúltese a E. U. Condon, citado por Max Jammer en la página 68 de The Conceptual Development of Quantum Mechanics.
[11]N. del T.: En rigor, en este párrafo debería emplearse el término «acción» en lugar de «energía». No obstante, el autor ha preferido emplear este último dado el carácter divulgativo de la obra.
[12] Según la teoría cuántica pura. la luz debe ser considerada como partícula y como onda a la vez.
[13] Una versión simplificada de la fórmula establece que las longitudes de onda de las primeras cuatro rayas del hidrógeno vienen dadas por la multiplicación de una constante (36.456 × 105) por 9/5, 16/12, 25/21 y 36/32. En esta versión de la fórmula, el numerador de cada fracción es dado por la sucesión de cuadrados (32, 42, 52, 62); los denominadores son diferencias de cuadrados (32 − 22, 42 − 22, 52 − 22, 62 − 22). Y así sucesivamente.
[14] Al tratar con electrones y átomos, las unidades ordinanas de energía son demasiado grandes y, por lo tanto, se toma como unidad más apropiada el electronvoltio (eV), que es la cantidad de energía que un electrón adquiriría tras moverse a lo largo de una diferencia de potencial eléctrico de un voitio. Dicha unidad fue introducida en 1912. Un electronvoltio equivale a 1,602 × 10−19 julios, y un watio es un julio por segundo. Una bombilla ordinaria consume unos cien watios. que equivalen a 6,25 × 1020 eV por segundo. Parece exagerado decir que una bombilla radia seis billones y cuarto de electronvoltios por segundo, pero es la energía que consume una lámpara de cien watios Las energías involucradas en las transiciones electrónicas que producen las rayas espectrales son de unos cuantos electronvoltios; se necesitan 13,6 eV para extraer el electrón de un átomo de hidrógeno. Las energías de las partículas producidas a través de procesos radiactivos son de varios millones de electronvoltios, o MeV. en su forma abreviada.
[15] De hecho, la serie de Balmer en el espectro del hidrógeno corresponde a las transiciones que terminan en el nivel dos.
[16] Citado en Mehra y Rechenberg, volumen 1, página 357.
[17] Op. cit., página 359.
[18] Se está exagerando aquí, por supuesto, la simplicidad de la química. Se necesita un estudio más profundo para poder explicar moléculas complejas, lo que se logró a finales de los años 20 y principios de los 30, utilizando las ventajas que ofrecía el completo desarrollo de la mecánica cuántica La persona que realizó la mayor parte de este trabajo fue Linus Pauling (quizá más conocido como paladín de la paz), quien recibió el primero de sus dos Premios Nobel por dicho trabajo, con la siguiente referencia en 1954: «por sus investigaciones sobre la naturaleza del enlace químico y su aplicación a la dilucidación de la estructura de sustancias complejas». Aquellas «sustancias complejas» explicadas con la ayuda de la teoría cuántica por Pauling, un químico-físico, abrieron el camino para un estudio de las moléculas de la vida. La importancia de la química cuántica en biología molecular ha sido reconocida por Horace Judson en su épico libro The Eighth Day of Creation.
[19] Los Congresos Solvay fueron una serie de reuniones científicas patrocinadas por Ernest Solvay, un químico belga que hizo fortuna con su método de fabricación del carbonato sódico. Dado su interés abstracto por la ciencia, Solvay sufragó los gastos de estas reuniones en las que los físicos más eminentes del momento podían intercambiar puntos de vista.
[20] Las referencias de este apartado se han tomado de A. Pais en Subtle is the Lord.
[21] El teórico Peter Debye calculó por su cuenta el «efecto Compton» aproximadamente al mismo tiempo que Compton, y publicó un artículo sugiriendo un experimento para comprobar la idea. Cuando su artículo fue publicado, Compton ya había realizado el experimento.
[22] Las citas sobre de Broglie y Bragg se han tomado de The Conceptual Development of Quantum Mechanics de Max Jammer.
[23] Véase M. Jammer. op. cit.
[24] Que fue detectado en 1932, por James Chadwick, quien recibió por ello el Premio Nobel en 1935, dos años antes de que el trabajo de Davisson y Thomson obtuviera análogo reconocimiento.
[25] Estos experimentos son susceptibles de dirigirse hacia aplicaciones prácticas, incluyendo la posibilidad de un microscopio de neutrones. Véase New Scientist. 2 septiembre. 1982, página 631.
[26] Arthur Compton sugirió en 1920 la idea de un espín del electrón pero dentro de un contexto muy diferente que Kronig no conocía.
[27]N. del T. Espín es la palabra que en castellano se tiende a utilizar para transcribir el concepto que en inglés se designa por «spin». Como esta palabra significa giro, vuelta, etc., el autor se ve en la necesidad de resaltar la diferencia entre esta propiedad de naturaleza cuántica y un giro ordinario. En un libro directamente escrito en castellano tal necesidad no existiría.
[28] El 2π proviene del número de radianes que contiene una circunferencia completa; es decir, en 360°. La unidad fundamental (ℎ/2π) se escribe usualmente en la forma ħ.
[29] Véase, por ejemplo, The Born-Einstein Letters En una carta fechada el 12 de febrero de 1921. Born afirma: «El artículo de Pauli para la enciclopedia está aparentemente terminado, y el peso del papel dice que es de 21/2 kilos. Esto debe dar alguna indicación de su peso intelectual. El mozo no es sólo listo sino también trabajador.» El tal mozo obtuvo el doctorado en 1921, poco antes de su breve período como ayudante de Bohr.
[30] Las citas de esta sección se han tomado del epílogo al volumen 1 del libro de Mehra y Rechenberg.
[31] Einstein también expresó estas dudas en su correspondencia con Born, publicada bajo el título The Born-Einstein Letters La presente cita es de la página 23 de la edición de MacMillan.
[32]The Conceptual Development of Quantum Mechanics, página 196.
[33]Physics and Philosophy, página 41.
[34] Citado por Mehra y Rechenberg, volumen 4, página 159.
[35] En la versión de Dirac de la mecánica cuántica, una fórmula muy usual en las ecuaciones de Hamilton queda reemplazada por la fórmula cuántica (abba)/iℏ, que es exactamente otra forma de la expresión que Born, Heisenberg y Jordan llamaron «la relación mecánico-cuántica fundamental» en el «artículo de los tres hombres», escrito antes de que apareciera el primer artículo de Dirac sobre mecánica cuántica pero publicado después que el de Dirac.
[36] Con su modestia característica, Dirac cuenta cuán fácil era hacer progresos una vez conocido el hecho de que las ecuaciones cuánticas correctas eran simplemente ecuaciones clásicas escritas en la forma hamiltoniana. Para tratar cualquiera de las cuestiones que se presentaban en teoría cuántica, todo lo que había que hacer era encontrar las ecuaciones clásicas equivalentes, escribirlas en forma hamiltoniana, y resolver el problema «Era un juego muy interesante Cuando se resolvía uno de los pequeños problemas, se podía escribir un artículo sobre él. Era muy fácil en aquellos tiempos para cualquier físico de segunda categoría hacer trabajos de primera categoría. No han existido tiempos tan gloriosos desde entonces Hoy en día es muy difícil para un físico de primera categoría hacer trabajos de segunda categoría» (Directions in Physics. página 7).
[37] En el mundo cotidiano es válida la misma relación de incertidumbre, pero al ser p y q tan grandes comparados con ti, la incertidumbre que resulta es una fracción diminuta de la propiedad macroscópica equivalente. La constante de Planck, ℏ, vale aproximadamente 6,6 x 10−27, y π es un poco mayor que tres. En números redondos ℏ es, más o menos, 10−27 Se puede medir la posición y el momento de una bola de billar con tanta precisión como se desee estudiando su trayectoria sobre una mesa, y la incertidumbre natural de algo comparable a 10−27, ya sea en la posición o en el momento, no tendrá ningún efecto práctico. Como siempre, los efectos cuánticos sólo resultan importantes si los números de las ecuaciones son del orden de magnitud de la constante de Planck.
[38]Born-Einstein Letters, página 203.
[39] Con retraso, según su opinión (y, ciertamente, según la de muchos otros). En Born-Einstein Letters, él recuerda (página 229) cómo «el hecho de que no recibiera el Premio Nobel en 1932 junto con Heisenberg le dolió mucho en aquellos tiempos, a pesar de una amable carta de Heisenberg». Achaca el retraso en recibir el reconocimiento por su trabajo sobre la interpretación estadística de la función de onda a la oposición de Einstein, Schrödinger, Planck y de Broglie a su teoría —nombres ciertamente para ser tenidos en cuenta por el Comité Nobel— y hace referencia, de pasada, a la «Escuela de Copenhague, que hoy presta su nombre por doquier a la línea de pensamiento que yo creé», refiriéndose a la incorporación de los conceptos estadísticos a la interpretación de Copenhague. No se trata exactamente de los comentarios malhumorados de una persona mayor, sino que tiene una base sólida, toda la comunidad científica ligada a la física cuántica se sintió reconfortada por el reconocimiento tardío de la contribución de Born Y nadie más que Heisenberg. que confirmó más tarde a Jagdish Mehra. «me sentí tan aliviado cuando Born fue galardonado con el Premio Nobel…» (Mehra y Rechenberg, volumen 4, página 281).
[40]Quantum Theory and Beyond, página 1.
[41]Subtle Is the Lord, página 8.
[42] El mismo proceso se da a la inversa en la fusión nuclear Cuando dos núcleos ligeros se unen debido a la presión interior de una estrella, sólo pueden fusionarse si ambos superan la barrera de potencial desde el exterior. La cantidad de energía que cada núcleo posee en esta situación depende de la temperatura de la estrella, y en los años 20 los astrofísicos estaban confusos porque encontraron que la temperatura interior de! sol es un poco menor de lo que debería ser. Los núcleos en el corazón del sol no disponían así de energía suficiente para superar la barrera de potencial y fusionarse, de acuerdo a las leyes de la mecánica clásica. La respuesta está en que algunos de ellos atraviesan por efecto túnel la barrera con una energía ligeramente inferior a la prevista según la teoría clásica, de acuerdo a las reglas de la teoría cuántica Entre otras cosas, la teoría cuántica explica por qué brilla el sol. en tanto que la teoría clásica es incapaz de hacerlo.
[43] Una forma de obtener energía de la fusión es combinar un isótopo del hidrógeno, que tiene un protón y un neutrón (deuterio), con otro que tiene un protón y dos neutrones (tritio) El resultado es un núcleo de helio (dos protones y dos neutrones), un neutrón libre y 17,6 MeV de energía. Las estrellas operan con procesos más complicados que suponen reacciones nucleares entre hidrógeno y núcleos tales como los de carbono que están presentes en pequeñas cantidades en el interior de la estrella. El efecto neto de tales reacciones es la fusión en un núcleo de helio de cuatro protones con dos electrones. liberando una energía de 26,7 MeV y volviéndose a poner en circulación el carbono para catalizar otro ciclo de reacciones Pero son los procesos a base de tritio y deuterio los que están siendo investigados en los laboratorios terrestres de fusión.
[44]N. del T. Iniciales de las respectivas palabras en inglés: «microwave amplification (by) stimulated emission (of) radiation».
[45]N del T. Iniciales en inglés de «Light amplificaron (by) stimulated emissión (of) radiation».
[46] Existe realmente otro tipo de conductor en el que la banda de valencia misma no está completa, por lo que los electrones pueden moverse dentro de ella
[47]N. del T. Iniciales de «light emitting diode».
[48] Bardeen ya se había dado a conocer en 1948 por su trabajo junto a William Shockley y Walter Brattain sobre un invento que les valió el Premio Nobel de 1956 para los tres. Este pequeño invento fue el transistor, y Bardeen es el primero que ha conseguido por dos veces el Premio Nobel de Física.
[49] El uso original del mismo término núcleo para la parte central de un átomo fue un reflejo deliberado de la terminología biológica ya existente.
[50] Por ejemplo, en Man Made Life. de Jeremy Cherfas.
[51] Esto origina una coincidencia. De acuerdo a esta forma de estudiar la teoría cuántica. los datos más importantes son las magnitudes p y q que figuran en las relaciones de incertidumbre. El dicho inglés «acuérdate de tus p y de tus q». significa «ten cuidado». La expresión probablemente viene de una advertencia a los niños que estudiaban el alfabeto, o a los aprendices de impresor que trabajaban con tipos móviles, para que cuidaran el acabado de esas letras (Brewer's Dictionary of Phrase and Fable. Cassell. Londres. 1981), pero hoy se podría tomar como el lema de la teoría cuántica. Sin embargo, la elección de esas letras en las ecuaciones cuánticas no fue más que una mera coincidencia.
[52]The Character of Physical Law. página 130.
[53] A. Einstein. B. Podolsky and N. Rosen. «Can quantum-mechanical description of physical reality be considered complete?» Physical Review, volumen 47. páginas 777- 780. 1935. El artículo figura entre los incluidos en el volumen Physical Reality, editado por S. Toulmin, Harper & Row. 1970
[54] Citado por Pais, página 456.
[55] Todo esto es, por supuesto, una gran simplificación. Se puede imaginar el par de electrones intercambiando realmente muchos fotones al interactuar En las páginas que siguen a continuación se hará referencia a un fotón como creador de un par electtrón-positrón, cuando en realidad habría que referirse a más de un fotón, quizás a un par de rayos gamma en colisión o incluso a una situación más compleja.
[56] Estas ideas están discutidas en detalle, y con claridad, en un lenguaje no matemático, en el capítulo 6 del libro de Jayant Narlikar The Structure of the Universe, Oxford University Press. 1977. El libro de Paul Davies Space and Time in the Modern Universe (Cambridge University Press, 1977) va más lejos en los detalles, y parte de las matemáticas empleadas en él pueden encontrarse en The Ultimate Fate of the Universe, de J. N. Islam (Cambridge University Press, 1983).
[57] Cita basada en la explicación de la teoría de Wheeler del libro de Banesh Hoffman The Strange Story of the Quantum, editado por Pelican, 1963, página 217.
[58] Feynman llegó en realidad mucho más lejos de lo que aquí se ha indicado y desarrolló un tratamiento de las líneas universo incluyendo varias probabilidades. Onginó con ello una nueva versión de la mecánica cuántica que pronto se demostró, por Freeman Dyson, que era completamente equivalente en sus resultados a las versiones originales de la teoría y que después se ha demostrado como una herramienta matemática muy potente. Más adelante se volverá a tratar este punto.
[59] Las implicaciones de la teoría de la relatividad en la comprensión del Universo y las implicaciones en el viaje a través del tiempo están desarrolladas con más detalle en mi libro Spacewarps (Delacorte. Nueva York; y Pelican. Londres, 1983).
[60] Yo traté esto con unos cuantos chicos y con adultos, por separado. Aproximadamente la mitad de los primeros descubrieron el truco, pero muy pocos adultos lo encontraron. Aquellos que no lo descubrieron se quejaron de que eso era una trampa: el hecho es que, de acuerdo a las ecuaciones de Einstein, la naturaleza misma no está por encima de esta clase de trampas.
[61] En realidad Yukawa hizo sus cálculos pensando exactamente al revés. Él conocía el alcance de la interacción nuclear fuerte, y esto le permitió poner límites a la incertidumbre en el tiempo en las interacciones nucleares. Ello, a su vez, le proporcionó una idea del orden de magnitud de la energía, o de la masa, de las partículas que transportan la interacción.
[62] Véanse, por ejemplo, las cartas números 16-18 en la obra de Schrödinger Letters on Wave Mechanics.
[63] Nació en 1911, época apropiada para recibir de lleno el impacto de los descubrimientos de los años 20. Generaciones posteriores han aceptado de buen grado la teoría cuántica que les llegaba como la sabia herencia del pasado y han utilizado el recetario cuántico como unas reglas del juego. La antigua generación, aliviada al haber encontrado una teoría consistente y junto a los efectos de su edad, decayó en sus ímpetus pioneros. La generación de Wheeler y Feynman fue inevitablemente la que hubo de preocuparse por el significado de todo ello, junto con Einstein, quien, como en otros aspectos, fue una excepción.
[64] J. S. Bell. Physics. volumen 1. página 195. 1964
[65] Este ejemplo se basa en la clara y detallada descripción del experimento de Bell que presenta Bernard d'Espaqnat en «The Quantum Theory and Reality». Scientific American Offprint. número 3066. Esta versión es, no obstante, muy simplificada y el artículo de d’Espagnat es mucho más detallado.
[66] ¿Será ℏ el valor de la incertidumbre? En efecto, lo es. La unidad fundamental de espín es 1/2ℏ, como Dirac estableció, y a ella se refiere la abreviatura +1. La diferencia entre +1 y −1 unidades es la diferencia entre más y menos 1/2 ℏ que es, por su puesto, ℏ. Pero en los experimentos tratados en este libro lo relevante es la dirección del espín.
[67] Los únicos hechos reales son los resultados de los experimentos, en los que la forma de medir influye sobre lo que se mide. Existen físicos que utilizan como herramienta ordinaria en su trabajo un haz de láser cuya misión es simplemente bombear átomos hasta conseguir un estado excitado. Sólo se puede utilizar este procedimiento porque se sabe qué significa un estado excitado en el que se puede emplear el recetario cuántico: pero el propósito final del experimento es comprobar la precisión de la mecánica cuántica. Esto no quiere decir que los resultados sean erróneos Se puede pensar en otra forma de excitar átomos antes de efectuar las medidas, y en otras versiones del experimento que ofrecen el mismo resultado Pero de la misma forma que las concepciones usuales e generaciones anteriores de físicos estaban impregnadas por el uso de. por ejemplo, resortes, balanzas y reglas graduadas, la generación actual se ve afectada, mucho más de lo que a veces constata, por las herramientas cuánticas al uso.
Los filósofos pueden analizar lo que representan realmente los resultados del experimento de Bell si se han utilizado procesos cuánticos a la hora de realizar el experimento. Pero en este caso coincidimos con Bohr lo que observamos es lo que tenemos: nada más es real.
[68]Physical Review Letters, volumen 49. página 1804.
[69]The Physicist's Conception of Nature, editado por J Mehra. página 734.
[70] Aparecido en The Guardian. 6 de enero de 1983. Posteriormente, llegaron noticias de avances en esta dirección por parte de los Laboratorios Bell, donde sus investigadores usan tecnología basada en la juntura de Josephson para desarrollar nuevas posibilidades de conmutación rápida en los circuitos de los computadores. Sólo utilizan junturas de Josephson convencionales, y con ello logran operar diez veces más rápidamente que con las técnicas usuales en ordeñadores. Este desarrollo continuará en un futuro próximo y se espera lograr grandes conquistas prácticas. Sin embargo, los desarrollos a los que Clark se refiere son más remotos, y puede que no se apliquen antes de finales de siglo, pero potencialmente representan un salto adelante.
[71]Timewarps, un libro anterior mío, versa todo él sobre mundos paralelos, pero incluye las necesarias observaciones sobre teoría cuántica.
[72] Volumen 29, página 454.
[73] Volumen 29, página 463.
[74]Op. cit. página 464.
[75] Volumen 23. número 9 (setiembre 1970), página 30.
[76] La relatividad general es una teoría que describe sistemas cerrados, y Einstein originariamente concibió el Universo como cerrado y finito. Aunque se hable, a veces, de universos abiertos e infinitos, en sentido estricto tales descripciones no cuentan propiamente con el apoyo de la teoría de la relatividad. La manera en que nuestro Universo puede ser cerrado es contener suficiente materia como para mantener ligado en torno a sí al espacio-tiempo, como en el caso de un agujero negro. Ello supone una mayor cantidad de materia de la observada en las galaxias visibles, pero la mayoría de las observaciones de la dinámica del Universo sugieren que se encuentran en un estado muy parecido al de un Universo cerrado; es como si estuviera «apenas cerrado» o bien «apenas abierto». Por ello no hay razones basadas en observación para rechazar las implicaciones relativistas fundamentales sobre el carácter cerrado y finito del universo; lo que si hay son motivos para buscar la oscura materia que le mantiene ligado gravitatoriamente. Algunas de las bases para estas ideas se pueden encontrar en la contribución de Wheeler en Some Strangeness in the Proportion.
[77]Some Strangeness in the Proportion, editado por Harry Wooif, paginas 385-386.
[78] Todas estas ideas aparecen discutidas en el libro del autor, Spacewarps.
[79] Quien tenga problemas para creer en esto puede estar tentado de pensar que la ecuación de Schrödinger resulta más cómoda y familiar. Nada más lejos de la realidad. La interpretación ondulatoria de la mecánica cuántica parte de una simple ecuación de ondas familiar en otros campos de la física, y para una única partícula la descripción correcta mecánico-cuántica involucra a una onda en tres dimensiones, aunque no en el espacio ordinario, sino en algo distinto denominado espacio de configuración. Desgraciadamente se necesitan tres dimensiones diferentes para la onda de cada partícula implicada en la descripción. Para describir la interacción entre dos partículas se necesitan seis dimensiones, para tres partículas, nueve dimensiones, y así sucesivamente. La función de onda de todo el Universo, independientemente de su significado, tiene el triple de dimensiones que partículas hay en el Universo. Los físicos que desprecian la interpretación de Everett de la realidad porque va acompañada de una excesiva teoría, a menudo olvidan que la función de onda que usan cotidianamente solo puede aceptarse como una descripción válida para el Universo en base a una igualmente confusa cantidad de teoría extradimensional.
[80] Paralelamente, el autor escribió una narración corta. «Mundos Perpendiculares», para la revista Analog, que ilustra este tema.
[81] Hay aquí otro detalle que vale la pena mencionar. Incluso si el viaje en el tiempo resultara técnicamente posible, podría haber dificultades prácticas insuperables que impidieran el envío de objetos materiales en el tiempo. Pero, enviar mensajes a través del tiempo podría resultar algo relativamente simple si se consiguiera aplicar el resultado de la interpretación de Feynman, según el cual hay partículas que retroceden en el tiempo.
[82] El principio antrópico está tratado brevemente en Spacewarps; se pueden encontrar más detalles en The Accidental Universe, de Paul Davies. En el libro del autor, Genesis, se explica detalladamente el Big Bang como origen del Universo.
[83]The Philosophy of Quantum Mechanics, página 517.
[84] Citado en The Universe Next Door, de Robert Wilson, página 156.
[85]N. del T. iniciales en inglés de «Quantum Electro-Dynamics».
[86]N del T. iniciales en inglés de «Quantum Chromo-Dynamics».
[87]Directions in Physics, capítulo dos. Dirac no es el único en pensar así: Banesh Hoffman, en The Strange Story of the Quantum, página 213, describe la renormalización como responsable de conducir a la física a un callejón sin salida «El audaz malabarismo con los infinitos es extraordinariamente brillante, pero su brillo parece iluminar un callejón sin salida.».
[88] Si se quiere conocer exactamente los valores respectivos hay que indicar que la longitud de Planck viene dada por la raíz cuadrada de Gℏ/c3 y el tiempo de Planck por la raíz cuadrada de Gℏ/c5.
[89] Véase, por ejemplo, la contribución de Wheeler en The Physicist’s Conception of Nature, de Mehra.
[90] Este argumento es análogo al que Paul Davies utiliza en su libro The Forces of Nature. Cambridge University Press, 1979.
[91]N. del T. emplearemos la palabra «gauge» que responde a una terminología internacional. En castellano, a veces, se puede ver traducida por aforo.
[92]W+ y W pueden también ser considerados, por supuesto, como una partícula y su antipartícula, como el electrón (e) y el positrón (e+). Estos bosones, a veces, son conocidos conjuntamente como bosones vectoriales intermedios (o intermediarios).
[93] Citado en Science, 29 de abril de 1983, volumen 220, página 491.
[94]Nature. volumen 232, página 440, 1971.
[95]Nature. volumen 246, página 396, 1973.
[96]The Character of Physical Law. página 171.