En busca de SUSY - John Gribbin

En busca de SUSY

John Gribbin

Mi agradecimiento a Benjamin Gribbin por su asistencia editorial

Prefacio

Cuando revisé mi libro En busca del Big Bang para ponerlo al día y explicar la historia completa de la vida y eventual muerte del Universo, algo tenía que salir para hacer sitio al nuevo material. Ese «algo» fue, sobre todo, la discusión detallada del mundo de las partículas subatómicas, que era un tanto tangencial a la historia del Big Bang. Sin embargo, tan pronto realicé la mutilación, varios de los amigos y colegas con quienes había discutido el proyecto comenzaron a quejarse, aduciendo que la visión histórica de conjunto que aquel material proporcionaba era difícil de hallar en textos de divulgación sobre física de partículas, e incluso en libros dirigidos a estudiantes de cursos de física.
Lo reconsideré y convine en que quizá tuvieran razón. Así que aquí está, actualizada para finales de los noventa, la historia del mundo de las partículas, desde el descubrimiento del electrón hasta la búsqueda de una teoría de la supersimetría que explique todas las fuerzas y partículas de la naturaleza en un único embalaje matemático. Aunque he aprovechado material de la versión original de mi libro sobre el Big Bang, no se superpone con la versión revisada de En busca del Big Bang. La historia no es completa porque los físicos matemáticos todavía no han encontrado la teoría definitiva de todas las cosas. Pero confío en que arrojará algo de luz sobre por qué buscan la teoría definitiva allí donde la buscan.

John Gribbin

Introducción
El mundo material

Durante el siglo XIX, los químicos desarrollaron la idea, que se remontaba a los tiempos de Demócrito, en el siglo IV a. C., de que todas las cosas del mundo material están compuestas de partículas diminutas e indivisibles llamadas átomos. Se concebía los átomos como si se tratara de minúsculas bolas de billar, tan diminutas que haría falta un centenar de millones, colocadas una tras otra, para trazar una línea de 1 cm de longitud. Todos los átomos de un elemento dado tenían la misma masa, pero los átomos de elementos diferentes, como el carbono, el oxígeno o el hierro, tenían masas características y pronto se comprendió que las propiedades de los átomos determinaban las propiedades macroscópicas de cantidades mayores del elemento. Cuando los elementos se combinan (por ejemplo, cuando el carbono se quema en el aire), es porque los átomos individuales de cada elemento se combinan para formar moléculas (en el ejemplo, cada átomo de carbono se combina con dos átomos de oxígeno para formar dióxido de carbono).
Pero mientras la idea de los átomos acababa de establecerse firmemente, en 1897 el físico inglés J. J. Thomson, que entonces trabajaba en el Laboratorio Cavendish en Cambridge, halló un modo de estudiar fragmentos desprendidos de los átomos. Estos fragmentos eran mucho más pequeños y ligeros que los átomos y tenían carga eléctrica negativa; se les dio el nombre de electrones. Tras de sí dejaban «átomos» con una carga residual positiva, que hoy conocemos como iones. Los experimentos de Thomson en la década de 1890 demostraron que, si bien los átomos de elementos diferentes son diferentes entre sí, todos contienen electrones, y que los electrones desprendidos de un átomo son idénticos a los desprendidos de cualquier otro átomo.
Mientras los físicos todavía luchaban por aceptar la idea de que pueden desprenderse fragmentos de los átomos «indivisibles», el descubrimiento de la radiactividad no sólo les dio una herramienta nueva con la que examinar la estructura de los átomos, sino que demostró (aunque al principio no se viera así) que era posible arrancar de los átomos partículas mucho mayores que los electrones. A principios del siglo XX, el neozelandés Ernest Rutherford, que por aquel entonces trabajaba en la Universidad McGill de Montreal con Frederick Soddy, demostró que la radiactividad consiste en la transformación de átomos de un elemento en átomos de otro elemento. Durante este proceso, los átomos emiten uno o dos tipos de radiación, que Rutherford denominó rayos alfa y rayos beta. Los rayos beta resultaron ser simplemente electrones que se movían a gran velocidad. Los «rayos» alfa también resultaron ser partículas que se movían a gran velocidad, pero mucho mayores: cada una tenía una masa unas cuatro veces mayor que la de un átomo de hidrógeno (el elemento más ligero) y llevaba dos unidades de carga positiva. De hecho, eran idénticas (aparte de la velocidad a la que se desplazaban) a átomos de helio (el segundo elemento más ligero) de los que se hubiera arrancado dos electrones, es decir, iones de helio. Su combinación de masa relativamente grande (comparada con la de un electrón) y alta velocidad ofreció a Rutherford la herramienta que necesitaba para examinar la estructura de los átomos.
Rutherford (quien para entonces trabajaba en la Universidad de Manchester, en Inglaterra) y sus colegas no tardaron en utilizar partículas alfa, producidas por átomos con radiactividad natural, a modo de minúsculas balas con las que disparar a un cristal o a una fina lámina de metal. Encontraron que aunque la mayoría de las veces las partículas alfa atravesaban sin desviarse la lámina de metal que servía de diana, en ocasiones algunas partículas rebotaban casi en la misma dirección de la que provenían. Rutherford encontró una explicación para este comportamiento en 1911, y con ella nos dio el modelo fundamental del átomo que todavía hoy se explica en los colegios.
Rutherford se dio cuenta de que la mayor parte de la materia de un átomo debe estar concentrada en el centro, en lo que llamó núcleo, a cuyo alrededor se halla una nube de electrones. Las partículas alfa, que provienen de átomos radiactivos, son en realidad fragmentos del núcleo atómico que las emite (y son, en efecto, núcleos de helio). Cuando una partícula alfa da en la nube de electrones de un átomo la atraviesa sin verse apenas afectada. Pero los electrones tienen carga negativa, mientras que los átomos son, en su totalidad, eléctricamente neutros. Por tanto, la carga positiva de los átomos debe hallarse concentrada, al igual que la masa, en el núcleo. Las partículas alfa también están cargadas positivamente. Y cuando una partícula alfa da de lleno contra el núcleo de un átomo, la repulsión entre cargas eléctricas iguales las hace parar en seco y luego las empuja de vuelta en la dirección de donde venían.
Experimentos posteriores demostraron la amplia validez del modelo del átomo de Rutherford. La mayor parte de la masa y toda la carga positiva están concentradas en un núcleo que mide una cien millonésima parte del tamaño del átomo. El resto del espacio está ocupado por una tenue nube de ligerísimos electrones con carga negativa. En números redondos, un núcleo mide unos 10-13 cm de diámetro, [1] mientras que un átomo mide unos 10-8 cm de diámetro. Muy aproximadamente, esta proporción es equivalente a la que se da entre un grano de arena colocado en el centro de Carnegie Hall: la gran sala sería el «átomo», mientras que el grano de arena correspondería al «núcleo».
La partícula del núcleo que tiene carga positiva se llama protón. Su carga es exactamente la misma que la del electrón, pero de signo opuesto. Cada protón tiene una masa unas 2.000 veces mayor que la de un electrón. En la versión más simple del modelo del átomo de Rutherford no había más que protones y electrones, en igual número, pero con todos los protones confinados en el núcleo a pesar de tener la misma carga eléctrica, lo cual debiera hacer que se repelieran entre sí. (Las cargas iguales se comportan a este respecto igual que los polos magnéticos). Por consiguiente, tal como veremos, debe existir otra fuerza que sólo opere a distancias muy cortas y que supere la fuerza eléctrica y mantenga el núcleo unido. Pero durante los veinte años que siguieron a la propuesta de este modelo del átomo de Rutherford creció entre los físicos la sospecha de que debía existir otra partícula: una contrapartida del protón con aproximadamente la misma masa pero eléctricamente neutra. Entre otras cosas, la presencia de una partícula como ésta en el núcleo proporcionaría a los protones positivos algo a lo que agarrarse sin ser repelidos eléctricamente. Y la presencia de neutrones, como pronto se les llamó, explicaría por qué algunos átomos podían tener propiedades químicas idénticas a otros, pero una masa ligeramente diferente.
Las propiedades químicas dependen de la nube de electrones de un átomo, la «cara» visible que muestra a otros átomos. Los átomos con química idéntica deben tener idéntico número de electrones y, por consiguiente, idéntico número de protones. Pero pueden tener un número diferente de neutrones y, por tanto, masa diferente. Estos primos cercanos entre los átomos reciben el nombre de isótopos.
Hoy sabemos que la gran variedad de elementos del mundo se basa en este simple esquema. El hidrógeno, con un núcleo que consiste en un solo protón, con un solo electrón a su alrededor, es el más sencillo. La forma más común de carbono, el átomo que está en la base de todo lo vivo, tiene seis protones y seis neutrones en el núcleo, y seis electrones en la nube que lo rodea. Pero existen núcleos que contienen muchas más partículas (más nucleones). El hierro tiene 26 protones en el núcleo y, en el isótopo más común, 30 neutrones, lo que suma un total de 56 nucleones; mientras que el uranio es uno de los elementos naturales más pesados, con 92 protones y nada menos que 143 neutrones en cada núcleo de uranio-235, el isótopo radioactivo que se usa como fuente de energía nuclear.
Es posible obtener energía de la fisión de núcleos muy pesados porque el estado más estable en que se puede encontrar un núcleo, con la mínima energía, es el de hierro-56. En términos de energía, el hierro-56 está en el fondo de un valle; los núcleos más ligeros, como los del oxígeno, el carbono, el helio y el hidrógeno, se disponen sobre una de las laderas, y los núcleos más pesados, como el cobalto, el níquel, el uranio y el plutonio, sobre la otra ladera. De igual modo que es más fácil darle una patada a una
pelota para que baje de la ladera al fondo del valle que para que suba desde el valle por la ladera, si se puede persuadir a un elemento pesado para que se fisione, en las circunstancias adecuadas puede formar núcleos más estables situados «más abajo en la ladera», liberando energía en el proceso. El proceso de fisión es el que impulsa las bombas nucleares. El proceso de fusión proporciona la energía de las bombas de hidrógeno (o bombas de fusión) y de las estrellas, como el Sol; en ambos casos, los núcleos de hidrógeno se convierten en núcleos de helio. Pero en los años veinte, todo esto estaba todavía reservado para el futuro. Aunque en aquella década se disponía de evidencia circunstancial de la existencia de neutrones, no fue hasta 1932 cuando James Chadwick, un antiguo estudiante de Rutherford que trabajaba en el Laboratorio Cavendish (del que entonces Rutherford era director), realizó los experimentos que demostraron la existencia de los neutrones.
Así pues, la imagen que la mayoría de las personas cultas tienen de la estructura de los átomos en tanto que compuestos de tres tipos de partículas (protones, neutrones y electrones) se remonta a hace poco más de sesenta y cinco años, menos que la vida media de una persona. En ese periodo, las cosas se tornaron primero mucho más complejas para los físicos de partículas, y luego empezaron a simplificarse. Aquellas complicaciones, y la búsqueda de un principio simplificador que pusiera orden al mundo de las partículas, es de lo que trata este libro. Muchos físicos creen hoy en día que están a punto de explicar todas las fuerzas y partículas de la naturaleza mediante un único conjunto de ecuaciones, una «teoría de todas las cosas» en la que participaría un fenómeno conocido como supersimetría, o SUSY. La historia de la búsqueda de SUSY comienza con la comprensión, a principios del siglo XX, de que las partículas subatómicas como los electrones no obedecen las leyes de la física que se aplican, como Isaac Newton descubriera tres siglos antes, al mundo de objetos como las bolas de billar, las manzanas o la Luna. Aquéllas, en cambio, obedecen las leyes del mundo de la física cuántica, en el que las partículas se mezclan con las ondas, nada es cierto y reina la probabilidad.

Capítulo 1
Física cuántica para principiantes

Con anterioridad al siglo XX, los físicos concebían el mundo natural como si estuviera compuesto de objetos duros y minúsculos, los átomos y moléculas, que, al interactuar, producen toda la variedad de materiales, vivos o inertes, que vemos a nuestro alrededor. Disponían asimismo de una buena teoría para explicar cómo se propaga la luz, en forma de ondas electromagnéticas análogas, en muchos aspectos, a los rizos del agua en un estanque o a las ondas de sonido que portan información en forma de vibraciones en el aire. La gravedad era algo más misteriosa. Pero, en general, la división del mundo entre partículas y ondas parecía establecida, y los físicos parecían estar a punto de poner todos los puntos sobre las íes. En pocas palabras, el fin de la física teórica y la solución a todos los grandes rompecabezas parecía estar a la vista.
Pero los físicos apenas habían comenzado a reconocer esta atractiva posibilidad cuando el castillo de naipes que habían construido tan arduamente se vino al suelo. Resultó que el comportamiento de la luz sólo se podía explicar, en algunas ocasiones, en términos de partículas (fotones), en tanto que la explicación o modelo ondulatorio seguía siendo el único válido en otras circunstancias. Y por si fuera poco haber de preocuparse de ondas que a veces se comportan como partículas, los físicos no tardaron en darse cuenta de que las partículas a veces también se pueden comportar como ondas. Entre tanto, Albert Einstein estaba echando abajo el conocimiento establecido acerca del espacio, el tiempo y la gravedad con sus teorías sobre la relatividad. Para cuando la tormenta comenzó a amainar, a finales de los años veinte, los físicos disponían de una nueva visión del mundo radicalmente diferente de la antigua. Esta nueva visión todavía es el fundamento de la que tenemos en la actualidad. Nos dice que no existen ondas o partículas puras sino, al nivel más fundamental, entidades que se describen adecuadamente como mezclas de onda y partícula, a las que ocasionalmente se designa «ondículas». Nos dice que es imposible predecir con absoluta certeza el resultado de ningún experimento atómico o, en realidad, de ningún evento del Universo, y que nuestro mundo está gobernado por probabilidades. Y nos dice que es imposible conocer simultáneamente tanto la posición exacta de un objeto como su momento (hacia dónde va) exacto.
Cómo y por qué llegaron los físicos a estas sorprendentes conclusiones es algo que he explicado con todo detalle en mi libro En busca del gato de Schrödinger. Aquí sólo pretendo bosquejar esta nueva visión del mundo sin entrar en los detalles históricos y experimentales sobre los que se fundamenta. Pero los cimientos son seguros; la física cuántica tiene una base tan sólida, y tan meticulosamente establecida mediante experimentos y observaciones, como la teoría general de la relatividad de Einstein. En conjunción, estas dos teorías proporcionan la mejor descripción del Universo y todo lo que contiene de que disponemos hoy, y se tiene la esperanza, bien fundamentada, de que estos dos pilares de la física del siglo XX puedan combinarse en una única teoría unificada.

§. Fotones
El mejor punto donde comenzar la historia de la física cuántica es con el trabajo del gran físico escocés James Clerk Maxwell, en el tercer cuarto del siglo XIX. Maxwell, que nació en Edimburgo en 1831, hizo numerosas contribuciones a la física, pero la más notable fue, sin duda, su teoría del electromagnetismo. Como muchos de sus contemporáneos y antecesores inmediatos, Maxwell estaba fascinado por la observación de que cuando una corriente eléctrica circula por un alambre crea un campo magnético que, en sus propiedades más fundamentales, es idéntico al creado por un imán. Por ejemplo, el campo así creado alrededor de un alambre por el que circule una corriente desviará la aguja de una brújula colocada cerca del alambre. Pero, además, si se mueve un imán a lo largo de un alambre, se produce una corriente eléctrica. Mover electricidad, una corriente, produce magnetismo, y mover un imán produce una corriente eléctrica. Las fuerzas eléctricas y las fuerzas magnéticas, que en otro tiempo parecieran fenómenos totalmente separados, ahora parecían facetas de un todo mayor, el campo electromagnético.
Maxwell intentó escribir un conjunto de ecuaciones que enlazaran y explicaran todos los fenómenos eléctricos y magnéticos que los físicos habían observado y medido. Escribió cuatro ecuaciones: una para describir el campo magnético producido por una corriente eléctrica, una segunda ecuación para describir el campo eléctrico producido por un campo magnético cambiante, una tercera para describir el campo eléctrico producido por la propia carga eléctrica, y la cuarta para describir el propio campo magnético, incluyendo la observación de que los polos magnéticos siempre se dan en pares (los equivalentes de un norte y un sur). Pero cuando Maxwell examinó las ecuaciones, halló que eran matemáticamente incorrectas. Para corregir la matemática, hubo de introducir un nuevo término en la primera ecuación, un término que equivale a la descripción de cómo un campo magnético puede producir un campo eléctrico cambiante sin que fluya corriente.
Por aquel entonces, nadie había observado nunca tal fenómeno. Pero una vez Maxwell reconstruyó las ecuaciones en la forma matemática más elegante, la razón para este término adicional se vio con claridad. Los físicos conocían los condensadores (ahora llamados capacitadores), que consisten en dos placas planas de metal distanciadas por una pequeña separación a través de la cual puede establecerse un potencial. Una de las placas puede conectarse al polo positivo de una batería y la otra al polo negativo. En este caso, una de las placas acumula una carga eléctrica positiva, y la otra, una carga negativa. La separación entre las placas está sometida a un intenso campo eléctrico, pero no fluye corriente eléctrica y no hay campo magnético. El nuevo término matemático de Maxwell describía, entre otras cosas, lo que ocurre entre las placas de un capacitador como el descrito justo en el momento de conectar las placas a la batería. A medida que se acumula una carga eléctrica sobre las placas, en la separación se establece un campo eléctrico que cambia rápidamente y, de acuerdo con las ecuaciones, éste debiera producir un campo magnético. Maxwell no tardó en confirmar que las ecuaciones eran correctas: le bastó con colocar una brújula en la separación entre las dos placas y observar cómo la aguja se desviaba en el momento en que las placas se conectaban a la batería. Como en la mejores teorías científicas, la nueva teoría del electromagnetismo había predicho con éxito el resultado de un experimento.

001.jpg
Figura 1.1. Una onda se define por su amplitud y su longitud de onda.

Sólo entonces se produjo el descubrimiento realmente sensacional. Maxwell se dio cuenta de que si el campo eléctrico cambiante podía producir un campo magnético cambiante, y el campo magnético cambiante podía producir un campo eléctrico cambiante, entonces los dos componentes de este campo electromagnético único, unificado, podían acompañarse perfectamente sin necesidad de que existieran corrientes eléctricas o imanes. Las ecuaciones decían que un campo electromagnético autorreforzado, en el que la electricidad produjera magnetismo y el magnetismo, electricidad, podía desplazarse alegremente por el espacio por sus propios medios una vez se le hubiera dado un empujoncito para ponerlo en marcha. El campo electromagnético continuamente cambiante que predecían las ecuaciones tomaba la forma de una onda que se desplazaba a una velocidad determinada: 300.000 km/s. Ésta es precisamente la velocidad de la luz. Las ecuaciones del electromagnetismo de Maxwell habían predicho la existencia de ondas electromagnéticas que se desplazaban a la velocidad de la luz, y Maxwell no tardó en comprender que la luz debía ser una onda electromagnética.

002.jpg
Figura 1.2. Cuando dos ondas se encuentran, interfieren. Esto se ve muy claramente cuando se hace pasar luz de color puro de un emisor puntual a través de dos agujeros diminutos en una pantalla. Los dos grupos de ondas que se extienden a partir de cada agujero interfieren para formar en la segunda pantalla un patrón característico de bandas claras y oscuras.

Ya se disponía de evidencia experimental de la naturaleza ondulatoria de la luz, de modo que el descubrimiento de Maxwell encajaba perfectamente en la ciencia normal del siglo XIX y fue recibida con los brazos abiertos. La mejor prueba empírica de la naturaleza ondulatoria de la luz se halla en la posibilidad de hacerla «interferir» consigo misma, como la interferencia entre dos grupos de ondas en un estanque, para producir un patrón de luces y sombras que no es posible explicar de otra manera.
Thomas Young, un físico y médico británico nacido en Somerset en 1773, realizó el experimento crucial a principios del siglo XIX, cuando proyectó un haz de luz pura de un solo color (luz monocromática) a través de un par de rendijas estrechas en una pantalla para así producir un par de grupos de «ondas» y hacer un patrón clásico de interferencia en una segunda pantalla. Este trabajo puso fin a la idea, que se remontaba a Newton, de que la luz estaba compuesta de pequeñas partículas o corpúsculos.
Las investigaciones de Maxwell y de Young proporcionaron conjuntamente lo que parecía una comprensión cabal de la naturaleza de la luz. Los experimentos de interferencia permitieron medir la longitud de onda de la luz —la distancia de cresta a cresta—, que resultó ser de aproximadamente una diezmillonésima (10-7) de metro. La diferencia entre los distintos colores del espectro corresponde a diferentes longitudes de onda (la luz roja tiene una longitud de onda varias veces más larga que la luz azul), y Maxwell infirió que debía existir radiación electromagnética en un rango más amplio de longitudes de onda, que se extendiera mucho más allá de los límites del espectro visible, tanto de longitudes de onda más corta como de longitudes de onda más larga. Antes de que acabara el siglo XIX, el pionero alemán Heinrich Hertz consiguió producir ondas de radio, con una longitud de onda de varios metros, y confirmar de este modo la predicción de Maxwell.
Todo el espectro electromagnético, desde las ondas de radio hasta la luz visible y, con una longitud de onda aún más corta, los rayos X, obedece las leyes de Maxwell. Estas ecuaciones, que describen cómo se propaga la radiación electromagnética en forma de ondas, son el fundamento del diseño de objetos cotidianos como los televisores y las radios. También son el fundamento de la interpretación cosmológica de la desviación al rojo. La concepción de la luz como una onda es, pues, un concepto firme y familiar. Y, sin embargo, desde principios del siglo XX ha estado claro que Newton siempre había tenido razón. La luz y todas las formas de radiación electromagnética pueden describirse en términos de partículas, que ahora se llaman fotones. Bajo ciertas circunstancias, el comportamiento de la luz puede explicarse mejor en términos de fotones, como Einstein demostró en 1905.
Las primeras indicaciones de la naturaleza corpuscular de la luz aparecieron en 1900, cuando Max Planck, un físico alemán nacido en Kiel en 1858, se vio forzado a introducir la idea de paquetes discretos de luz en las ecuaciones que describen la emisión de luz, o de cualquier otra radiación electromagnética, por un cuerpo caliente. Este problema había llevado de cabeza a los físicos desde la última década del siglo XIX. Conjeturaban que la luz se generaba por la vibración de partículas cargadas eléctricamente dentro de un objeto, unas vibraciones en las que participaban los propios átomos y que proporcionaban el empuje necesario para poner en marcha las ondas descritas por las ecuaciones de Maxwell. Y sabían, gracias a observaciones y experimentos, que el tipo de radiación producida por un objeto depende de su temperatura. Muchas observaciones cotidianas lo confirman: una pieza de metal calentada hasta el blanco (por ejemplo, un atizador) está mucho más caliente que una pieza de metal al rojo vivo, y una pieza demasiado fría para emitir ningún tipo de radiación puede estar todavía demasiado caliente para agarrarla con las manos. Cualquiera de estos objetos emite ondas electromagnéticas de un amplio rango de longitudes de onda, pero la intensidad máxima de la radiación se presenta siempre a una longitud de onda, característica de la temperatura del objeto, que es más corta para objetos más calientes. La naturaleza del espectro general de radiación es siempre la misma, pero la posición del pico es una indicación muy precisa de la temperatura de la radiación: para un emisor «perfecto», Se trata del famoso espectro del «cuerpo negro». Pero hasta la entrada en escena de Planck, nadie había conseguido manipular las ecuaciones electromagnéticas de manera que predijeran la naturaleza del espectro del cuerpo negro.
Planck encontró que la única manera de explicar la naturaleza del espectro del cuerpo negro tal como se observa era aceptando que la luz (y con esto nos referimos ahora a cualquier tipo de radiación electromagnética) sólo se puede emitir a través de la vibración de cargas dentro de los átomos en pequeños paquetes de energía. [2] Esto implica que los átomos sólo pueden absorber luz en paquetes de ciertas medidas. Planck expresó éstos en términos de la frecuencia de la radiación, denotada mediante la letra griega nu, ν. La frecuencia puede concebirse como el número de crestas de onda que pasan por un punto fijo cada segundo; para luz de una longitud de onda de 10-7 metros y una velocidad de 300.000 kilómetros por segundo, la frecuencia es de 3×1015 Hertz, una unidad nombrada en honor del pionero de la radio. Planck halló que podía explicarse el espectro observado de un cuerpo negro si para cada frecuencia de luz existiera una cantidad de energía característica igual a la frecuencia multiplicada por una constante fundamental, a la que denominó h. Esta energía, E = hv, es la cantidad de energía más pequeña que un átomo puede emitir o absorber, y sólo puede emitir o absorber cantidades que sean múltiplos exactos (1, 2, 3, 4.. .n...) de esta energía fundamental.
Planck no sugirió que la energía de la luz existiese solamente en pequeños paquetes con energía hv; creía que esta restricción sobre la emisión o absorción tenía algo que ver con la naturaleza de los osciladores cargados del interior de los objetos calientes. Sin embargo, consiguió calcular el valor de h, que es el mismo para cualquier tipo de radiación. Este valor, que hoy se denomina constante de Planck, toma el minúsculo valor de -6,6×10-34 julios × segundo. Aun para la luz de una frecuencia de 1015 Hz, la unidad de energía fundamental no es más que 10-18 julios, y se requiere 6.000 julios para mantener encendida durante un minuto una bombilla normal. La energía radiada por una bombilla parece continua sólo porque h es extremadamente pequeña; en realidad, la luz visible está constituida por millones de diminutos paquetes de energía.
La propuesta de Planck fue recibida al principio con reservas. Explicaba el espectro del cuerpo negro, pero sólo gracias a un juego de manos matemático, un truco. Einstein, que por entonces era un físico casi desconocido que todavía trabajaba en la oficina de patentes de Suiza, le dio al truco matemático una realidad física respetable al mostrar que otro de los grandes rompecabezas de la época podía explicarse si los pequeños paquetes de energía tenían una existencia real, y que la luz sólo existía en piezas con energía hv. La solución propuesta por Einstein al rompecabezas de la naturaleza de la luz ofrece una explicación física mucho más clara de por qué ha de ser así.
El efecto fotoeléctrico ocurre cuando se irradia una superficie metálica en el vacío. La luz literalmente golpea y arranca electrones de la superficie del metal, y es posible detectar los electrones y medir la energía que llevan. Este efecto lo había descubierto en 1899 el húngaro Phillip Lenard. Que la luz pudiera arrancar electrones de la superficie del metal no constituía ninguna sorpresa; lo que sí fue una sorpresa fue descubrir la relación que existía entre la energía de la luz y la energía de los electrones. Lenard utilizó luz monocromática, de modo que todas las ondas tenían la misma frecuencia. Una luz brillante obviamente tiene más energía que una luz tenue, así que sería de esperar que si se irradiara la superficie de un metal con una luz brillante los electrones arrancados llevaran más energía que si la luz proyectada fuera tenue. Pero lo que observó Lenard es que, en tanto que no se modificara la frecuencia de la luz, no importaba para nada la intensidad de la luz: los electrones arrancados de la superficie del metal llevaban siempre la misma cantidad de energía.
Cuando Lenard acercaba la lámpara al metal, de modo que proyectara sobre éste una luz más brillante, el efecto fotoeléctrico efectivamente producía más electrones, en correspondencia con la mayor cantidad de energía procedente de la luz más brillante. Pero cada uno de los electrones tenía la misma cantidad de energía, la misma que portaban cuando la luz era más tenue, aunque entonces el número de electrones arrancados fuera menor. Por otro lado, si utilizaba luz de mayor frecuencia (es decir, de longitud de onda más corta), los electrones producidos tenían más energía aun cuando la luz fuera tenue. Una vez más, todos tenían la misma energía, pero esta energía era mayor que la energía de los electrones producidos al utilizar luz de menor frecuencia. La razón de todas estas observaciones parece simple desde la perspectiva que nos da nuestro conocimiento actual, pero cuando Einstein la propuso, la explicación era revolucionaria. Simplemente sugirió (y proporcionó los cálculos matemáticos necesarios para respaldar su sugerencia) que un rayo de luz de frecuencia v está compuesto por una corriente de partículas, que hoy conocemos como fotones, cada una de las cuales tiene energía hv. Se arranca un electrón de un metal cuando un fotón golpea de lleno un electrón. De este modo, cada electrón lleva la cantidad de energía hv proporcionada por un fotón, menos la energía necesaria para arrancar el electrón. Cuanto más intensa sea la luz, más fotones habrá y, por consiguiente, se producirán más electrones. Pero la energía de cada fotón seguirá siendo la misma. La única manera de aumentar la energía de cada fotoelectrón individual es aumentando la energía de los fotones que los arrancan del metal, y la única manera de conseguir esto es aumentando v.
Esta sugerencia no fue universalmente aclamada por los físicos en el momento. Todos sabían, y el experimento de Young de la doble rendija y las ecuaciones de Maxwell lo establecieron fuera de toda duda razonable, que la luz era una onda electromagnética. A lo que parecía, sólo un insensato recién llegado sin una auténtica comprensión de la física podía osar reavivar la absurda idea newtoniana de los corpúsculos de luz. De hecho, un físico experimental, el americano Robert Millikan, se enfureció tanto con la idea que dedicó diez años a realizar experimentos con el objeto de demostrar que Einstein se equivocaba. Sólo consiguió demostrar que tenía razón, y de paso obtener una medida muy precisa del valor de h y ayudar a asegurar el Premio Nobel de Física para Planck en 1918, para Einstein en 1921 por su explicación del efecto fotoeléctrico, y para el propio Millikan en 1923. No hay duda que todos estos premios fueron merecidos; lo sorprendente es que Einstein nunca recibiera un segundo Premio Nobel por su teoría general de la relatividad. [3]
Para cuando los pioneros de la física cuántica recibían estos honores, la introducción por Planck del cuanto, hv, en la física atómica ya había ayudado a otros físicos, dirigidos por el danés Niels Bohr, a desarrollar el primer modelo satisfactorio del átomo, un modelo basado en la concepción, procedente del trabajo de Rutherford, de un pequeño núcleo cargado positivamente alrededor del cual orbitaban electrones todavía más pequeños, cargados negativamente, más o menos de la misma manera que los planetas describen órbitas alrededor del Sol. El nuevo modelo postulaba que estas órbitas estaban separadas por intervalos que correspondían al cuanto básico de energía y que un electrón podía saltar de una órbita a otra, pero no podía existir en un estado intermedio. Para saltar de una órbita de mayor energía a otra de menor energía, había de emitir un fotón con energía hv, mientras que para saltar de una órbita de menor energía a otra de mayor energía necesitaba absorber un fotón, hv. Pero como no existen medios fotones, no podía saltar hasta un estado intermedio entre las dos órbitas permitidas.
Este modelo estaba lejos de ser completo, pero proporcionó a los físicos una idea acerca de cómo se comportan los electrones en los átomos, y les ayudó a comenzar a explicar las líneas brillantes y oscuras de los espectros atómicos. Las líneas brillantes simplemente corresponden a la emisión de fotones cuando un electrón baja varios escalones de la escala de energía; las líneas oscuras son los «vacíos» que quedan en el espectro cuando los electrones absorben fotones con una cantidad precisa de energía y suben varios escalones de la escala de energía. Pero quedaban muchas preguntas por resolver a principios de los años veinte. Para empezar, la teoría de la radiación electromagnética no era una sola teoría, sino dos. En ocasiones la luz y los rayos X tenían que describirse mediante las ecuaciones ondulatorias de Maxwell; otras veces era necesario recurrir a los fotones de Einstein; otras veces no quedaba más remedio que usar una mezcla de las dos teorías, como en el cálculo de Planck del espectro de un cuerpo negro. Y, la cuestión más apremiante, ¿qué es exactamente lo que determina qué niveles de energía pueden ser ocupados por los electrones? O, en otras palabras, ¿cómo se explica el número de escalones de la escala de energía y la distancia entre ellos? Las respuestas no surgieron de una racionalización de la teoría de la luz y un retorno a la tranquila lógica de la física «clásica» del siglo XIX, sino que fueron el resultado de extender al mundo de las partículas la revolución que afectaba a las ondas. En particular, como Louis de Broglie sugirió ante una asombrada comunidad de físicos en 1924, si las ondas de luz se comportan como partículas, ¿por qué no pueden los electrones, a los que solía considerarse partículas, comportarse como ondas?

§. Electrones
De Broglie, nacido en 1892, fue el hijo menor de un noble francés, y llegó a heredar el título nobiliario de su hermano, convirtiéndose en el duque de Broglie. Su hermano, Maurice, fue un pionero del desarrollo de la espectroscopia de rayos X, y fue a través de Maurice que Louis tuvo su primer contacto con la revolución cuántica, con la que quedó fascinado. La idea que desarrolló en su tesis doctoral, defendida en la Sorbona en 1924, era brillante en su simplicidad y estaba respaldada por un meticuloso análisis matemático. Me limitaré a describir el modelo físico simple de la naturaleza de la materia que propuso De Broglie. Quien esté interesado en los detalles matemáticos habrá de buscar en otro lugar.
Einstein había desarrollado la ecuación de la energía para las partículas materiales, E = mc2; Planck, con un poco de ayuda de Einstein, obtuvo una ecuación semejante para los fotones, E =hv. Aunque los fotones no tienen masa, sí tienen momento, de lo contrario no podrían arrancar electrones de la superficie de un metal. Para una partícula cualquiera, el momento es igual a su masa (m) multiplicada por su velocidad (v). Un objeto ligero que se desplace muy rápidamente lleva tanta energía como un objeto pesado que se desplace lentamente, y puede golpear con la misma fuerza. Piénsese en el impacto de una bala comparado con una pelota. Pero los golpes más fuertes provienen, por supuesto, de objetos pesados que se muevan rápidamente. La velocidad de un fotón es c. Y si aislamos el factor (mc) de la ecuación de Einstein y lo reemplazamos por la letra p para representar el momento, obtenemos una nueva ecuación, E = pc, que se puede aplicar igualmente a la materia normal y a los fotones.
Así que De Broglie combinó esta ecuación con la de Planck. E = pe = hv. Reordenando los términos un poco se obtiene, para un fotón, p = hv/e. Pero la velocidad de una onda (c) dividida por su frecuencia (v) no es sino la longitud de onda. De modo que la versión de De Broglie de esta ecuación nos dice que, para un fotón, el momento es igual a la constante de Planck dividida por la longitud de onda. Esto relaciona directamente la naturaleza corpuscular de los fotones (momento) con su naturaleza ondulatoria (longitud de onda) a través de la constante de Planck. Pero, ¿para qué parar aquí?, se preguntó De Broglie. Los electrones tienen momento, y conocemos el valor de la constante de Planck. Si reordenamos de nuevo la ecuación, obtenemos una relación que nos dice que la longitud de onda es igual a h dividido por el momento. En otras palabras, cualquier partícula, por ejemplo un electrón, es también una onda, y su longitud de onda depende únicamente de su momento y de la constante de Planck. En el caso de las partículas macroscópicas de nuestra experiencia diaria, la masa y, por consiguiente, el momento, es tan grande comparado con h que podemos desatender completamente la naturaleza ondulatoria de la luz. Para estos objetos, h dividido por el momento es prácticamente igual a cero. Pero en el caso de los electrones, cuya masa es tan sólo 9 x 10-28 gramos, las cifras son más comparables y el aspecto ondulatorio no puede desdeñarse.
De Broglie sugirió a su tribunal de tesis que esta extraña ecuación correspondía a una realidad física, y que era posible diseñar experimentos para medir la longitud de onda de los electrones. Los miembros de su tribunal no sabían si tomarse esta idea en serio o no, y vieron esta parte de su tesis más como un truco matemático astuto que como una idea de valor práctico. Su director, Paul Langevin, le envió una copia de la tesis a Einstein, quien advirtió inmediatamente el valor del trabajo y sus implicaciones, y no sólo reafirmó ante Langevin su corrección (de manera que De Broglie fue investido doctor), sino que pasó la noticia a otros investigadores. En el plazo de unos años, grupos de investigación tanto en Estados Unidos como en Gran Bretaña habían conseguido medir la longitud de onda de haces de electrones. Lo consiguieron mediante el análisis de la dispersión de electrones por átomos de una red cristalina regular que, para los electrones, es el equivalente del experimento de la doble rendija de Young, e igualmente concluyente. [4] Sólo las ondas pueden interactuar entre sí para formar patrones de interferencia y, en las condiciones adecuadas, los electrones hacen lo propio. Entretanto, el austríaco Erwin Schrodinger había desarrollado una ecuación de onda para el electrón, equivalente a las ecuaciones de Maxwell para la luz, que resultó ser una de las claves para desarrollar un modelo coherente del átomo. De Broglie recibió un merecido Premio Nobel de Física en 1929. Para entonces, estaba claro que todas las «ondas» deben tratarse como «partículas», y que todas las «partículas» deben tratarse como «ondas». La confusión no se nos presenta en la vida cotidiana, para los objetos lo bastante grandes para poder verlos o para las olas del mar o las ondas de un estanque. Pero es crucial para comprender los átomos y los fenómenos subatómicos. Los físicos de finales de los años veinte estaban contentos de disponer por fin de una teoría coherente del átomo, aunque para conseguirlo hubieran tenido que aceptar algunas ideas extrañas sobre la dualidad onda-partícula. Sin embargo, este aspecto extraño de la realidad atómica resultó ser la menor de las extrañezas del mundo cuántico que se estaba abriendo ante su asombrada mirada.

§. El misterio fundamental
Hay un experimento que contiene la esencia de la física cuántica y desvela su misterio fundamental. Se trata de la versión moderna del experimento de la rendija doble que Young utilizó para demostrar que la luz es una forma de onda. En la práctica, este experimento puede realizarse con luz o electrones o cualquier otro objeto, como los protones; no precisa literalmente dos rendijas, sino quizá el equivalente de una red de rendijas, una rejilla de difracción, o los átomos regularmente dispuestos en un cristal, donde puedan rebotar los rayos X o los electrones. Pero para describir el misterio fundamental en su forma más pura me limitaré a hablar de electrones y de exactamente dos rendijas. Todo lo que explicaré acerca del comportamiento de los electrones en estas circunstancias ha sido contrastado y verificado mediante experimentos de este tipo con electrones y fotones y otras «partículas». Nada de esto es una simple extrañeza matemática hipotética de las ecuaciones; todo está probado y contrastado y es cierto.
La forma idealizada del experimento es fácil de describir. Consiste en una fuente de electrones (un «cañón» de electrones como el que hay en el tubo de los televisores), una pantalla con dos agujeros (agujeros minúsculos, pues han de ser pequeños en comparación con la longitud de onda de un electrón, y por esta razón los átomos de un cristal parecen hechos a medida) y un detector. El detector puede ser una pantalla, como la pantalla de un televisor, que emite un destello de luz cuando un electrón choca contra ella. Lo que importa es que dispongamos de alguna manera de registrar cuándo y dónde chocan los electrones con el detector, y de sumar el número de electrones que chocan con la pantalla de detección en cada punto. Cuando las ondas atraviesan un sistema como el descrito, cada uno de los agujeros de la primera pantalla se convierte en una fuente de ondas que se extienden en un semicírculo y se desplazan al unísono con las ondas procedentes del otro agujero. Allí donde las ondas se suman, producen vibraciones amplias; allí donde se cancelan, no se observa ninguna vibración. Ésta es la razón por la cual al realizar este experimento con luz se obtiene una serie de bandas claras y oscuras en la pantalla de detección.
Si la primera pantalla tiene un solo agujero, entonces se produce una simple mancha (o banda) brillante de luz en el detector, más brillante en el centro, y progresivamente menos brillante hacia afuera.
Lo mismo ocurre cuando se dispara un haz de electrones a través de una pantalla con un solo agujero (una rendija). La pantalla de detección registra la mayoría de destellos en línea con el agujero, y unos pocos a lado y lado de la región donde el haz de electrones es más intenso. Para probar que ocurre así en nuestro experimento de la rendija doble, podemos tapar primero uno de los agujeros y luego el otro. En ambos casos se obtiene una mancha brillante en la pantalla que se difumina suavemente a los lados. Pero cuando ambos agujeros están abiertos, se produce un claro patrón de difracción en la pantalla. Los destellos que marcan la llegada de cada uno de los electrones forman bandas brillantes separadas por regiones oscuras. La naturaleza ondulatoria de los electrones explica este comportamiento. Las ondas de electrones que atraviesan cada uno de los dos agujeros interfieren entre sí, cancelándose en algunos lugares y reforzándose en otros tal como hacen las ondas.
Hasta aquí, todo bien. Es más que extraño que los electrones puedan comportarse como ondas mientras atraviesan este dispositivo experimental, para luego, de golpe, fundirse en forma de corpúsculos duros que producen destellos al chocar contra la pantalla de detección, pero al combinar las ideas de onda y partícula podemos comenzar a convencernos de que hasta cierto punto lo comprendemos. Después de todo, una ola del mar está compuesta por infinidad de partículas diminutas (las moléculas de agua) en movimiento. Si disparamos cientos de miles de electrones en un haz a través de los dos agujeros, quizá no sea tan sorprendente que de alguna manera puedan comportarse como ondas al tiempo que retienen su identidad como pequeñas partículas. Si en el experimento disparáramos un solo electrón, esperaríamos que lógicamente pasara por uno u otro de los agujeros. El patrón de difracción que observamos es simplemente, de acuerdo con la lógica mundana, el resultado de observar muchos electrones al mismo tiempo.
Así pues, ¿qué ocurre cuando se realiza el experimento disparando un solo electrón? Obviamente, cuando se observa un solo destello en la pantalla del otro lado no se puede inferir mucho sobre el comportamiento del electrón. Pero se puede repetir el experimento del único disparo una y otra vez, observando todos los destellos y apuntando sus posiciones en la pantalla. Cuando se hace esto, se halla que los destellos poco a poco construyen el familiar patrón de difracción. Cada uno de los electrones, al atravesar el aparato, de alguna manera se comporta como una onda e interfiere consigo mismo dirigiendo su propia trayectoria hacia la región brillante correspondiente del patrón de difracción. La única explicación alternativa sería que todos los electrones que atraviesan el aparato en momentos diferentes interfiriesen entre sí, o con la «memoria» de los otros, para producir el patrón de difracción.
Diríase que cada uno de los electrones atraviesa ambas rendijas. Una locura. Pero podemos diseñar un grupo adicional de detectores que registren el agujero que atraviesa cada uno de los electrones, y repetir entonces el experimento para ver qué es lo que pasa realmente. Cuando se hace esto, no se observa que cada uno de los detectores en cada uno de los agujeros indique el paso de un electrón (o de medio electrón). El electrón pasa a veces por una de las rendijas y a veces por la otra. ¿Pero qué ocurre si disparamos miles de electrones por el aparato, uno tras otro? Nuevamente, se observa un patrón en la pantalla de detección. ¡Pero no es el patrón de difracción! Es simplemente la combinación de las dos manchas brillantes que se obtienen cuando sólo está abierto uno u otro de los agujeros, sin que se dé indicación alguna de un patrón de interferencia.
Esto es muy extraño. Cada vez que intentamos detectar un electrón, se comporta como una partícula. Pero si no lo estamos observando, se comporta como una onda. Cuando miramos cuál de los agujeros atraviesa, lo hace por uno solo de ellos, como si el otro no existiera. Pero cuando no observamos el paso del electrón, de algún modo «sabe» de la existencia de dos agujeros, y actúa como si atravesara los dos a la vez.
Los físicos cuánticos han encontrado maneras de poner todo esto en palabras. Dicen que cada electrón lleva asociado un cierto tipo de onda. Es la llamada «función de onda» que, en principio, se extiende hasta llenar el Universo entero. La ecuación de Schrödinger describe estas funciones de onda y cómo interaccionan entre sí. La función de onda es más fuerte en una región, la que en nuestro lenguaje mundano corresponde a la posición del electrón, y aunque se debilita con la distancia, sigue existiendo lejos de la «posición» del electrón. Las ecuaciones predicen correctamente el comportamiento de los electrones en diferentes circunstancias, incluido el caso de interferencia entre electrones al atravesar dos rendijas. Cuando observamos un electrón, o lo medimos con un detector de partículas, la función de onda se «colapsa». En ese instante, la posición del electrón se conoce con la precisión que permiten las leyes fundamentales. Pero en cuanto dejamos de observarlo, la función de onda se expande de nuevo e interfiere con las funciones de onda de otros electrones, e incluso, bajo determinadas condiciones, con la suya propia. [5]
Todo esto se puede cuantificar matemáticamente con mucha precisión, y hace posible calcular cómo se disponen los electrones en los átomos, cómo se combinan los átomos para formar moléculas, y muchas otras cosas. El término del argot científico «colapso de la función de onda» (que tiene un significado matemático preciso en la teoría cuántica) equivale a decir que sólo podemos saber dónde está algo mientras lo observamos. Basta un parpadeo para que lo perdamos de vista.
Y el comportamiento de las partículas depende de si las estarnos observando. Cuando observamos el paso de electrones por los dos agujeros, los electrones se comportan de modo diferente a cuando no estamos observando. El observador es, en la física cuántica, una parte integral del experimento: lo que el observador decida mirar desempeña un papel fundamental en lo que ocurrirá.
Las implicaciones de todo esto son realmente profundas.
Para empezar, ya no podemos decir que un electrón, en principio identificable como un objeto único, comienza en un lugar de nuestro experimento y se desplaza siguiendo un único camino (una trayectoria) hasta llegar al otro lado. El propio concepto de «trayectoria» continua es un vestigio de las ideas newtonianas clásicas, y debe ser abandonado. En su lugar, los físicos cuánticos hablan de «eventos». Los eventos pueden ocurrir en un cierto orden en el tiempo, pero no nos dicen nada acerca de lo que ocurre con las partículas involucradas cuando no las observamos. Todo lo que podemos decir es que observamos un electrón en el inicio (evento 1), y que observamos un electrón en el final (evento 2). No podemos decir absolutamente nada sobre lo que hace en medio; ni siquiera podemos asegurar que en ambos eventos se esté detectando el mismo electrón. Si disparamos dos electrones a la vez, aunque los dos llegarán a la pantalla de detección algo más tarde, no existe manera de saber cuál es cuál.
Los electrones son indistinguibles entre sí en un sentido mucho más profundo que cualquiera de los objetos de producción en masa del mundo corriente, como cuando decimos, por ejemplo, que los sujetapapeles son indistinguibles unos de otros. Los electrones de un átomo no son entidades físicas individuales, cada uno asociado a una órbita particular. Todo lo que podemos decir es que un tipo particular de átomo se comporta como si estuviera asociado a una combinación de ocho, diez, o el número que sea de funciones de onda de electrones. Si realizamos un experimento diseñado para examinar un átomo (quizás bombardeándolo con fotones, como en el experimento fotoeléctrico), una o más de las funciones de onda de electrones puede modificarse de tal modo que exista una probabilidad elevada de que detectemos un electrón fuera del átomo, como si hubiera expulsado una pequeña partícula. Pero las únicas realidades son las que observamos; todo lo demás es conjetura, modelos hipotéticos que construimos en nuestras mentes y con nuestras ecuaciones, y que nos permiten elaborar una imagen de lo que está ocurriendo.
¿Qué es más real, la onda o la partícula? Depende de lo que se le pregunte. Y no importa lo hábil y capaz que sea el físico que hace la pregunta: nunca se sabe con absoluta certeza qué respuesta se obtendrá.

§. Azar e incertidumbre
Una partícula es algo bien definido. Existe en un punto en el espacio, ocupa un pequeño volumen y tiene algún tipo de realidad tangible en nuestra experiencia cotidiana del mundo. Una onda es casi lo opuesto. Una onda pura se extiende sin límites, por lo que no tiene sentido decir que existe en un punto. Puede tener una dirección bien definida, pues tiene momento. Pero no es posible, ni siquiera con la imaginación, ponerle el dedo y aguantarla mientras se la observa. Entonces, ¿cómo se pueden reconciliar estos dos aspectos del mundo subatómico?
Para que una onda pueda expresarse como partícula (un fotón o un electrón), es preciso confinarla de algún modo. Los matemáticos saben cómo hacerlo: para confinar una partícula hay que reducir su pureza. En lugar de una única onda con una frecuencia única y bien definida, piénsese en un haz de ondas, con un rango de frecuencias, que se desplacen juntas. En algunos lugares, los picos de una onda se combinarán con los picos de otras ondas para producir una onda más fuerte; en otros lugares, los picos de una onda coincidirán con los valles de otras ondas y se cancelarán. Mediante una técnica denominada análisis de Fourier, los matemáticos pueden producir combinaciones de ondas que se cancelan casi completamente en todos los lugares excepto en una pequeña región del espacio. Estas combinaciones reciben el nombre de paquetes de ondas. En principio, un paquete puede hacerse tan pequeño como se desee, en tanto se incluya un número suficiente de ondas diferentes.

003.jpg
Figura 1.3. Un paquete de ondas es un grupo de ondas que cubre una región limitada del espacio.

Siguiendo la convención matemática de designar cantidades pequeñas mediante la letra griega delta (Δ), podemos decir que la longitud de un paquete de ondas es Δx. A costa de perder la pureza de una onda única con una única frecuencia, podemos reducir la dimensión de un paquete de ondas hasta que tenga la dimensión de un electrón.
Pero hemos pagado un precio. El momento de una onda, como De Broglie mostró, es h dividido por la longitud de onda. Una onda pura tiene una longitud de onda única, y por tanto un momento único. Al introducir una mezcla de longitudes de onda, o de frecuencias, hemos introducido una mezcla de momentos. Cuantas más ondas introduzcamos (cuanto más pequeño sea el paquete de ondas), menos preciso será el significado del término «momento» para ese paquete de ondas. Sólo podremos decir que posee un rango de momentos dentro del intervalo Δp. Δx es la cantidad de indeterminación de la posición del paquete de ondas; sólo sabemos que está en algún lugar dentro de un volumen con sección Δx. Δp es la indeterminación del momento del paquete de ondas. Tenemos una cierta idea de hacia dónde se dirige el paquete, pero sólo con una precisión Δp. Es muy fácil demostrar matemáticamente que no es posible reducir Δx o Δp a cero y que, en realidad, el producto de las dos indeterminaciones, AxAp, es siempre mayor que la constante de Planck, h, dividida por el doble de pi (2π). Esta constante ligeramente diferente de h se designa mediante el símbolo h, y nos referimos a ella como «hache cruzada» o, con menos rigor, como «constante de Planck», aunque en realidad sea h /2π. La relación entre la posición y el momento es la relación de indeterminación de Heisenberg, denominada así en honor del Premio Nobel de Física alemán Werner Heisenberg, uno de los pioneros que dieron forma cabal a la mecánica cuántica en los años veinte, y se escribe:

Δx × Δp > h

Es necesario hacer hincapié en que esta relación, esta ecuación, no es simplemente un extraño truco matemático. La evidencia empírica de la dualidad onda-partícula implica que es imposible, en principio, medir con absoluta precisión tanto la posición como el momento de una partícula. Si pudiéramos medir la posición exacta de un electrón, de manera que Δx fuera cero, entonces Δp valdría infinito, y sería imposible saber dónde, en todo el Universo, aparecerá el electrón. Y esta indeterminación no se limita únicamente a nuestro conocimiento del electrón. Está ahí siempre, es inherente a la naturaleza de los electrones y de otras partículas y ondas. La propia partícula no «sabe», con absoluta precisión, dónde está ahora y adonde se dirige. El concepto de indeterminación está estrechamente ligado al concepto de azar en la física cuántica. No podemos saber con certeza dónde se encuentra una partícula, ni adonde se dirige, de manera que no debe sorprendernos que aparezca donde no la esperamos.
La posición y el momento no son las únicas propiedades de una partícula que se hallan relacionadas de este modo. Los pares de las denominadas «variables conjugadas» están ligados de modo semejante por las ecuaciones de onda; el más importante es el par constituido por la energía (E) y el tiempo (t). De un análisis matemático riguroso se desprende que existe una indeterminación inherente en la cantidad de energía que interviene en un proceso subatómico. Si la energía se transfiere de una partícula a otra, y si esta transferencia ocurre en un cierto intervalo de tiempo (y así debe ser, pues nada se desplaza más rápido que la luz), entonces la indeterminación en la energía (ΔE) multiplicada por la indeterminación en el tiempo (Δt) es también mayor que h cruzada:

ΔE × Δt > h

Por consiguiente, durante un corto periodo de tiempo el indeterminada la cantidad de energía que posee una partícula, y eso tanto para una partícula, como para sus alrededores inmediatos (o, en realidad, para todo el Universo). El extraño «efecto túnel», por el cual las partículas alfa escapan del núcleo atómico, ilustra gráficamente el poder de la indeterminación en el mundo subatómico. En los años veinte, George Gamow explicó «cabalmente» la emisión alfa mediante las ecuaciones completas de la física cuántica. Pero es fácil ver en términos generales qué ocurre durante este proceso.
La partícula alfa reside en el núcleo, y podemos imaginarla como si estuviera dentro del cráter de un volcán. Si la partícula se encontrara del lado de fuera del cráter, «rodaría» ladera abajo: sería expulsada por la fuerza de repulsión eléctrica. La «distancia» desde el interior del núcleo hasta el exterior es Δx. Una partícula alfa asociada al núcleo posee un momento bien definido, al igual que el propio núcleo. Pero esa implica que su posición debe estar indeterminada. Si bien una partícula alfa individual no dispone de la energía necesaria para ascender hasta el borde del cráter del volcán y escapar, no se encuentra dentro del núcleo, en el sentido mundano de «dentro». La indeterminación implica que existe una probabilidad finita, y calculable con precisión, de que la partícula se encuentre de hecho fuera del núcleo. ¡Bingo! Algunas partículas se encontrarán fuera del núcleo, se darán cuenta y se escaparán, como si hubieran construido un «túnel» a través de la barrera. Es como si cogiéramos unos dados y los sacudiéramos dentro del cubilete hasta que, de repente, uno de ellos apareciera fuera del cubilete, rodando por la mesa. Si la constante de Planck fuera lo bastante grande, eso es precisad mente lo que ocurriría en nuestro mundo macroscópico.
Lo mismo puede argumentarse respecto a la energía. La partícula necesita más energía para ascender por el cráter de la barrera potencial. La energía adicional que precisa es ΔE. Pero de acuerdo con todas las leyes de física que conocemos y que importan, durante un breve instante, Δt, puede poseer esa energía adicional. Y si la posee, ascenderá por el cráter y rodará por la ladera exterior. No importa que tenga que «devolver» la energía que tomó prestada de la indeterminación pasado el intervalo de tiempo Δt, porque para entonces ya habrá escapado ladera abajo del otro lado de la barrera.
Por si todo esto no atentara bastante contra nuestra manera de pensar convencional, la teoría cuántica se guarda aún algunos trucos más en la manga.
Hasta el momento, nos hemos centrado en las implicaciones de una mezcla de características de ondas para las partículas.

004.jpg
Figura 1.4. La indeterminación de la mecánica cuántica explica cómo puede escapar una partícula alfa de un núcleo atómico. Puede «tomar prestada» una pequeña cantidad de energía de la indeterminación para escalar hasta el borde del cráter y deslizarse por la ladera externa, liberando la energía durante el escape; o, visto de otro modo, la indeterminación de su posición implica que puede aparecer al otro lado de la barrera, como si hubiera hecho un túnel a través de la colina y luego bajara a niveles de menor energía.

¿Qué ocurre con nuestra comprensión de las ondas, y especialmente de la luz, cuando las tratamos como partículas? Un ejemplo ayudará a resaltar tipo de problemas con que topan los físicos. Existen unos materiales llamados polarizadores que sólo permiten que la luz los atraviese si las ondas vibran en una dirección determinada. Algunas gafas de sol funcionan así. Como la luz del Sol contiene ondas que vibran en todas las direcciones, las gafas que sólo dejen pasar algunas de las ondas reducirán el deslumbre. Se denomina luz «polarizada» a la que haya atravesado uno de estos filtros, de manera que todas sus ondas vibren en el mismo plano, por ejemplo de arriba abajo, si es así como se ha dispuesto el filtro polarizador. Si estas ondas toparan con otro filtro polarizador dispuesto exactamente a 90º con respecto a su propio plano de polarización, no podrían atravesarlo. Pero si el segundo plano se alinea a un ángulo menor de 90º con respecto al plano de polarización de la luz, parte de ésta lo atraviesa. La fracción que lo atraviesa depende del ángulo; cuando éste es de 45º, la fracción de la energía de la luz que atraviesa el segundo polarizador es exactamente la mitad, y la luz resultante tiene ondas polarizadas a 45º con respecto a la luz que atraviesa el primer filtro.
Las ecuaciones de Maxwell pueden explicar todo esto. Un polarizador dispuesto a 45º elimina la mitad de la energía de la onda; un polarizador dispuesto en un ángulo recto elimina toda la energía. Pero ¿qué les ocurre a cada uno de los fotones cuando alcanzan el polarizador? No se puede partir un fotón en dos mitades. Es la unidad básica, fundamental, de energía. Por consiguiente, cuando un haz de luz atraviesa un polarizador, la mitad de los fotones lo atraviesan y la mitad no. Pero ¿cómo son seleccionados? Al azar, según las leyes estadísticas de la probabilidad. En este ejemplo, cuando un fotón alcanza el polarizador, existe una probabilidad de exactamente el 50 por 100 de que lo atraviese o quede retenido. Este valor cambia con el ángulo del polarizador, pero el principio no. El polarizador selecciona fotones por puro azar. Y este ejemplo no es más que una demostración de lo que ocurre en el mundo cuántico. Cada vez que las partículas subatómicas participan en interacciones, el resultado depende del azar. Puede ser que un resultado en particular sea muy probable, o puede que la probabilidad sea tan solo del 50 por 100, como cuando se tira una moneda. En cualquier caso, por bien que las probabilidades vengan clara y precisamente determinadas por las leyes de la física cuántica, no existe certidumbre en el mundo cuántico.
Es precisamente esta característica de la física cuántica la que motivó el rechazo de Albert Einstein, que expresó con su famoso comentario sobre Dios: «que Él hubiera elegido jugar a los dados con el mundo... es algo que no puedo creer ni por un momento» (que a menudo se parafrasea como «no puedo creer que Dios juegue a los dados»), Pero toda evidencia indica que Dios realmente juega a los dados. Cada nuevo experimento confirma que la interpretación cuántica es correcta. Cuando realizamos un experimento en el que, por ejemplo, se necesite medir la posición de un electrón, es imposible saber con precisión qué ocurrirá a continuación. En este simple caso podremos decir, quizás, que existe una cierta probabilidad de que, cuando volvamos a observarlo, el electrón se haya desplazado del punto A al punto B, una probabilidad diferente de que se encuentre en el punto C, etcétera. En principio, podemos calcular todas estas probabilidades, y puede ser que la probabilidad de que el electrón vaya del punto A al B sea mucho más que 99 por 100. Pero nunca tenemos la certeza absoluta de que vaya a ocurrir así. Un día cualquiera, al volver a realizar el familiar experimento en el que el electrón se desplaza de A a B, puede ser que, por azar, aparezca en el punto C, D o Z.
En nuestro mundo cotidiano, estamos a salvo de las posibilidades más extrañas gracias al ingente número de partículas que intervienen en cualquier proceso. Para que funcione mi procesador de texto es necesario que circulen por el circuito billones de electrones. Puede ser que algún que otro inconformista ande saltando alegremente del punto A al D, en lugar de ir al punto B, pero la gran mayoría hacen lo que deben, por lo que a mí respecta. Salvo que uno tenga inclinación por la filosofía, no hay razón para preocuparse por los aspectos de azar e indeterminación de la física cuántica en el curso de nuestros quehaceres. Aun cuando a uno le interese la metafísica, como es mi caso, es posible usar un ordenador sin miedo real a que, de repente, todos los electrones dejen de obedecer órdenes. Pero los aspectos más extraños de la física cuántica cobran una tremenda importancia cuando se trata del mundo subatómico. Ya sólo nos resta familiarizarnos con un concepto fundamental más, y con unos pocos manjares extravagantes de la gastronomía cuántica, antes de poder, por fin, abordar aquellos rompecabezas.

§. Integrales de trayectoria y una pluralidad de mundos
La diferencia fundamental entre la mecánica cuántica y la mecánica clásica (newtoniana) se ve muy claramente cuando se examina con atención cómo pasa realmente una partícula, por ejemplo un electrón, de un punto (A) a otro (B). En la interpretación clásica, una partícula en el punto A posee una velocidad y se desplaza en un sentido bien definido. En tanto actúen sobre ella fuerzas externas, se desplazará siguiendo una trayectoria perfectamente determinada que, en nuestro ejemplo, pasa por o acaba en el punto B. La interpretación mecánico-cuántica es diferente. No podemos conocer simultáneamente, ni siquiera en principio, tanto la posición como el momento de una partícula. Existe una indeterminación inherente acerca del sentido del desplazamiento de la partícula, de modo que si la partícula sale del punto A y luego la detectamos en el punto B no hay manera de conocer exactamente cómo fue de A a B, salvo que se observe durante todo el camino.
Richard Feynman, Premio Nobel de Física del Instituto de Tecnología de California, aplicó esta interpretación mecánico-cuántica a la historia de las partículas tal como se presenta en los diagramas de espacio-tiempo que utilizan los relativistas. Estos diagramas son gráficos en los que uno de los ejes representa el tiempo, y el otro, el espacio. Las curvas del diagrama (líneas de mundo) representan las trayectorias o historias de una partícula; muchas de éstas deben descartarse, porque implicarían desplazarse a una velocidad superior a la de la luz, pero muchas representan trayectorias válidas para el desplazamiento de una partícula desde el punto A al B. Por ejemplo, si volvemos a examinar el experimento de los dos agujeros, podemos concebir un mapa de todas las trayectorias posibles que puede seguir un electrón para desplazarse de un lado de la pantalla a un punto en concreto de la pantalla de detección, pasando por cualquiera de los dos agujeros. Algunas de las trayectorias son simples y directas; otras zigzaguean por el camino. Los mapas de Feynman también incluyen el tiempo, y algunas de las trayectorias corresponden a desplazamientos rápidos, y otras, a desplazamientos lentos. Pero cada una de las trayectorias, directa o tortuosa, rápida o lenta, lleva asociada una probabilidad definida (o, en rigor, una «amplitud de probabilidad»), que puede calcularse. Estas amplitudes se miden en términos de una cantidad llamada «acción», que es energía x tiempo, y que resulta ser la unidad en que se mide la constante de Planck, h.

005.jpg
Figura 1.5. La física clásica (newtoniana) postula que una partícula sigue una trayectoria determinada del punto A al B. Pero de acuerdo con la versión de la mecánica cuántica de Richard Feynman, el «sumatorio de historias», es preciso calcular la aportación de todas y cada una de las trayectorias posibles y luego sumarlas. Conocida también como técnica de la «integral de trayectorias», explica, entre otras cosas, que un único electrón (o un único fotón) pueda atravesar a la vez los dos agujeros del experimento de la doble rendija (véase la figura 1.2) e interferir consigo mismo.

Las probabilidades de las líneas de mundo no son todas «sincrónicas» y, como las amplitudes de las ondas en un estanque, pueden interferir entre sí para reforzar una trayectoria y cancelar la amplitud de otras. No es muy diferente de lo que ocurre con las ondas en un paquete de ondas, que se cancelan en todos lados salvo en una pequeña región, Δx. El trabajo de Feynman [6] demuestra que cuando se suma todas las amplitudes correspondientes a las trayectorias posibles de las partículas, la interferencia resultante equivale a eliminar todas las trayectorias, salvo aquéllas que son muy cercanas a la trayectoria de A a B que predice la mecánica clásica. Y cuando esta técnica se aplica a experimentos como el de la doble rendija, los resultados son exactamente iguales a los obtenidos con la ecuación de onda de Schrödinger.
En realidad, esta técnica sólo se ha aplicado en todo su detalle en unos pocos casos especiales, muy sencillos. Imagínese la complejidad de calcular las probabilidades de cada trayectoria posible desde el cañón de electrones hasta cada punto de la pantalla de detección. El número de trayectorias implicado es tan grande en la mayoría de los casos, que es poco o nada práctico aplicar la técnica de Feynman en su forma pura. Pero el concepto que subyace a esta técnica, y el hecho de que pueda mostrarse matemáticamente que las predicciones resultantes son idénticas a las que se obtienen mediante la versión de la mecánica cuántica de Schrödinger, es fundamentalmente importante. [7] Lo que Feynman nos dice es que, en el experimento de la doble rendija, no sólo debemos pensar que el electrón atraviesa ambos agujeros a la vez, sino que, además, sigue cada uno de los caminos posibles por los dos agujeros a la vez. La versión convencional de la mecánica cuántica postula que no existe ninguna trayectoria; en la interpretación de Feynman, es necesario tomar en cuenta todas las trayectorias.
Esta manera de describir las trayectorias de las partículas recibe la denominación de técnica de la «integral de trayectorias» (o «de caminos»), porque implica sumar todas las trayectorias posibles, o a veces, con más grandilocuencia, técnica del «sumatorio de historias». La denominación alternativa se hace eco de una concepción de las reglas de la mecánica cuántica que está lejos de ser mayoritaria en la actualidad, pero que a mí me atrae, y que discutí con detalle en mi libro En busca del gato de Schrödinger. Me refiero a la concepción de la «pluralidad de mundos», una descripción de la realidad originalmente desarrollada por Hugh Everett de la Universidad de Princeton en 1957, y que recientemente ha recibido el apoyo entusiasta de David Deutsch en Oxford. [8]
Lo que descubrió Everett es que se puede interpretar las ecuaciones, con completa validez, como si implicaran que cada vez que el Universo se confronta a una «decisión» a nivel cuántico, se divide en dos, y ambas opciones son elegidas. En un experimento en el que un electrón se desplace del punto A al B a través de una pantalla con dos agujeros, la teoría cuántica dice que, a no ser que lo observemos constantemente, es imposible saber cuál de los dos agujeros atraviesa, y que, en realidad, carece de sentido decir que lo haya hecho por alguno de ellos en concreto. Su trayectoria «real» viene dada por la suma de las dos trayectorias posibles. Pero la teoría clásica dice que existe una trayectoria definida y que debe haber atravesado solamente uno de los dos agujeros, aunque nadie estuviera observándolo.
Cada vez que observamos el electrón para ver por cuál de los dos agujeros pasa, esa indeterminación en particular se desvanece: se trata ya de un experimento diferente, uno en el que conocemos la trayectoria tomada por la partícula. Sin embargo, según nos dice Everett (o más bien sus ecuaciones), por cada observador que mira y ve cómo el electrón atraviesa uno de los agujeros, existe otro observador (en otro mundo) que mira y ve cómo atraviesa el otro agujero. Ambos son igualmente reales. O, en el caso del fotón que atraviesa el polarizador, cada vez que un fotón se confronta a una elección con la probabilidad del 50 por 10 descrita anteriormente, el Universo se divide en dos. En uno de los universos, el fotón atraviesa el filtro; en el otro universo, no lo atraviesa. Lo más extraño de esta versión de la realidad cuántica es que hace exactamente las mismas predicciones que la interpretación probabilística para los resultados observables de todos los experimentos que pueden realizarse. Esto es tanto un punto fuerte del modelo (después de todo, para que un modelo sea bueno debe concordar con todos los experimentos realizados hasta el momento) como un punto débil, pues la mayoría de teóricos argumentan con alivio que si no hace ninguna nueva predicción contrastable experimentalmente que ayude a distinguirla de la interpretación convencional, entonces no la necesitamos para nada, y podemos quedarnos con las probabilidades. Al fin y al cabo, la probabilidad nos permite retener la imagen del electrón como un punto en el espacio y el tiempo, si es que uno realmente quiere retener esta imagen.

§. ¿De la sartén al fuego?
El físico inglés Paul Davies, que trabaja en la Universidad de Adelaida, en Australia, insiste sobre este punto de vista en el libro de texto de física cuántica del que es autor. [9] «Resistid a toda costa», dice en el texto, «la tentación de concebir el electrón desmenuzado y disgregado en el espacio en ondas diminutas. El electrón en sí no es una onda: su movimiento está controlado por principios ondulatorios. Los físicos todavía conciben el electrón como un punto, por bien que la posición de ese punto en el espacio no esté bien definida». Y pasa a describir las ondas de probabilidad que determinan dónde es probable que aparezca un electrón en el instante siguiente mediante una analogía con las olas de crímenes. «Las olas de crímenes no son ondas de ninguna materia ondulatoria, sino ondas de probabilidad... las olas de crímenes, como las modas o el desempleo, pueden desplazarse (son dinámicas), pero, por supuesto, cada crimen particular sigue sucediendo en un lugar específico. Lo que se desplaza es la probabilidad abstracta».
En muchos casos, y en particular a efectos de la enseñanza física a nivel universitario, los físicos efectivamente tratan a los electrones como si fueran partículas «reales», y a las ondas asociadas a ellos, como «ondas de probabilidad» que pueden interferir entre sí, ser difractadas al atravesar pequeños agujeros y hacer todos los trucos que hacen las ondas. «Sólo la probabilidad tiene comportamiento ondulatorio», advierte Davies a sus estudiantes, «en tanto que las partículas en sí mismas siguen siendo pequeños corpúsculos, por mucho que esquivas y ocultas en la onda de probabilidad que guía su avance, qué faceta de esta dualidad onda-partícula se nos presente dependerá de la pregunta planteada». No es ésta una buena enseñanza. Uno pudiera preguntarle a Maxwell (si todavía viviera) qué pensaba acerca de la sugerencia de que las ondas de luz no son sino ondas de probabilidad que guían el movimiento de unos corpúsculos diminutos que llamamos fotones. A no dudar, su respuesta sería interesante. Por mucho que uno se esfuerce por retener la imagen de un electrón, o un protón, o la entidad que sea, como partícula, el concepto insiste en resquebrajarse.
Fijémonos, a modo de ejemplo, en el espín. Los electrones y otras partículas subatómicas poseen una propiedad que los físicos denominan espín. Es una de las propiedades fundamentales que determinan la disposición de los electrones en los átomos, entre otras cosas, y se mide en las mismas unidades que el espín (momento angular) de una peonza, o de la tierra en rotación en el espacio. Pero la analogía termina aquí. El espín de un electrón sólo puede apuntar en dos direcciones, o «arriba» o «abajo», pero nunca «hacia un lado» o en cualquier dirección intermedia. Como la energía, el espín está cuantizado. El espín de una partícula fundamental se expresa en unidades de h cruzada. En estas unidades, el espín de un electrón es 1/2, ya +1/2, ya -1/2, pero ningún otro valor. Todas las partículas que gustamos de concebir como si se tratase de partículas «reales», como los protones, los neutrones y los electrones, tienen espín fraccionario, múltiplo de -1/ 2, 3/2, 5/2, y así sucesivamente.
Todas estas partículas obedecen un conjunto de reglas estadísticas que se reúnen bajo la denominación de estadística de Fermi-Dirac, y reciben el nombre de fermiones. El fotón, que tiene espín de uno, y todas las partículas con espín entero (1, 2, 3, etcétera) obedecen un conjunto de reglas diferente, la estadística de Bose-Einstein, y se denominan bosones; por tanto, fotones y electrones son fundamentalmente diferentes.
La distinción más importante es que las partículas con espín fraccionario, como los electrones (es decir, los fermiones), son excluyentes. Siguiendo la analogía de la «escalera» de niveles de energías, esto quiere decir que en cada escalón sólo pueden hallarse dos electrones, uno con espín hacia arriba, el otro con espín hacia abajo. [10] Un tercer electrón queda excluido porque ocuparía un estado idéntico al de uno de los dos electrones ya presentes. Los fotones y el resto de partículas de espín entero (es decir, los bosones) son menos remirados. Pueden relacionarse de cualquier modo y en cualquier lugar. Además, aunque los fermiones se conservan (en conjunto, el número de fermiones del Universo se mantiene constante), los bosones son más efímeros. Podemos fabricarlos con sólo encender la luz, y se desvanecen al ser absorbidos por átomos y ceder energía.
Todo esto es bastante difícil de reconciliar con la existencia de diminutos corpúsculos «reales» guiados por ondas de probabilidad. Y se hace aún más difícil cuando los físicos nos informan de otras propiedades peculiares del espín de las partículas fundamentales. Por ejemplo, si imaginamos el electrón como una partícula en rotación, tiene que hacer no uno, sino dos giros de 360º para retornar al punto de inicio. Y aunque acabo de decir que, en conjunto, el número de fermiones del Universo se mantiene constante, esa limitación no obsta para que puedan constituirse pares de partículas y antipartículas, siempre que se disponga de la energía necesaria para conseguirlo. Un par electrón-positrón, por ejemplo, cuenta cero en el inventario total de fermiones del Universo. La partícula y la antipartícula se cancelan mutuamente. Si se dispone de la energía, es posible fabricar pares de electrones y positrones, tal como ocurrió durante el Big Bang. ¿Dónde puede conseguirse la energía necesaria en la actualidad? La respuesta mundana es haciendo chocar partículas en aceleradores gigantes, como el del CERN. Pero podemos ser más imaginativos. Los límites impuestos por el principio de indeterminación permiten, si se hace con rapidez, «tomar prestada» la energía suficiente de la relación de indeterminación entre partículas, siempre y cuando éstas se desvanezcan cuando se acabe su tiempo.
Tomemos el caso de los electrones. Si la masa de un electrón es m, entonces la energía necesaria para hacer un par electrón-positrón será 2me2. Esto equivale a un millón de electronvolts (1 MeV), en las unidades que suelen usar los físicos de partículas. Las leyes de la física permiten que un par de partículas como éste aparezca de la nada del vacío durante una diminuta fracción de segundo (la constante de Planck dividida por 1 MeV), y luego se aniquilen entre sí y desaparezcan. Estos pares de partículas se llaman partículas «virtuales». Un par puede existir únicamente durante un periodo de tiempo extremadamente corto, pero el vacío es un hervidero de pares de partículas virtuales que constantemente se forman, se destruyen, y otros pares vienen a reemplazarlas. Al menos, así conciben el vacío los físicos de partículas. Además, la existencia de partículas virtuales tiene un efecto directo sobre las ecuaciones de la física de partículas. Si no se incluyen las partículas virtuales, las ecuaciones no predicen correctamente las interacciones entre las partículas cargadas. Si se incluyen los efectos debidos a las partículas virtuales, las predicciones son correctas.
Entonces, ¿hasta qué punto son «reales» las partículas del Universo? Cuando Paul Davies se dirige a sus colegas de investigación, y no a los estudiantes universitarios, toma una posición diferente. En su aportación a un libro publicado para conmemorar el sexagésimo cumpleaños del físico Bryce DeWitt (uno de los defensores, por cierto, de la interpretación de múltiples mundos de la física cuántica), Davies presentó un ensayo con un título provocativo: «Las partículas no existen». [11] El meollo del argumento que expuso, y que concuerda con el punto de vista de muchos teóricos, emana del hecho de que no podemos ver, tocar o sentir las partículas fundamentales como los electrones. Nos vemos limitados a; realizar experimentos, registrar observaciones y establecer conclusiones sobre lo que ocurre de acuerdo con lo que, observamos y nuestras experiencias cotidianas. Es natural que intentemos imponer conceptos de nuestro mundo cotidiano, como «onda» o «partícula», al mundo subatómico; pero en realidad todo lo que conocemos acerca del mundo subatómico es que si lo estimulamos de un cierto modo, obtenemos una cierta respuesta. «Lo que pretendo poner en tela a de juicio», dice Davies al principio de su ensayo, «es lo que pudiéramos calificar de realismo ingenuo». Y concluye: «El concepto de partícula no es más que un modelo idealizado de una cierta utilidad en el espacio plano de la teoría cuántica de campos».
El problema es que, por el momento, no disponemos de nada mejor para reemplazarlo. Pero me parece que es con esta nota de cautela desde la vanguardia de la investigación actual, y no arropados por una manta de reconfortantes ideas sobre pequeñas partículas guiadas por ondas de probabilidad, que debemos adentrarnos en el mundo de las partículas. Durante los últimos cincuenta años, los físicos han revelado un fascinante mundo subatómico poblado por toda suerte de extraños objetos que, por falta de mejor nombre, llamamos partículas. Qué son en realidad, lo desconocemos. Las mejores teorías que poseemos explican los resultados de experimentos pasados mediante interacciones entre estas bestias míticas, y predicen los resultados de nuevos experimentos a través de las interacciones postuladas entre estas «partículas». Mediante la observación del mundo de las interacciones de alta energía, los físicos elaboran reglas para predecir el resultado del siguiente experimento. Las buenas teorías permiten que nos «salga» el cálculo de cómo se originó el Universo y luego explotó hasta llegar a su forma actual. Pero eso no implica que lleven la verdad última, o que «realmente existan» pequeños corpúsculos que se mueven agitadamente en el interior del átomo. Cualesquiera verdades que existan en estas teorías se encuentran en su expresión matemática; el concepto de partícula no es más que una muleta en la que pueden apoyarse los simples mortales en su esfuerzo por comprender las leyes matemáticas. Y lo que esas leyes matemáticas describen son campos de fuerza, o espacio- tiempo curvado y vuelto a curvar sobre sí mismo con fabulosa complejidad, y una «realidad» que se desvanece en una niebla de partículas virtuales e indeterminaciones cuánticas cada vez que se intenta examinar de cerca.
Los conceptos de partícula y onda son lo mejor que tenemos y la manera más simple de describir los grandes progresos de la física moderna en nuestra comprensión del Universo es en términos de partículas. Pero no son sino metáforas de algo que no podemos entender o comprender cabalmente y debo disculparme por adelantado por verme obligado a asistirme de ellas. Me siento como un ciego que intentara explicarle el concepto de color a otro ciego después de haber elaborado una teoría del color basada en el tacto. Lo sorprendente no es que nuestras teorías sean defectuosas, sino que funcionen en absoluto.

Capítulo 2
Partículas y campos

A principios de los años treinta parecía que, dejando aparte el misterio de cómo interpretar las probabilidades y la indeterminación, los físicos tenían una sólida comprensión de cómo está constituido el mundo. Existían cuatro partículas (electrón, protón, neutrón y fotón) y dos fuerzas fundamentales (gravedad y electromagnetismo) que se conocían desde hacía tiempo. Conjuntamente, los protones y los neutrones constituían el núcleo de los átomos, y los electrones ocupaban un volumen más extenso alrededor de este núcleo. Como los protones llevan carga positiva pero los electrones llevan carga negativa, los átomos son eléctricamente neutros, y la disposición física cuántica de los electrones en diferentes estados de energía, determinada por su naturaleza excluyente, confería a cada átomo sus propiedades químicas únicas.
La solidez de la teoría cuántica se hizo meridianamente clara cuando los físicos investigaron el tamaño de los átomos de acuerdo con el principio de indeterminación. Un átomo tiene un diámetro de una cienmillonésima (10-8) de centímetro, y la masa de un electrón es poco más de 9×10-28 g. La energía que posee un electrón cuando se halla ligado a un átomo se puede calcular tratando al electrón como una partícula en órbita alrededor del núcleo, de acuerdo con la versión primera de la física cuántica de Bohr. En esencia, se trata del mismo aparato matemático que se utiliza para calcular la energía de los planetas en órbita alrededor del Sol. Estos ingenuos cálculos arrojan una velocidad para un electrón típico «en su órbita» de unos 108 cm por segundo. Conjuntamente, estas cifras dan un momento aproximado para un electrón típico en un átomo de unos 10-20 g cm por segundo, a lo sumo un poco menos. Si el momento del electrón fuera algo mayor, escaparía del átomo: las fuerzas eléctricas entre el electrón y núcleo no serían lo bastante fuertes para retener a un electrón tan energético. Por lo tanto, la indeterminación del momento Δp, debe ser algo inferior a 10-20 g cm por segundo. Si se multiplica esta cifra por la indeterminación de la posición electrón, algo menor que 10-8 cm, se obtiene un Δp Δx unas pocas veces 10-27, un valor muy cercano a h/2π . Es la relación de indeterminación de Heisenberg lo que determina tamaño mínimo de los átomos. Si los átomos fueran más pequeños, la indeterminación de las posiciones de los electrones sería menor, habría más indeterminación en su momento, y por tanto en su energía, y algunos electrones dispondrían de suficiente energía para escapar del átomo tal como la partícula alfa escapa del núcleo por un «túnel». La física cuántica puede explicar, o predecir, el tamaño de los propios átomos, algo que, antes del advenimiento de la física cuántica, no quedaba más remedio que aceptar que era como era «porque sí».
Los protones y los neutrones tienen mucha más masa que los electrones, así que pueden tener una mayor indeterminación en el momento (m×v) aunque su velocidad sea menor. Como tienen mayor momento, es posible confinarlos en un volumen menor (Δp) y todavía mantener el producto de indeterminaciones (Δp ×Δx) superior a h cruzada. Por eso los núcleos ocupan un espacio mucho más pequeño que los electrones y, nuevamente, la indeterminación cuántica predice correctamente sus tamaños.
Así pues, a principios de los años treinta, la naturaleza parecía ser bastante simple, y parecía que los físicos habían hallado las piezas de construcción fundamentales del edificio de la naturaleza. Pero en unos pocos años el mundo comenzó a parecer un lugar mucho más complejo, y en unos veinte años los físicos habían identificado tantas «partículas elementales» como elementos químicos hay en la tabla periódica. Hizo falta un enfoque revolucionario para poner orden en esta proliferación de partículas y explicarlas en función de unas pocas unidades aún más elementales. Así como el núcleo atómico concibe compuesto de protones y neutrones, los protones y los neutrones (y otras partículas fundamentales) se pueden concebir, para quienes deseen pensar en términos de partículas, como si estuvieran compuestos de quarks. Pero el propio concepto de partícula ha sufrido también un cambio drástico durante los últimos cincuenta años. De igual modo que los fotones se ven como una manifestación de un campo electromagnético, los electrones (y otras partículas) se pueden concebir como manifestaciones de sus propios campos. En vez de una variedad de campos y partículas que interaccionan entre sí, puede imaginarse el Universo como si estuviera compuesto solamente de campos en continua interacción; las partículas representarían entonces los cuantos de cada campo, manifestados de acuerdo con las reglas de la dualidad onda-partícula y el principio de indeterminación. De modo que, antes de examinar los progresos más recientes y cómo ha cambiado durante los últimos cincuenta años la concepción del mundo de los físicos, parece apropiado examinar con más detalle el concepto de campo en la física.

§. Teoría de campos
La idea básica del campo como el medio por el cual se transmite una fuerza eléctrica se debe a Michael Faraday, nacido en Newington, Inglaterra, en 1791. La carrera de Faraday es tan notable que merece una breve digresión para bosquejar cómo llegó a convertirse en uno de los grandes científicos y divulgadores de la era victoriana.
Como su padre era un herrero pobre, Michael Faraday sólo recibió la educación básica al alcance de los pobres de aquella época. A los trece años dejó la escuela para convertirse en aprendiz de encuadernador. Pero al menos había aprendido a leer y tenía un apetito voraz de conocimiento, de modo que se dedicaba a leer los libros que tenía que encuadernar. A los catorce años de edad quedó fascinado por un artículo de la Encyclopaedia Britannica. Leyó ávidamente sobre electricidad y química, y realizó sus propios experimentos dentro de los límites que permitían sus recursos. En 1810, Faraday sí hizo miembro de la City Philosophical Society, donde asistía a conferencias sobre física y química durante su tiempo libre; y en 1812, a los veintidós años de edad, su vida dio un giro tras asistir a una serie de conferencias en la Royal Institution dadas por Humphry Davy, un gran químico e inventor de las lámpara de seguridad utilizada por los mineros antes del advenimiento de la electricidad.
Faraday quedó cautivado por las conferencias de Davy; de las que tomó notas detalladas que encuadernó él mismo para conservarlas permanentemente. [12] Deseaba desesperadamente convertirse en un científico a tiempo completo y escribió al presidente de la Royal Society para solicitar consejo y ayuda, pero no recibió respuesta. Cuando su aprendizaje finalizó en 1812, Faraday se resignó a vivir como encuadernador. Pero lo rescató de este destino un accidente que dejó a Davy temporalmente ciego tras una explosión química. Pidió entonces a su ávido discípulo, Faraday, que trabajara para él, como ayudante hasta que recuperara la vista. Faraday desempeñó su trabajo satisfactoriamente y, cuando Davy recuperó la vista, le envió una copia encuadernada de sus notas de las conferencias. Davy quedó tan impresionado que cuando, unos meses más tarde, en 1813, necesitó un ayudante en la Royal Institution, le ofreció a Faraday la plaza. Faraday no dejó escapar la ocasión, aunque fuera con el modesto sueldo de una guinea a la semana, menos de lo que ganaba como encuadernador.
Faraday pasó el resto de su carrera en la Royal Institution, de la que llegó a ser director de laboratorio en 1825 y catedrático de química en 1833. Fue un gran experimentador y divulgador, más que un matemático, y un conferenciante famoso y auténticamente popular, fundador de las conferencias de Navidades de la Royal Institution, que todavía se celebran en la actualidad. A su muerte, en 1867, era miembro de la Royal Society y estaba reconocido como uno de los más grandes científicos de su época. Pero era también modesto: rechazó la oferta de ser investido sir y, en dos ocasiones, rehusó la presidencia de la Royal Society. Y, en sus intentos por explicar lo que pasaba cuando interaccionaban fuerzas eléctricas y magnéticas, se le ocurrió la idea —lo que ahora llamaríamos modelo— de una «línea de fuerza», que Maxwell luego desarrolló en la primera teoría de campos.

006.jpg
Figura 2.1. El concepto de líneas de fuerza, inventado por Michael Faraday, es útil para hacerse una imagen de cómo se atraen los polos magnéticos opuestos y se repelen los iguales.

La idea puede entenderse simplemente en términos de las fuerzas que actúan entre cargas eléctricas. Las cargas iguales se repelen (positivo repele a positivo y negativo repele a negativo), mientras que las cargas opuestas se atraen. Las líneas de fuerza de Faraday pueden imaginarse como líneas matemáticas que se extendieran por todo el Universo a partir de cada partícula cargada. Cada línea comienza en una partícula con un tipo de carga, y termina en una partícula de carga opuesta. Como si fueran gomas elásticas estiradas, tienden a atraer a las cargas opuestas; pero como un muelle apretado, los haces apiñados de líneas de fuerza mantienen apartadas a las cargas iguales. Este concepto fue tremendamente útil para hacerse una imagen de lo que ocurría y, además, las líneas de fuerza parecían tener una cierta entidad física: si se coloca una minúscula partícula de «prueba» con una pequeña carga positiva entre dos objetos grandes, estáticos y de carga opuesta, la partícula de prueba se desplaza a lo largo de la línea de menor resistencia, que, dejando de lado otras fuerzas como la gravedad, coincidirá con una de las líneas de fuerza de Faraday.
El conjunto de líneas de fuerza que llenan el espacio constituye el campo eléctrico. En la teoría de campos clásica de Faraday y Maxwell, el campo es continuo: no hay «brechas» entre líneas de fuerza ni roturas en las propias líneas, de este modo, la analogía más apropiada sería la de un método elástico que llenara el Universo y transmitiera las fuerzas eléctricas y magnéticas. Éste es el concepto de «éter». A los científicos Victorianos, versados en la naturaleza de los objetos mecánicos y el triunfo de la ingeniería, el concepto de éter les parecía natural. Pero con el desarrollo de la teoría de la relatividad primero, y de la teoría cuántica después, a principios del siglo XX, esta visión mecanicista del Universo hubo de abandonarse. Un campo es un campo, no una materia sólida elástica, y es imposible comprenderlo mediante los conceptos cotidianos. Si uno se para a pensarlo, la «explicación» más usual de lo que es un campo nos lleva a la misma conclusión.
Antes de que se desarrollara la teoría de campos, daba la impresión de que las partículas cargadas o los imanes ejercieran su efecto a través de una acción que saltara el espacio entre los objetos: una acción a distancia. La teoría de campos, en cambio, dice que la acción es un fenómeno local. Cada partícula interactúa con el campo, y el campo interactúa con cada partícula, de un modo que depende de todas las otras interacciones entre el campo y sus partículas. La analogía comúnmente usada es la del muelle. Si se estira uno de los extremos de un muelle, éste se encoge. El campo sería algo parecido. Puede estirarse y comprimirse, y conecta dos partículas de la misma manera que la materia del muelle conecta sus dos extremos. La analogía parece familiar y de sentido común. Pero ¿qué es la materia del muelle? Es una colección de átomos. Y ¿cómo interactúan los átomos? Sobre todo mediante fuerzas electromagnéticas. Cuando se estira el muelle, los átomos se apartan; cuando se comprime, se acercan. Lo que dice la analogía es que las extensiones y compresiones de los campos electromagnéticos son como acercar o separar átomos; en otras palabras, ¡es como extender o comprimir el campo electromagnético! Quizá sea mejor conformarse con las ecuaciones que describen cómo interactúan las partículas y los campos, y dejarse de intentos serios de construir una imagen mental de lo que ocurre.
Las ecuaciones en cuestión son, en nuestro caso, las ecuaciones de Maxwell. Debemos a Maxwell la primera teoría de campos completa, es decir, que se aplica tanto a la electricidad como al magnetismo, y que postula que el magnetismo es equivalente a electricidad en movimiento (dinámica). Es la primera teoría clásica (es decir, no cuántica) de la electrodinámica. La teoría de la relatividad de Einstein describe la otra fuerza familiar en nuestra experiencia cotidiana y es asimismo una teoría de campos clásica (en el mismo sentido), en este caso, de la gravedad. En la visión antigua, clásica, del mundo había dos componentes principales, los objetos materiales y los campos que los enlazaban.
Pero en la actualidad el campo es el concepto fundamental y último de la física, porque la física cuántica nos dice que las partículas (los objetos materiales) no son sino manifestaciones de campos. Una de las primeras grandes sorpresas de la física cuántica fue darse cuenta de que una partícula, por ejemplo un electrón, debía tratarse como una onda. En esta Primera aplicación de los principios cuánticos aprendemos a tratar las ondas de materia como campos, de tal modo que a cada tipo de partícula le corresponde un campo. Por ejemplo, existe un campo general de materia que llena el Universo que se describe mediante la ecuación de onda de un electrón [13]. Sin embargo, como muestra el descubrimiento de que las onda electromagnéticas deben tratarse también como partículas, un campo puede ser directamente responsable de la existencia de partículas. De hecho, en el mundo cuántico un campo debe generar partículas. La física cuántica dice que la energía de un campo no puede cambiar suavemente, de forma continua, de un lugar a otro, como pretendía la descripción clásica de campo. La energía se presenta en fracciones discretas, o cuantos, y todos los campos de materia deben tener sus propios cuantos, cada uno con su cantidad discreta de energía o masa. Las partículas son trozos energéticos del campo, confinados a una cierta región por el principio de incertidumbre. Un fotón es un cuanto del campo electromagnético. Pero, del mismo modo, si se aplican una segunda vez los principios cuántico a un campo material de electrones, se recupera la idea del electrón como partícula, como cuanto del campo material de electrones. Esta interpretación de las partículas como «cuantos de campo» se conoce como segunda cuantización. Nos dice que en el Universo no existe nada más que campos cuánticos. Por consiguiente, cuanto mejor entendamos los campos cuánticos, mejor comprenderemos el Universo.
Los campos se presentan en diferentes variedades. Por ejemplo, algunos tienen un sentido de la dirección inherente, y se denominan campos vectoriales, mientras que otros no lo poseen. Un campo que no sea inherentemente direccional recibe el nombre de campo escalar. Un ejemplo es el campo que representa la temperatura en cada punto de una habitación Obviamente, el campo llena la habitación. Dondequiera que coloquemos el termómetro dentro de la habitación, registrará una temperatura, menor quizá cerca de la puerta a causa d una comente de aire frío, y mayor cerca del radiador. Pero termómetro no se ve impulsado, en su interacción con el campo, hacia el radiador, o en sentido contrario. Este campo tiene magnitud, pero no dirección. El campo eléctrico, en cambio, es vectorial. Podemos medir la intensidad del campo en cada punto, pero también su dirección. Si dejamos caer un pequeño objeto cargado positivamente en el campo, se desplazará «siguiendo una línea de fuerza», hacia el polo negativo, apartándose del polo positivo. [14]
Existe otra distinción importante que se aplica a los campos cuánticos. Aunque hasta el momento me he limitado a hablar de los electrones y fotones y sus campos respectivos de modo aproximadamente equivalente, existe una diferencia fundamental entre ellos. Los electrones son miembros de la familia de fermiones, todos los cuales poseen un espín que es múltiplo de ½, y ni se crean ni se destruyen en el Universo actual, salvo en pares de materia-antimateria. Los fotones, en cambio, son bosones, y todos los bosones tienen espín cero o entero, pueden ser creados o destruidos, y no son excluyentes. Por consiguiente, en la naturaleza existen dos tipos fundamentalmente diferentes de campos, uno fermiónico y otro bosónico. Es esta diferencia, al parecer, lo que explica la distinción entre lo que solíamos ver como partículas y lo que solíamos concebir como fuerzas.
Cuando las partículas interactúan, lo hacen, según la concepción clásica, porque existe una fuerza entre ellas. Esta fuerza puede expresarse como campo, y este campo, a su vez, puede expresarse como partículas por medio de la segunda cuantización. Cuando dos electrones se acercan y se repelen es, según la nueva concepción, porque han intercambiado uno o más fotones. El fotón energético es una manifestación del campo eléctrico alrededor de uno de los electrones. Toma prestada energía del principio de indeterminación, viene a existir, pasa zumbando hasta el segundo electrón y lo desvía antes de desaparecer. El primer electrón retrocede cuando el fotón lo abandona, y el resultado conjunto es que los electrones se repelen. [15] Uno de los tipos de campo, el correspondiente a fermiones, produce el mundo material; el otro tipo, el correspondiente a los bosones, produce las interacciones que mantienen el mundo material unido y que, a veces, desgajan pedazos de él.
El campo electromagnético alrededor de un electrón puede crear fotones virtuales, siempre y cuando sean efímeros y no se desplacen muy lejos. Como regla general, derivada del principio de indeterminación, un fotón virtual sólo puede desplazarse una distancia inferior a la mitad de su longitud de onda desde el electrón que lo genera antes de tener que dar la vuelta y ser reabsorbido. Una longitud de onda mayor corresponde a una energía menor, de modo que los fotones virtuales menos energéticos se pueden alejar más del electrón. El resultado es una concepción cuántica del electrón como una región cargada inmersa en un océano de fotones virtuales que son más energéticos cuanto más nos acerquemos al propio electrón.
Los fotones virtuales, así como los fotones ordinarios, también pueden crear electrones en forma de pares electrón-positrón virtuales (ver más abajo), siempre y cuando sean también efímeros y existan sólo dentro de los confines marcados por el principio de indeterminación. Y estos electrones; tendrán sus propias nubes de fotones virtuales, y así ad infinitum. Esta imagen del bullicio de actividad alrededor de un electrón, o del asociado a la repulsión, o a la dispersión, de un electrón por otro, se aleja mucho de la imagen de tranquilidad que la mayoría de la gente asocia a la palabra vacío. Pero al aplicar de este modo los principios de la teoría cuántica al campo electromagnético, los físicos han podido desarrollar una teoría de electrodinámica cuántica, y concebir un vacío vivo, y describir las interacciones entre electrones, fotones y campo electromagnético en términos cuánticos. La teoría, que se conoce por las siglas EDC, es uno de los grandes triunfos de la ciencia moderna, y ha gozado de tanto éxito en la descripción de las interacciones electromagnéticas que se la considera el arquetipo de todas las teorías cuánticas de campos y se usa como molde para la construcción de nuevas teorías para explicar otras interacciones. Pero se resiente de una tacha crucial, relacionada con la presencia de una nube de partículas virtuales alrededor de cada electrón.

007.jpg
Figura 2.2. Diagrama clásico de Feynman de las interacciones entre partículas, en este caso, dos electrones que interaccionan mediante el intercambio de un fotón.

La física cuántica nos dice que un electrón está rodeado de una nube de fotones virtuales, y que cualquiera de estos fotones, o todos ellos, pueden convertirse en pares electrón-positrón, o cualquier otro par de partículas virtuales, antes de ser reabsorbidos por el electrón. Constantemente se está tomando prestada energía del campo y, de acuerdo con la relación de indeterminación, literalmente sin que exista un límite Para la complejidad de los bucles de fotones virtuales y pares electrón-positrón virtuales que se producen. Cuando se aplica con atención escrupulosa la física cuántica para calcular cuánta energía participa en estos bucles de partículas virtuales, resulta que no existe un límite: la energía de los electrones más la nube de partículas virtuales a su alrededor se hace infinita, y como el electrón y su nube son inseparables, pareciera a primera vista que los electrones tuvieran masa infinita.

008.jpg
Figura 2.3. Las correcciones cuánticas a las leyes de la electrodinámica se deben a que las interacciones reales vienen descritas por diagrama más complicados, en los que los bucles representan los efectos de partículas virtuales. Éstas son las situaciones que generan infinitos que sólo se pueden eliminar mediante el poco satisfactorio truco de la renormalización.

La manera de salvar este obstáculo parece un disparate, pero funciona. Matemáticamente, la masa infinita de la nube que envuelve a los electrones queda compensada si se adopta la suposición de que un electrón «desnudo» (si algo así pudiera existir) tiene una masa infinita negativa. Con unos hábiles malabarismos matemáticos, los dos infinitos se eliminan, y el cálculo se resuelve en un valor de masa correspondiente a la medida para un electrón. Este truco se llama «renormalización». Pero no es satisfactorio por dos razones. En primer lugar, requiere la división de los dos lados de una ecuación matemática por infinito, algo que, como todos correctamente aprendimos en la escuela, está prohibido. En segundo lugar, aun con el truco no se consigue predecir la masa «correcta» del electrón. La renormalización produce una masa finita, pero que puede ser cualquier masa finita; los físicos tienen que escoger la correcta e introducirla manualmente. Sólo pueden resolver la ecuación porque saben la respuesta de antemano. No obstante, este método es útil porque basta con introducir este valor crítico para que las ecuaciones predigan con bastante exactitud muchos otros parámetros importantes; ésta es la razón por la que muchos físicos se han contentado con utilizar la renormalización.
La EDC, incluida la renormalización, explica tan bien el comportamiento de las partículas cargadas y de los campos electromagnéticos dentro del marco de la física cuántica que la mayoría de físicos prefieren no cavilar demasiado sobre estos problemas. Pero si pudieran concebir una teoría tal que los infinitos se eliminaran por sí mismos, sin necesidad de renormalización, su alegría no tendría límites. La electrodinámica cuántica es la mejor y más completa teoría cuántica de campos de que disponemos, pero dista de ser perfecta. La búsqueda de una teoría perfecta que explique todas las intenciones del Universo y la propia existencia del Universo comienza a dar fruto. Pero antes de degustar los primeros frutos el éxito es necesario que pongamos al día el inventario de la auténtica plétora de «nuevas» partículas descubiertas durante los últimos sesenta años, así como de las dos nuevas «fuerzas» necesarias para completar el cómputo de campos cuánticos.

§. Dos nuevas fuerzas y un zoo de partículas
A principios del siglo XX, los físicos sabían de la existencia de 92 elementos químicos. Se sabía que a cada elemento correspondía un tipo de átomo diferente, y se consideraba a estos 92 elementos los bloques fundamentales de construcción de la naturaleza —por bien que la necesidad de tantos bloques «fundamentales» pareciera un despilfarro de la naturaleza. Gracias al trabajo pionero del científico siberiano Dmitri Mendeleev (1834-1907), hacia la segunda mitad del siglo XIX los químicos habían comenzado a comprender las relaciones entre átomos con diferentes pesos atómicos. Mendeleev mostró que cuando se dispone los elementos químicos en una lista por orden de peso atómico, comenzando por el hidrógeno, los elementos con propiedades químicas semejantes aparecen a intervalos regulares en la tabla periódica resultante. Este ordenamiento de los elementos según sus propiedades químicas dejaba algunos vacíos en la tabla y, aun sin saber por qué o cómo se producía este patrón periódico, Mendeleev pudo predecir el descubrimiento de nuevos elementos para rellenar los vacíos y predecir, además, su peso atómico y propiedades químicas. Sus predicciones hallaron pronto confirmación, letra por letra, con el descubrimiento de «nuevos» elementos.
Cuando los físicos consiguieron partir el átomo y revelar su estructura y funcionamiento internos, hallaron que contenían tres tipos de partículas: electrones, protones y neutrones. De la mano de Niels Bohr, la física cuántica había ofrecido una explicación de las propiedades de los elementos químicos, y la estructura interna del átomo que subyace a la tabla periódica de Mendeleev. La tabla periódica se dio a conocer primero en un artículo publicado por Mendeleev en 1869; la explicación de la tabla en términos de física cuántica por Niels Bohr data sólo de los años veinte del siguiente siglo, menos de sesenta años después. Pero al tiempo que se comenzaba a entender la naturaleza de los átomos sobre la base de las partículas subatómicas, la naturaleza de las partículas subatómicas comenzó a verse menos clara.
La fuerza electromagnética, en su forma cuántica, era enteramente adecuada para explicar el comportamiento de los electrones, de carga negativa, en su relación con los protones, de carga positiva, del núcleo. Pero ¿cómo podían mantenerse juntos en el núcleo, sin repelerse, varios protones con carga positiva? Rutherford, nacido en 1871, había establecido en 1910 que toda la carga positiva del átomo se hallaba concentrada en un minúsculo núcleo. Infirió también, a principios de los años veinte, que debía existir una contrapartida neutra del protón, a la que denominó neutrón, con la misma masa que el protón pero sin carga eléctrica.
La presencia de neutrones era necesaria para explicar por qué algunos átomos poseían características semejantes a pesar de tener peso diferente. Las propiedades químicas de un elemento dependen del número de electrones que envuelven el átomo, que es siempre igual al número de protones del núcleo. Por consiguiente, se puede cambiar el peso de un átomo sin modificar su química añadiendo o quitando partículas eléctricamente neutras (neutrones) del núcleo. Los átomos con química semejante pero peso diferente se denominan isótopos del elemento en cuestión. James Chadwick confirmó la existencia de neutrones en una serie de experimentos en 1932, y recibió el Premio Nobel por su trabajo en 1935.
El breve lapso de tiempo (tres años) transcurrido desde que Chadwick descubrió los neutrones hasta que recibió el Premio Nobel marca la efímera época en que la física de las Partículas subatómicas parecía simple y que hubiera tan sólo cuatro tipos de partículas elementales. La presencia de neutrones ayudaba a comprender la estabilidad del núcleo, puesto que los protones positivamente cargados podían, hasta cierto punto, zafarse tras los neutrones. Pero no bastaba para explicar la estabilidad del núcleo, y el reconocimiento de esta carencia marca el fin de la simplicidad del mundo de las partículas subatómicas.
El primer golpe a los cimientos llegó de la mano de un investigador japonés, Hideki Yukawa. Yukawa nació en 1907 (vivió hasta 1981); después de asistir a las universidades de Kioto y Osaka, en 1935 comenzó a trabajar en su doctorado (que completó en 1938) mientras daba clases en Osaka. En 1939, retornó a Kioto como profesor de física. Al igual que tantos otros físicos, Yukawa estaba intrigado por el mecanismo que mantenía el núcleo unido. Razonó que debía existir otra fuerza, más potente que la fuerza electromagnética, que mantenía a los protones bajo su control a pesar de que la fuerza electromagnética «pugnara» por separarlos. Pero no vemos ninguna prueba de la existencia de tal fuerza en nuestra experiencia cotidiana del mundo, de modo que debe tratarse de una fuerza nueva con respecto a nuestra experiencia, una fuerza que sólo opera a muy cortas distancias, manteniendo unidos a protones y neutrones, pero permitiendo que las partículas individuales (o, como ya hemos visto, las partículas alfa) se muevan libremente cuando salen fuera de su alcance. Yukawa utilizó una analogía con la fuerza electromagnética para describir esta nueva fuerza.
En la teoría del campo electromagnético, la fuerza es el resultado del intercambio de partículas, de fotones virtuales. Como los fotones tienen masa cero, la cantidad de energía que lleva un fotón puede hacerse tan pequeña como se desee si se aumenta su longitud de onda. Por tanto, no existe límite, en principio, para el alcance de la fuerza electromagnética: un fotón virtual asociado a un electrón puede interactuar, por bien que muy débilmente y con muy poca energía, con cualquier otro electrón del Universo. Pero, por supuesto, la interacción: es mucho más fuerte si los electrones se encuentran cerca.
Pero ¿y si los fotones tuvieran masa? En ese caso, se requeriría una cantidad mínima de energía, ΔE, para fabricar un fotón virtual. Y el tamaño finito de este paquete de energía establecería un límite de tiempo firme, Δt, para la vida de esa partícula de acuerdo con el principio de incertidumbre de Heisenberg. Como nada puede viajar más rápido que la luz, este tiempo finito de existencia implicaría que estas partículas, «fotones con masa», tendrían un alcance finito, puesto que deben volver a su origen o hallar otra partícula que las absorba antes de que se acabe su tiempo. Siguiendo las líneas de este razonamiento, Yukawa postuló, en 1935, que debía existir otro campo, análogo al campo electromagnético, asociado a los protones y a los neutrones. Este campo produce cuantos que, como los fotones, son bosones, pero que, a diferencia de los fotones, tienen masa. Y estos bosones sólo pueden ser intercambiados entre partículas que «perciben» el campo fuerte. Lo que ocurre, vino a decir Yukawa, es que los electrones no se ven afectados por la fuerza fuerte.
La belleza de la hipótesis de Yukawa radica en que era posible calcular la masa que debía tener este nuevo tipo de bosón. Su alcance no debía ser mucho mayor que el tamaño del núcleo, o de lo contrario impediría que las partículas alfa escaparan, aun con la ayuda de la indeterminación, y debía producir otros efectos observables que, de hecho, no se observan. El tamaño del núcleo, como demuestran los refinamientos de los experimentos iniciales de dispersión del equipo de Rutherford, es de tan sólo 10“12 cm. A partir de esta única medición y de la relación de indeterminación, Yukawa calculó que las partículas portadoras de la fuerza fuerte debían tener una masa en torno a 140 MeV, más de 200 veces la masa de un electrón, pero sólo una séptima parte de la masa de un protón.
¿Cómo podía contrastarse experimentalmente la hipótesis de Yukawa? Por aquel entonces, los físicos no tenían manera de observar el interior del núcleo para ver si hallaban los nuevos bosones. [16] No obstante, si bien se suponía que la fuerza fuerte dependía del intercambio de bosones virtuales, nada en las ecuaciones impedía que las partículas reales equivalentes se produjeran en cualquier lugar, siempre y cuando hubiera bastante energía para producirlas. Pero ocurra que, según las ecuaciones, estas partículas son inestables. La masa/energía que contienen puede convertirse en otras formas más estables. Pero también es posible producirlas en colisiones entre partículas aceleradas (y, por tanto, energéticas). En la actualidad los físicos utilizan aceleradores de partícula» gigantescos, como el que hay en el CERN, en Ginebra, para hacer chocar haces de electrones y protones entre sí o contra una diana estacionaria, para crear una lluvia de partículas efímeras. Estas partículas se producen a partir de la energía cinética de las partículas que colisionan, de acuerdo con la ecuación E = mc2, o si se prefiere, m = E/c.2
Es importante comprender bien este extremo. Las «nuevas» partículas no son fragmentos de las partículas que colisionan, desgajadas por el impacto, sino partículas auténticamente nuevas, acabadas de hacer a partir de energía pura. Por consiguiente, las colisiones pueden producir fácilmente partículas nuevas con una masa en reposo superior al de las partículas que participan en la colisión, siempre y cuando la energía cinética implicada sea mayor que la requerida por la masa en reposo. [17]
En los años treinta, la única fuente de las necesarias partículas energéticas era el propio Universo, que bombardea la atmósfera de la Tierra con protones y electrones de alta energía y (según sabemos ahora) otras partículas de alta energía conocidas colectivamente como rayos cósmicos. Cuando un rayo cósmico choca con una partícula en la atmósfera terrestre puede crear nuevas partículas, entre ellas los bosones de la fuerza fuerte. Los primeros físicos de alta energía eran observadores, y hallaron la manera de observar el paso de rayos cósmicos por sus dispositivos experimentales (los «rayos» afectan las emulsiones fotográficas, se puede hacer que generen chispas en aparatos que parecen versiones recrecidas de un contador de Geiger, y pueden seguirse de otros modos). Una vez registrado el paso fugaz de un rayo cósmico, o de un puñado de rayos cósmicos, y una vez fotografiada la traza de su paso, puede averiguarse si lleva carga eléctrica examinando como se desvía la trayectoria en un campo magnético, y puede incluso deducirse su momento (y, por tanto, su masa), a partir de la magnitud de la desviación de la trayectoria por el campo magnético.
En 1936, uno de los pioneros de la física de alta energía, el americano Cari Anderson, estaba estudiando trazas de rayos cósmicos en detectores situados en la superficie de la Tierra, y encontró trazas de una partícula más pesada que el electrón pero más ligera que el protón. Parecía que se hubiera encontrado por fin la partícula de la fuerza fuerte postulada por Yukawa; se denominó a esta partícula mu-mesón o, abreviadamente, muón. En realidad, como varios estudios pronto demostraron, el muón no era el portador de la fuerza fuerte. Ni su masa era la adecuada, ni se mostraba muy dispuesta a interactuar con núcleos atómicos. Pero en 1947 otro físico de rayos cósmicos, el inglés Cecil Powell, halló un bosón efímero que poseía exactamente las propiedades esperadas, entre ellas una masa muy cercana al valor predicho por Yukawa y un enorme entusiasmo por interactuar con partículas nucleares. Se llamó a esta partícula pi-mesón, o pión. Yukawa recibió el Premio Nobel de Física en 1949, convirtiéndose así en el primer japonés galardonado con este premio, y Powell recibió el premio en 1950.
En cuanto a Anderson, ya le habían dado el Premio Nobel de Física en 1936, el año que encontró el muón. Pero por un descubrimiento bastante diferente: el hallazgo que no añadió simplemente un nuevo miembro del zoo de partículas sino que, por implicación, vino a doblar el número de miembros de la noche a la mañana.
Paul Dirac, un físico británico nacido en 1902, fue una de las figuras cruciales de la revolución de la física cuántica los años veinte. Fundió la primera versión de la mecánica cuántica, desarrollada por Werner Heisenberg, con la teoría especial de la relatividad de Einstein, introduciendo de paso la idea de espín cuántico del electrón (una idea que fue pronto trasladada a otras partículas); desarrolló una descripción matemática completa de la teoría cuántica, y escribió un influyente libro de texto sobre la materia que todavía utilizan en la actualidad estudiantes e investigadores; y desempeñó un papel principal en el desarrollo de la EDC, si bien hasta el final de sus días se mostró descontento con la renormalización, que le parecía poco más que un parche en una teoría con tachas. Con todo, fuera del círculo de la física, la contribución más conocida de Dirac para la comprensión de la naturaleza del Universo es su predicción, de 1928, de que las partículas del mundo material tienen homólogos en forma de antimateria, partículas que son su imagen especular.
Irónicamente, tratándose de un físico teórico que había conseguido tanto y con tanta exactitud según sus propio planes, la predicción de Dirac de la antimateria ocurrió casi por accidente y, en un principio, la presentó al mundo en una forma imprecisa. Dirac halló que las ecuaciones con las que estaba trabajando para describir el comportamiento de los electrones tenían dos soluciones en lugar de una. Cualquiera que se las haya visto con ecuaciones cuadráticas, en las que interviene la raíz cuadrada de una cantidad desconocida, entenderá de inmediato por qué ocurre así. Eos cuadrados son siempre positivos. Si se multiplica 2×2 se obtiene 4, y si se multiplica -2×-2 se vuelve a obtener 4. Por consiguiente, la «respuesta» a la pregunta: «¿Cuál es la raíz cuadrada de 4?», es 2 y -2. Ambas respuestas son correctas.
Las ecuaciones que analizaba Dirac eran algo más complicadas, pero el principio es el mismo. Tenían dos respuestas, una correspondiente al electrón (que tiene carga negativa) y otra correspondiente a una partícula desconocida de carga positiva.
En 1928, los físicos sólo conocían dos partículas, el electrón y el protón, aunque existían ya sospechas bien fundadas de la existencia del neutrón. Por ello, lo primero que Dirac pensó fue que la solución de carga positiva de sus ecuaciones debía representar el protón. Da buena idea de hasta qué punto se avanzaba a tientas a principios de los años treinta el hecho de que un gran físico como Dirac no viera razón para pensar que las partículas correspondientes a las soluciones positiva y negativa debían tener la misma masa. Sólo ahora, en retrospectiva, podemos decir que «por supuesto» el homólogo del electrón debe tener la misma masa que el electrón y que el protón es demasiado pesado para serlo. Parece que al principio nadie se tomó en serio la propuesta de Dirac: no había una búsqueda organizada de la hipotética nueva partícula, como ocurriría hoy si se propusiera una hipótesis similar. Los físicos desestimaron que los cálculos de Dirac dijeran algo significativo acerca del mundo. Simplemente se desestimó la existencia de una segunda solución a las ecuaciones, de la misma manera que un ingeniero que trabaje con ecuaciones cuadráticas desestimará una de las soluciones de sus ecuaciones y retendrá únicamente aquella que tenga una relación obvia con la construcción de un puente o el problema que sea que le ocupe.
Pero en 1932 Anderson estaba estudiando rayos cósmicos mediante una cámara de niebla, un dispositivo que registra los rastros de los rayos cósmicos de forma parecida a como queda registrado en el cielo el rastro de un avión de gran altitud. Estos rastros pueden fotografiarse para estudiar los patrones con tranquilidad. Una de las cosas que Anderson hizo fue examinar cómo cambiaban los rastros bajo la influencia de un campo magnético, y halló algunos rastros que se desviaban con la misma magnitud que los electrones, pero en sentido opuesto. [18] Esto sólo podía significar que las partículas responsables tenían la misma masa que el electrón, pero carga opuesta (positiva). Pronto se identificó las nuevas partículas, a las que se denominó antielectrones o, más comúnmente, positrones, con las partículas predichas por las ecuaciones de Dirac, y éste es el trabajo que le valió el Premio Nobel a Anderson. Dirac recibió el premio, conjuntamente con Schrödinger, en 1933.
El positrón se descubrió el mismo año que el neutrón aunque, en realidad, las observaciones empíricas de la existencia de estas partículas cargadas positivamente ya se había obtenido hacía algún tiempo en forma de rastros, que se había tomado por rastros de electrones que se movieran en sentido opuesto. Cuando se extendieron los cálculos de Dirac a todas las partículas atómicas, los físicos se las hubieron de ver con seis partículas (más el fotón): el electrón y el positrón, el protón y un (presunto) antiprotón cargado negativamente, y el neutrón y un (presunto) antineutrón. [19] Las leyes de la física requieren que cuando una partícula se encuentra con su antipartícula correspondiente, las dos se aniquilen liberando energía en forma de fotones energéticos (rayos gamma). El positrón y el electrón se cancelan entre sí, en lo que concierne al mundo material. Del mismo modo, si se resuelve las ecuaciones en sentido contrario, se puede crear pares electrón-positrón, o cualquier otro par de partícula y antipartícula, siempre y cuando se disponga de la energía necesaria. Pero en estas interacciones es preciso aparear cada partícula con su antipartícula, su imagen especular. No vale, por ejemplo, el par protón-antineutrón. Todas estas partículas pudieron hallarse experimentalmente, si bien el antiprotón y el antineutrón no se detectaron hasta mediados de los años cincuenta. Y esta interrelación entre materia y energía que siempre obedece E-mc2 al igual que las reglas de la física cuántica, es, como hemos visto, fundamental.
El positrón y el neutrón se descubrieron el mismo año, 1932. El muón se descubrió en 1936, el pión en 1946. Para entonces, estaba claro que la materia se presentaba en dos variedades: unas partículas que perciben la fuerza fuerte (protones y neutrones, y los piones portadores de la fuerza) y otras que no (el electrón y, según se descubrió, el muón). [20] Esto condujo a un nuevo método de clasificación de las partículas, tanto las partículas «materiales» como las portadoras de fuerzas. Las cosas que perciben la fuerza fuerte reciben el nombre de hadrones, en tanto que las que no perciben la fuerza fuerte se llaman leptones. Todos los leptones son fermiones y tienen espín múltiplo de un medio. Los únicos leptones con los que hemos topado hasta ahora son el electrón y el muón, que es idéntico al electrón salvo por tener una masa mucho mayor. Los hadrones que también son fermiones («materia») se llaman bariones. Tanto los protones como los neutrones son bariones. Los bosones portadores de fuerzas entre partículas reciben en la actualidad el nombre específico de mesones. El pión es un mesón, y se presenta en tres variedades. Existe un pión neutro, que carece de carga. Cuando un protón y un neutrón intercambian un pión neutro, se mantienen juntos pero inalterados. Los protones también intercambian piones neutros entre sí, al igual que los neutrones. Pero existen además dos piones con carga positiva y negativa que actúan como antipartículas entre sí. [21] Cuando un protón le pasa un pión cargado positivamente a un neutrón, el protón se convierte en neutrón y el neutrón en protón. Exactamente lo mismo ocurre cuando un neutrón le pasa un pión cargado negativamente a un protón. Cada una de las variaciones de intercambio ayuda a mantener unidos protones y neutrones.
Ya ha aumentado considerablemente la lista de partículas necesarias para describir sólo el átomo. Pero todavía falta añadir una partícula más, y un campo más, a esta lista.
Hacia finales del siglo XIX, Rutherford, trabajando primero en Cambridge y después en Canadá, había descubierto que el uranio emite dos tipos de radiación, e investigó sus propiedades (descubrió asimismo una tercera forma de radiación, los rayos gamma, que más tarde se identificaron como fotones energéticos). Uno de estos «rayos», la radiación alfa, se descubrió más tarde que consistía en núcleos de helio, dos protones y dos neutrones unidos en un estado estable. El otro tipo, que denominó radiación beta, fue identificado más tarde como electrones. Por tanto, los átomos pueden emitir electrones. Pero estos electrones no provienen de la nube que envuelve el núcleo atómico. Rutherford y su colega Frederick Soddy consiguieron demostrar, a principios del siglo XX, que cuando un átomo radiactivo emite un electrón se convierte en un átomo de un elemento diferente. Estudios posteriores demostraron que, al tiempo que se emite un electrón, un neutrón del núcleo se convierte en protón y se produce un núcleo correspondiente a un átomo de un elemento diferente. En realidad, este proceso se da únicamente en unos pocos núcleos inestables. La mayoría de neutrones en la mayoría de átomos están bastante ufanos de ser lo que son. Pero un neutrón aislado, apartado de un núcleo atómico, se desintegrará en cuestión de minutos para formar un electrón y un protón.
En este proceso, que se denomina desintegración beta, debe intervenir otra fuerza y otra partícula además de las mencionadas hasta el momento.
Históricamente, lo primero que hallaron los físicos (o, más precisamente, un físico) fue la partícula. La desintegración beta era un tema principal de investigación en física durante las primeras décadas del siglo XX. Entre los descubrimientos más sorprendentes, los físicos encontraron que los electrones producidos durante la desintegración podían llevar diferentes cantidades de energía. El protón y el electrón producidos durante la desintegración de un neutrón tienen conjuntamente una masa aproximadamente 1,5 veces menor que la masa del neutrón. [22] Por tanto, al menos esta cantidad de energía debiera estar disponible, compartida entre el electrón y el protón, en forma de energía cinética. Cuando el protón se queda en el núcleo atómico no se mueve mucho, así que parece que casi toda la energía debiera ir a parar al electrón en forma de energía cinética que se añadiría a su masa en reposo, y por consiguiente todos los electrones así producidos por un átomo radiactivo debieran emitirse con una cantidad grande y predecible de energía cinética. Pero se demostró experimentalmente que la energía de un electrón producido por desintegración beta es siempre inferior a la energía disponible, y a veces mucho menor. ¿Adonde iba a parar la energía restante?
Wolfgang Pauli, un físico nacido en Austria en 1900, obtuvo la respuesta en 1930. Debía producirse otra partícula, además del protón y el neutrón, que daba cuenta de la energía restante y había pasado desapercibida. La partícula debía tener, por tanto, masa cero y carecer de carga eléctrica, pues de lo contrario habría sido detectada en los experimentos.

009.jpg
Figura 2.4. Todas las interacciones fundamentales se pueden representar mediante diagramas de Feynman. En este caso, el diagrama muestra la desintegración beta al nivel de neutrones y protones.

Una posibilidad tan extravagante no fue recibida calurosamente por los físicos. Parecía demasiado fácil, y albergaba la amenaza de que se invocara una nueva partícula indetectable para justificar cada fenómeno inexplicable de la física experimental. Pero Pauli porfió en su idea y ganó el apoyo, en 1933, de un físico de origen italiano un año menor que él, Enrico Fermi. Fermi acogió la idea de Pauli y le dio una base más firme al introducir en los cálculos una nueva fuerza, la llamada fuerza «débil».
De todos modos, la teoría de campos requería una nueva fuerza para explicar la desintegración beta. Fa responsable no podía ser la fuerza fuerte (los electrones no «notan» la fuerza fuerte), y de buen seguro no se trataba del electromagnetismo o de la gravedad. Fermi modeló su teoría a imagen de la EDC tanto como pudo, y se le ocurrió que cuando un neutrón se convierte en un protón emite una partícula portadora del nuevo campo, un bosón con carga que generalmente se simboliza W-. El bosón (que en la actualidad se denomina bosón vectorial intermedio) se lleva la carga eléctrica y el excedente de energía, en tanto que el neutrón se convierte en protón y retrocede. Pero este bosón tiene una gran masa (una masa que la versión inicial e incompleta de la teoría débil no podía precisar). [23] No sólo contiene la energía necesaria para hacer un electrón, sino que tiene un enorme contenido de energía virtual tomada prestada del vacío, por lo que es muy inestable y no existe durante mucho tiempo. De hecho, no subsiste siquiera lo bastante para interaccionar con otras partículas, sino que casi de inmediato devuelve al vacío la energía prestada, mientras que la energía restante da lugar a un electrón y a una nueva partícula, del mismo modo que un fotón energético puede desintegrarse para formar un electrón y un positrón. El electrón es un leptón, así que, en rigor, para que se conserve el número total de leptones del Universo, la nueva partícula deberá ser un antileptón. (Además, como comenzamos con un barión, el neutrón, y acabamos con un barión, el protón, el «número» de bariones también se conserva). Fermi denominó neutrino a la nueva partícula, por ser una «partícula neutra pequeña»; hoy se denomina antineutrino del electrón.
En 1933, la revista inglesa Nature rechazó el artículo donde Fermi presentaba estas ideas, arguyendo que eran «demasiado especulativas». Pero su trabajo pronto apareció publicado en italiano y poco más tarde en inglés. La demostración experimental de la existencia de neutrinos se obtuvo en 1953 mediante experimentos que aprovecharon el aluvión de tales partículas que producen los reactores nucleares. Tiene todas las propiedades (o falta de ellas) derivadas de la teoría, aunque en la actualidad se especula que los neutrinos tienen en realidad una masa muy pequeña, mucho menor que la masa de un electrón.
De modo que a principios de los años cincuenta, los físicos disponían de suficientes partículas y campos para explicar el comportamiento de los átomos. El campo débil, y las interacciones que éste media, tiene una importancia crucial en los procesos de fusión y fisión nuclear, la fabricación de elementos en las estrellas, el hecho de que el Sol sea caliente y la potencia de la bomba nuclear. El electromagnetismo mantuvo su cara familiar, y la gravedad se negó tercamente a doblegarse ante la teoría cuántica. No todos los campos sucumben ante el truco de la renormalización y todos los intentos de abordar el problema con infinitos domados [24] como en el caso de la EDC fallaron en el contexto de la gravedad. Sólo se conocían dos leptones (y sus respectivas antipartículas), el electrón y el muón, y cada uno de ellos tenía su propio neutrino asociado. De modo que la atención se centró en las partículas gobernadas por la fuerza fuerte. Pero durante una década, cuanto más a fondo examinaban los físicos la naturaleza de los hadrones, más confusos se tornaban los modelos que desarrollaban.
En 1932, parecía que bastasen tres partículas para explicar el mundo material. En 1947, se conocía una media docena (más sus antipartículas). A finales de 1951, había por lo menos quince partículas «fundamentales», y la lista no había sino comenzado a alargarse. En la actualidad, hay más partículas en la lista que elementos químicos en la tabla periódica. Durante la década de los años cincuenta, los físicos descubrían nuevos hadrones cada vez que ponían en marcha un nuevo acelerador de partículas y no paraban de añadir nuevos miembros al zoo de partículas, si no sacadas de la nada, sí de la pura energía. La energía provenía de máquinas cada vez más grandes y mejores, en las que se aceleran las partículas mediante campos electromagnéticos para hacerlas chocar entre sí o contra dianas de materia sólida (es decir, contra núcleos atómicos, porque las partículas cargadas atraviesan las nubes de electrones que envuelven a los átomos como las balas la niebla). Es imposible acelerar un objeto material hasta alcanzar la velocidad de la luz, de modo que a medida que se utilizaba más energía en estos experimentos, las partículas no aumentaban tanto de velocidad. Una vez su velocidad alcanzó una fracción considerable de la velocidad de la luz, comenzaron a aumentar en masa. Y al chocar o interactuar, toda esta masa extra quedaba disponible para crear otras partículas (casi siempre efímeras) que se manifestaban en forma de trazos en cámaras de burbujas y otros detectores. Generalmente, por supuesto, cada partícula nueva fabricada de este modo venía acompañada de una antipartícula; tanto el número de leptones como el número de bariones se conservan, pero los mesones pueden fabricarse a voluntad.
Conviene recordar una vez más que no tiene sentido imaginar que estas partículas «nuevas» estuvieran «dentro» de los protones, o de las partículas que se utilizasen en los experimentos de colisión de haces de partículas. Las partículas se hacían a partir de la energía inyectada en la máquina. Se dio nombre a las nuevas partículas, y las características de las familias a las que pertenecían se identificaron y calificaron, en ocasiones con términos un tanto estrafalarios, como «extrañeza». La física de partículas se hallaba en una situación muy semejante a la de la química antes de Mendeleev, cuando ya se había identificado los elementos y se había determinado y comparado sus propiedades, pero no se tenía idea acerca de cómo y por qué se producían aquellas propiedades y relaciones entre familias. En la química, el avance se produjo con la tabla periódica de los elementos y su posterior interpretación con referencia a la estructura interna del átomo. En la física de partículas, el avance se produjo en los años sesenta, con el desarrollo de una «tabla periódica» de las partículas, y unos años después, con la interpretación de esta nueva tabla periódica con referencia a la estructura interna de los propios hadrones.

§. La vía óctuple: del caos al orden
Hacia finales de los años cincuenta las teorías de campos ya no demostraban ningún progreso hacia la comprensión de la multiplicidad de hadrones. Había problemas con los infinitos, como es el caso de los que había que renormalizar en la EDC, y con la necesidad de recurrir a un campo diferente para cada partícula, lo cual estaba bien cuando sólo se tenían dos o tres partículas, pero se torna inquietante cuando el número de partículas asciende por encima de la docena, y luego supera el centenar. La mayoría de los teóricos abandonaron la teoría de campos a principios de los años sesenta para probar otros enfoques al problema de la interacción fuerte. No voy a examinar estos enfoques aquí, pues a mediados de los años setenta triunfó la teoría de campos. Pero si bien el ímpetu para buscar una estructura en las propiedades de los hadrones provino de ideas desarrolladas en el contexto de la teoría de campos en los años cincuenta, la «tabla periódica» de las partículas se mantuvo por sus propios méritos como sistema de clasificación al estilo de la tabla de Mendeleev, en los comienzos de la siguiente fase del desarrollo de la física de partículas.
Fueron dos los físicos que, independientemente, concibieron el sistema de clasificación: el americano Murray Gell-Mann (nacido en 1929) y el israelí Yuval Ne’eman, nacido en 1925. La formación y la carrera investigadora de Ne’eman se vieron interrumpidas por los conflictos de Oriente Próximo después de la Segunda Guerra Mundial, cuando se formó la nación de Israel en un territorio que antes había sido Palestina. Ne’eman permaneció en las fuerzas armadas israelíes pasado este periodo de contienda, pero encontró la manera de estudiar al tiempo que cumplía con sus deberes militares. Aunque su primer título fue en ingeniería, los intereses de Ne’eman lo condujeron a problemas de física fundamental hacia mediados de los años cincuenta, cuando prestaba servicio como agregado en la embajada israelí en Londres y, al mismo tiempo, trabajaba en su tesis doctoral, que defendió en 1962 en la Universidad de Londres. La carrera de Gell-Mann siguió un camino más convencional, desde la Universidad de Yale al MIT, donde fue conferido doctor en 1951, y luego a Princeton, a la Universidad de Chicago (donde durante algún tiempo trabajó con Fermi), y, en 1955, a Caltech.
Gell-Mann fue el responsable de la idea de «extrañeza» en tanto propiedad cuantificable de las partículas, una idea introducida en la física de partículas para explicar algunos de los nuevos fenómenos observados en interacciones de alta energía a principios de los años cincuenta.
La extrañeza no es más que una propiedad que parecen poseer las partículas (o, para decirlo con mayor rigor, es una propiedad que necesitamos introducir en nuestros modelos si insistimos en concebir el mundo compuesto por partículas). No es ni más ni menos misteriosa que la carga eléctrica. Algunas partículas tienen carga, otras no la tienen, y la carga se presenta en dos tipos, que simbolizamos + y -. Si queremos ser más precisos y contar la carga 0, nos quedamos con tres opciones: -1, 0 y +1. La extrañeza varía de una partícula a otra, y hay más opciones que con la carga, pero el principio es el mismo. La extrañeza puede tomar los valores 0, -1, +1, ±2, y aun valores más altos. Y la extrañeza tiene que conservarse en las interacciones fuertes entre partículas. De igual modo que un electrón sólo puede convertirse en protón mediante una interacción que produzca un electrón para compensar la carga eléctrica (y un antineutrino para conservar el número de leptones), la extrañeza tiene que mantener el balance en las interacciones fuertes mediante la creación de partículas con la «carga» de extrañeza adecuada. Esto restringe el número de interacciones permitidas en correspondencia con los «extraños» resultados que los físicos obtenían en los años cincuenta, de dónde el nombre.
Mediante reglas de este tipo, Gell-Mann y Ne’eman consiguieron agrupar las nuevas partículas, junto con las viejas partículas familiares, de acuerdo con un esquema construido alrededor de las propiedades de carga, espín, extrañeza y otras. Gell-Mann acuñó para este esquema la expresión «la vía óctuple», en honor a las «ocho virtudes» de la filosofía budista, porque algunos de los patrones que halló al principio consistían en grupos de ocho partículas. De hecho, el sistema incluye familias con 1, 8, 10 y 27 miembros, en las que cada uno de los miembros de una familia difiere con respecto a una característica fundamental. El sistema fue propuesto en 1961, y en 1964 Gell-Mann y Ne’eman editaron conjuntamente un libro, The Eighthfold Way («La vía óctuple»), [25] que es una recopilación de sus propios artículos originales y de otras contribuciones clave para la comprensión del zoo de partículas. Para entonces, el sistema de clasificación había predicho con éxito la existencia de una nueva partícula, situándose al mismo nivel que la tabla de Mendeleev antes del desarrollo de la física cuántica.
El patrón de la vía óctuple, ampliado para reunir una familia de bariones en un grupo de diez miembros, tenía un vacío. Se necesitaba una partícula para completar el cuadro, a la que Gell-Mann denominó omega menos (Ω-), por ser ésta la última letra del alfabeto griego. El vacío en el grupo «correspondía» a una partícula con carga negativa, extrañeza de -3 y masa de 1680 MeV. En 1963, varios investigadores que seguían la pista a la predicción en el Laboratorio Brookhaven, en Nueva York, y en el CERN, en Ginebra, hallaron una partícula con estas precisas características. Se necesitaron sesenta años para interpretar la tabla de Mendeleev mediante una teoría completa de la estructura del átomo. No hicieron falta más de diez años para interpretar la vía óctuple con referencia a una teoría completa de la estructura interna de los hadrones, y sólo se tardó tanto porque algunos físicos se mostraron inicialmente reacios a aceptar la idea, propuesta ya en 1964 por Gell-Mann e independientemente por George Zweig, de que las partículas «fundamentales», como los protones y los neutrones, están en realidad constituidas por unas partículas peculiares llamadas quarks, que se presentan en grupos de tres y tienen, por herético que parezca, cargas que son una fracción de la carga de un electrón.

§. Quarks
Mirando atrás a los más de treinta años desde la génesis del modelo quark de la materia, se hace difícil decir hasta qué punto se lo tomaban en serio incluso los proponentes del modelo. La idea de que los protones y los neutrones, al igual que otras partículas, estén en realidad constituidos por tripletes de otras partículas, algunos con carga de 1/3 de la carga de un electrón, otros con cargas de 2/3, corría tan a contrapelo de todo lo que se había averiguado desde finales del siglo XIX que, en un principio, sólo podía presentarse como un artilugio, un truco matemático que simplificaba algunos de los cálculos y ofrecía una estructura subyacente a la vía óctuple. Esto, en sí mismo, no tiene nada de malo. Nos recuerda que todos nuestros modelos de las partículas y de sus interacciones no son más que ayudas artificiosas para que podamos formarnos una imagen del mundo subatómico que nos resulte familiar, o al menos reconocible, desde nuestra experiencia cotidiana del mundo. Pero es irónico que durante los últimos años, a medida que se ha ido estableciendo el modelo quark, muchas exposiciones de la física de partículas parezcan haber perdido de vista el hecho de que aun los mejores modelos no son más que una ayuda para nuestra imaginación, e insistan en presentarnos una imagen de los protones, los neutrones y demás partículas como si «realmente» estuvieran constituidas por pequeñas bolas duras, los quarks, traqueteando en el interior de lo que solíamos considerar partículas «elementales». La imagen es nostálgicamente sugerente de aquella primera imagen del átomo compuesto de pequeñas bolitas (los electrones, protones y neutrones), y es igualmente inexacta.
Sea cual fuere su fundamento en la «realidad», el modelo de quarks explica muy ajustadamente las interacciones del mundo de las partículas.[26]Las partículas más corrientes, el Protón y el neutrón y los piones portadores de la fuerza fuerte, pueden describirse simplemente como constituidos por dos quarks, a los que se ha asignado etiquetas arbitrarias a fin de distinguirlos. Uno se denomina «arriba» (up o u), y el otro, «abajo» (down o d). Los nombres no tienen absolutamente ningún significado: los físicos podían haberlos denominado tranquilamente «Alicia» y «Alberto». El quark «arriba» tiene una carga de 2/3 y el quark «abajo» tiene una carga de -1/3; el protón está constituido por dos quarks «arriba» y un quark «abajo», lo que da una carga total de +1, mientras que el neutrón está formado por dos quarks «abajo» y un quark «arriba», lo que da una carga total de cero. Los piones se «explican» como si estuvieran formados por pares de quarks constituidos por un quark y un antiquark. Un «arriba» y un «antiabajo» dan pi+, un «abajo» y un «antiarriba» dan pi-, y «arriba» más «antiarriba» y «abajo» y «antiabajo» dan piº.
Hasta aquí, todo esto no es más que un aide memoire, una regla mnemónica para la construcción de partículas fundamentales. Pero la fuerza de estas reglas mnemónicas se hizo evidente cuando Gell-Mann y Zweig trajeron a escena un tercer quark, el quark «extraño» (strange o s), para poder explicar la propiedad de extrañeza. Al reemplazar sucesivamente uno, dos o tres de los quarks de la materia corriente con un quark «extraño», consiguieron construir partículas con un número de extrañeza de -1, -2 o -3 (el hecho de que sean negativos es sólo un accidente histórico de la definición de extrañeza). El protón y el neutrón tienen extrañeza cero, porque no contienen ningún quark «extraño»; omega menos tiene extrañeza -3 porque está constituido por tres quarks extraños, y así sucesivamente. Las combinaciones posibles de tripletes de quarks y pares de quarks y antiquarks permitían explicar elegantemente la estructura de la vía óctuple. Incluso, si se asignaba una masa a cada quark y se hacía al quark «extraño» un 50 por 100 más pesado que los otros quarks, se conseguía predecir con precisión la masa de todas las partículas conocidas. Pero, ¿tenía el modelo de quarks algún significado físico?
Incluso Gell-Mann, quien acuñó la palabra «quark» a partir de una frase de Finnegans Wake [27] se mostraba un tanto remiso acerca del concepto de quark en el artículo donde lo presentó. En sus propias palabras:
Es divertido especular sobre el comportamiento que tendrían los quarks si fueran partículas físicas con masa finita (en lugar de puras entidades matemáticas como lo serían en el límite de la masa infinita)... la búsqueda de quarks estables de carga _1/3 o +1/3 y/o diquarks estables de carga -2/3 o +1/3 o +4/3 en los aceleradores de mayor energía, nos ayudaría a convencemos de la inexistencia de quarks reales? [28]
¿Creía Gell-Mann realmente en la realidad de los quarks aunque intentara colar el concepto de quark en la bibliografía científica física como si no fueran más que un divertimento matemático? ¿O tenía tantas dudas sobre todo este asunto como sus palabras sugieren? No cabe duda que Zweig tomaba la idea en serio; e, igualmente, no cabe duda que a causa de ello recibió muy pocos elogios, y abundantes críticas.
George Zweig nació en Moscú en 1937. Pero fue a vivir a los Estados Unidos con sus padres cuando aún era un bebé, y se graduó en matemáticas por la Universidad de Michigan en 1959. Se fue entonces a Caltech para comenzar su carrera como investigador, y allí pasó tres años habiéndoselas con un experimento de alta energía en un acelerador llamado Bevatrón, antes de decidir centrarse en la teoría y comenzar a investigar, bajo la dirección de Richard Feynman, cómo entendían los físicos la naturaleza del mundo material. Siendo un recién llegado a este campo, carecía quizá de la cautela, o el tacto, de sus mayores, y cuando se dio cuenta de que la estructura de mesones y bariones de la vía óctuple se podía explicar mediante combinaciones de dos o tres subpartículas, de inmediato trató a estas subpartículas como entidades reales, a las que denominó ases y las describió como tales en su trabajo. Esta audacia de agarrar el toro por los cuernos dejó horrorizados a sus superiores (sin incluir a Feynman), un horror que el éxito de un enfoque a su parecer ingenuo y poco realista no hizo más que acrecentar. En 1963, Zweig obtuvo una beca de un año para ir al CERN, donde escribió su trabajo, con vistas a su publicación, en forma de «informes internos» del CERN, y concluía: «Dada la extrema crudeza con que hemos tratado el problema, los resultados obtenidos resultan un tanto milagrosos» [29]. Pero, ¿era éste realmente su punto de vista? ¿O puso algún otro en su boca, o en su pluma, los comentarios sobre la crudeza? La misma publicación de estos informes en 1964 fue casi milagrosa. Cuando el estudiante Zweig presentó sus primeros borradores a sus superiores del CERN, los desestimaron de inmediato: en una publicación de Caltech de 1981 recuerda cómo ocurrió:
Conseguir que el informe del CERN saliera publicado en la forma que yo quería era tan difícil que acabé por desistir. Cuando el departamento de física de una destacada universidad consideraba la posibilidad de contratarme, su teórico de mayor rango, uno de los portavoces de la física teórica más respetado, bloqueó el nombramiento en una reunión del profesorado arguyendo apasionadamente que el modelo de los ases era el trabajo de un «charlatán»? [30]
Pensaran lo que pensaran los teóricos en 1964, el modelo de quarks proporcionaba por lo menos una regla general para calcular el comportamiento de los hadrones. Y con la última generación de aceleradores de partículas, los experimentadores tenían a su disposición los medios para contrastar las hipótesis lanzando electrones contra protones con tan alta energía que de necesidad habrían de dispersar los quarks del interior de los protones. Los experimentos que finalmente «radiografiaron» a los protones utilizaron un acelerador de dos millas de longitud en Stanford, en California (el Acelerador Linear de Stanford, o SLAC, en sus siglas inglesas), en el que se consiguió acelerar los electrones hasta energía de más de 20 miles de millones de electronvolts (GeV). Los patrones de dispersión de los electrones que alcanzaban los protones implicaban claramente que existían regiones donde se concentraba la masa y carga eléctrica en el interior de los protones, del mismo modo que los experimentos de Rutherford, bastantes años atrás, habían mostrado que existe un núcleo concentrado en el interior de cada átomo. Aproximadamente al mismo tiempo, a finales de los años sesenta, unos experimentos realizados en el CERN en los que se utilizaban haces de neutrinos, en lugar de haces de electrones, para examinar el interior de los protones, mostraron que debe existir asimismo «materia» eléctricamente neutra en el interior del protón. Pero no importa con qué intensidad se bombardearan los protones, o qué se utilizara para bombardearlos, resultaba imposible, como lo ha seguido siendo hasta nuestros días, extraer quarks de su interior.
La explicación de la materia neutra asociada a los quarks en el interior de los hadrones era en principio simple, si bien engendró nuevas preguntas acerca del tipo de teoría fundamental que se podía erigir para explicar lo que se observaba. Del mismo modo que protones y neutrones se mantienen unidos mediante el intercambio de piones (los portadores de la fuerza fuerte), los quarks, se argumentaba, debían mantenerse unidos de alguna manera mediante el intercambio de unas Partículas a las que se denominó «gluones» (del inglés «glue», pegamento), porque encolan los quarks para constituir los protones, neutrones, etc. A primera vista pudiera parecer que nos enfrentamos a una quinta fuerza. Pero la opinión actual es que la fuerza de los gluones representa la verdadera fuerza «fuerte» de la naturaleza, y que la así llamada interacción fuerte de la física nuclear es en realidad un efecto secundario de la fuerza de los gluones, de forma hasta cierto punto análoga a como las trazas residuales de las fuerzas eléctricas que mantienen unidos a los átomos en las moléculas proporcionan una fuerza electromagnética débil entre moléculas diferentes.
Pero junto a los éxitos experimentales del modelo de quarks durante la segunda mitad de los años sesenta, había también problemas. ¿Por qué los quarks sólo se presentaban en tripletes, o en pares quark-antiquark? Irónicamente, el más profundo rompecabezas concernía a omega menos, la predicción estrella de la vía óctuple, así como otras partículas que compartían con aquélla una importante propiedad. En el modelo de quarks, omega menos se concibe como una partícula constituida por tres quarks «extraños». Pero todos estos quarks tienen que tener el mismo espín, de modo que se encuentren en estados idénticos. De modo parecido, los experimentadores habían hallado un tipo de partícula que se podía predecir adecuadamente como si estuviera compuesta de tres quarks «arriba» con el mismo espín, y otra que consistía en tres quarks «abajo», todos con el mismo espín. Pero los quarks son fermiones, y el principio de exclusión de Pauli dice que no puede haber dos fermiones, y mucho menos tres, juntos en el mismo estado. ¿Es posible que los quarks no obedezcan el principio de exclusión? ¿O existe alguna manera de poder distinguir los quarks del interior de omega menos y otras partículas compuestas de tres quarks «idénticos»?
Una buena teoría de quarks debiera ser capaz de dar respuesta a esta cuestión y a otras que se plantearon. La «buena teoría» que se necesitaba resultó ser la teoría de campos. Pero esta revitalización de la teoría de campos en los años setenta, que condujo a una buena teoría de quarks y que más tarde, en los años ochenta, trajo la esperanza de una teoría unificada de todos los campos, no provino de un hallazgo crucial en el estudio de los hadrones, sino del estudio de los leptones y fotones: una nueva teoría que combinaba las fuerzas electromagnética y débil en una sola descripción, la teoría electrodébil. Pero antes de poder examinar cómo se desarrolló la nueva teoría y cómo ayudó a los teóricos a encontrar un modelo mejor de la fuerza fuerte, es necesario que hurguemos una vez más en la caja de trucos de los matemáticos para ver cómo utilizar uno de sus artilugios conceptuales más útiles.

§. Determinando la naturaleza de las cosas
De acuerdo con la nueva concepción, en las interacciones de la materia común participan sólo cuatro partículas: los quarks «arriba» y «abajo», el electrón y su neutrino. Cuando un neutrón se desintegra en un protón, emitiendo un electrón y un antineutrino, lo que dice la teoría de quarks es que un quark «abajo» del interior del neutrón se convierte en un quark «arriba» y emite un W-, que a su vez produce el electrón y el neutrino. Otra forma de ver este tipo de interacción es como un intercambio en el cual un quark «abajo» le dé un W- virtual a un neutrino, convirtiéndolo así en electrón y a sí mismo en quark «arriba». El electrón y su neutrino son los equivalentes leptónicos de los quarks «arriba» y «abajo» del mundo de los hadrones. Todas estas interacciones se describen esquemáticamente mediante diagramas de dispersión como el que se presenta en la figura 2.2; matemáticamente, una partícula que viajara hacia adelante en el tiempo sería lo mismo que si su antipartícula equivalente viajara hacia atrás en el tiempo, de modo que un diagrama básico sirve para todas las interacciones fundamentales.

010.jpg
Figura 2.5. En la concepción moderna de los procesos del mundo de las partículas, la desintegración beta se interpreta a un nivel más profundo que el mostrado en la figura 2.4. Aquí, uno de los quarks abajo del interior de un neutrón emite una partícula W- y se convierte en quark arriba (de modo que el neutrón se convierte en protón). La partícula W emitida puede interaccionar con un neutrino, convirtiéndolo en electrón (figura superior); o, más probablemente, se desintegrará en un electrón y un antineutrino (figura inferior).

Por supuesto, la comprensión de la fuerza débil comenzó a desarrollarse antes de que se sugiriera la idea de los quarks, así que las ecuaciones y diagramas se expresaban, y se siguen expresando, en función de protones y neutrones, en lugar de quarks «arriba» y «abajo». Como esto no afecta a la idea central del argumento, usaré ambas descripciones de forma equivalente. Pero conviene recordar que a este nivel de descripción, que se refiere únicamente a la materia ordinaria, la que constituye el Sol y las estrellas, las galaxias distantes, la materia interestelar, los planetas y nosotros mismos, nos ocupamos de un número limitado de partículas fundamentales, tan sólo cuatro (los quarks «arriba» y «abajo», el electrón y su neutrino). Casi toda la física descrita en este libro hasta este punto y toda la evolución del Universo, sería exactamente la misma si éstos fueran los cuatro únicos tipos de partículas que existieran.
Cuando los físicos intentaron construir una teoría de campos más completa para la interacción débil, en los años cincuenta, naturalmente examinaron las teorías de campos que ya tenían (la gravedad y, especialmente, el electromagnetismo), para establecer qué tipo de propiedades debe poseer una «buena» teoría. Uno de los conceptos más poderosos que se puede utilizar para describir estos campos es la propiedad de simetría. Por ejemplo, el campo eléctrico es simétrico con referencia a las fuerzas entre partículas cargadas. Si dispusiéramos en un espacio una serie de partículas cargadas, unas positivas y otras negativas, y midiéramos todas las fuerzas que actúan entre ellas, y luego fuera posible de alguna forma invertir la polaridad de todas y cada una de las cargas, positiva por negativa y negativa por positiva, manteniéndolas en los mismos lugares, hallaríamos que las fuerzas que actúan sobre cada una de las partículas son exactamente las mismas que en el primer caso. Este tipo de simetría recibe la denominación de simetría global: para retener el campo de fuerzas original es preciso invertir todas las cargas (o, en rigor, todas las cargas del Universo) simultáneamente.

011.jpg
Figura 2.6. La diferencia entre un neutrón y un protón puede representarse mediante la dirección de una «flecha interna» asociada a cada uno de los nucleones. Esta flecha se denomina isospín.

Otras leyes de la física, o propiedades de partículas, pueden describirse asimismo en términos de simetría. Las cargas positiva y negativa pueden concebirse como imágenes especulares, versiones opuestas de un «estado» fundamental de las cosas. Sin embargo, si dejamos de lado la carga y nos fijamos en el resto de propiedades del protón y del neutrón, resulta que son muy similares entre sí. En realidad son tan parecidos que los físicos los conciben como dos «estados» posibles de una entidad fundamental que denominan nucleón. ¿Qué determina que un nucleón sea un protón o un neutrón (dejando de lado, como he dicho, la cuestión de la carga)? De igual modo que se introducen los términos «positivo» y «negativo» para describir las diferentes versiones de carga, y del mismo modo que se asigna a los quarks nombres arbitrarios como «arriba» y «abajo», los físicos le dan un nombre a la propiedad que distingue un protón de un neutrón. La denominan espín isotópico, y la conciben como una flecha, asociada a cada nucleón, que apunta hacia arriba o de través. Pero no «apunta» en el espacio tridimensional de nuestra experiencia cotidiana. Se las concibe como si «apuntaran» en algún espacio matemático abstracto que representa la estructura del nucleón.
Imaginemos que cambiamos simultáneamente el espín isotópico de todos y cada uno de los nucleones del Universo, de tal manera que cada protón se convierta en neutrón y cada neutrón, en protón. Sería equivalente a rotar en 90º, un ángulo recto, la orientación del espín isotópico de cada nucleón. El resultado es que la fuerza fuerte no se ve afectada por un* transformación de este tipo, del mismo modo que la fuerza eléctrica no se ve afectada cuando se invierte el signo de todas las cargas eléctricas. Existe una simetría fundamental entre los dos estados del nucleón, entre el protón y el neutrón, o, a un nivel más profundo, entre los quarks «arriba» y «abajo». De manera que cuando un neutrón cualquiera cambia a protón, la simetría local, para ese nucleón en particular, se ve alterada. Ha tenido lugar una transformación de simetría local. Pero las leyes de la física permanecen inalteradas, de igual modo que en el caso en que se intercambiaban todos los protones y neutrones del Universo. ¿Cómo se apercibe el Universo de la transformación de simetría local? En este caso, a través de la propia fuerza fuerte. Por consiguiente, las fuerzas fundamentales de la naturaleza están involucradas a fondo en las simetrías básicas, y no sólo en los cambios globales de simetría, sino también en los locales.
Los cambios de simetría pueden ocurrir de muchas maneras, pero sucede que las simetrías que subyacen a las leyes de la física son del tipo más sencillo, matemáticamente hablando. Reciben el nombre de simetrías gauge, y tienen también simetría local, y resulta que ésta, a su vez, restringe sus propiedades y permite calcular sus efectos.
El término «gauge» (del inglés «calcular», «determinar») no es más que una etiqueta que los matemáticos utilizan para describir la propiedad del campo. Fue introducido en este contexto poco después de la Primera Guerra Mundial, de la mano del matemático alemán Hermann Weyl, quien intentaba desarrollar una teoría unificada que combinara el electromagnetismo (las ecuaciones de Maxwell) y la gravedad (relatividad general). Una transformación gauge es aquella que cambia el valor de alguna cantidad física en todos los puntos al mismo tiempo; el campo tiene simetría gauge si después de una transformación de este tipo permanece inalterado. El sistema imaginario de cargas que ideamos anteriormente proporciona un buen ejemplo. Si montáramos un sistema como aquél en un laboratorio real, y midiéramos todas las fuerzas entre las cargas, hallaríamos que las fuerzas no cambiarían en absoluto aunque cargásemos el laboratorio entero con alto voltaje. [31] Lo único que importa es la diferencia entre las cargas, razón por la cual un ratón puede correr alegremente por raíl cargado eléctricamente de un ferrocarril metropolitano. El ratón entero se encuentra al mismo voltaje, de modo que no circula corriente. El problema surge cuando una persona toca el raíl con una mano y el suelo con otra parte del cuerpo: entonces puede circular la corriente a través de la diferencia potencial.

012.jpg
Figura 2.7. La ruptura de simetría es un proceso fundamental que puede entenderse por analogía con una bola en un valle. Si hay un solo valle, la bola está en un estado estable, simétrico. Si hay dos valles, por bien que sean simétricos entre sí, la bola se hallará en un estado simétrico inestable y caerá hacia uno de los valles, rompiendo la simetría.

De modo que las fuerzas eléctricas entre partículas son invariantes si el potencial (el voltaje) de cada carga se incrementa en una magnitud idéntica y de forma simultánea. Esta invariancia gauge es otro tipo de simetría, que posee también el campo gravitatorio. Pero, ¿qué ocurre si sólo se incrementa el potencial eléctrico de una parte de las cargas? Entonces comienza a fluir la corriente, tal como ocurre en el caso de que alguien, o algo, caiga sobre el raíl del metro. Las cargas eléctricas en movimiento crean un nuevo campo, un campo magnético, que puede describirse mediante un potencial magnético análogo al potencial eléctrico. El campo magnético restablece la simetría de las ecuaciones que describen el sistema. Imaginemos que provocamos un cambio complejo en el potencial eléctrico del laboratorio, o del Universo, subiéndolo aquí y bajándolo acullá; siempre podemos contrarrestar los efectos de estos cambios mediante cambios compensatorios en el potencial magnético, bajándolo acullá y subiéndolo aquí. Por tanto el electromagnetismo, la teoría que abarca la electricidad y el magnetismo, es invariante bajo transformaciones gauge locales. Las ecuaciones de Maxwell describen el tipo más sencillo de campo que obedece tanto esta invariancia simétrica como las ecuaciones de la relatividad especial.
Este tipo de simetría está profundamente relacionado con el principio de equivalencia de la relatividad general. Einstein nos enseñó que las aceleraciones siempre se pueden contrarrestar con la gravedad. Las aceleraciones representan fuerza, como Newton nos enseñó, la fuerza es igual a la masa multiplicada por la aceleración. En un laboratorio que se desplazara con una velocidad constante por el espacio, no habría cambio entre el potencial gravitatorio de un extremo y otro del laboratorio; se asemejaría en este respecto a nuestro experimento de cargas eléctricas con un voltaje de base uniforme. En un laboratorio como éste, los experimentos obedecerían a la perfección las leyes de Newton. Presentan una simetría análoga a la que poseía el sistema de cargas de nuestro ejemplo anterior. En un laboratorio sito sobre la Tierra existe una diferencia de potencial gravitatorio entre el techo y el suelo causada por la gravedad de la Tierra. Es un caso equivalente a nuestro experimento eléctrico en el que un lado del laboratorio estaba cargado a un voltaje superior al del otro lado. Ya no hay simetría.
Si mantuviéramos el laboratorio imaginario en el espacio pero lo sacudiéramos de vez en cuando poniendo en marcha motores de cohete, los efectos se manifestarían dentro del laboratorio como fuerzas misteriosas que afectarían la trayectoria de las partículas. Esas fuerzas equivalen exactamente a las producidas por la gravedad. Por ejemplo, para hacer que el laboratorio se mueva en círculo, lejos de cualquier masa grande, sería preciso aplicar un empuje constante, y el ocupante del laboratorio podría deducir que se estaba moviendo en círculo a partir de mediciones de las fuerzas en el interior del laboratorio. Pero si nuestro laboratorio espacial se encontrara en órbita alrededor de la Tierra, las fuerzas que «habrían» de manifestarse por estar volando en círculo, y no en línea recta, quedarían contrarrestadas de forma precisa por la fuerza de la gravedad del planeta. Estaría en caída libre. En principio, del mismo modo que se puede conseguir que el potencial magnético compense los cambios en el potencial eléctrico, se puede conseguir que un campo gravitatorio cambiante contrarreste aun las más violentas sacudidas producidas por los motores del cohete. Dicho de otro modo, es posible, en principio, disponer trozos de materia (planetas, estrellas, agujeros negros o lo que sea) alrededor de la nave espacial de tal modo que ésta siga la más extraña trayectoria sinuosa a través del espacio, pero se encuentre siempre en caída libre, del mismo modo que la nave espacial en órbita alrededor de la Tierra está siempre en caída libre en una trayectoria circular. No importa que no sea ésta una proposición práctica; lo importante es que la simetría es parte integral de las ecuaciones. El campo gravitatorio es invariante frente a transformaciones gauge locales.
Pero todo lo que podemos «saber» acerca de las fuerzas de la naturaleza es cómo afectan al movimiento, desviando aquí a un electrón de su trayectoria, empujando un protón allí, etc. Las otras fuerzas de la naturaleza desempeñan el mismo papel al nivel de partículas que la gravedad en todo el Universo, proporcionando una forma de contrarrestar perturbaciones causadas por las transformaciones de simetría locales. En la descripción del electromagnetismo de la física cuántica, la EDC, la fuerza es equivalente a un intercambio de fotones entre partículas cargadas. Los cambios en las partículas y en sus campos asociados se contrarrestan, para asegurar la simetría gauge local, si y sólo si el fotón es una partícula con una unidad de espín y masa cero. En la actualidad, los físicos conciben la existencia del fotón, con estas solas propiedades, como un requisito de la simetría gauge o, dependiendo del punto de vista de uno, como la confirmación de que el enfoque de la simetría gauge es la clave que resolverá los secretos je la naturaleza. ¿Qué ocurre cuando este enfoque se traspasa de la EDC a la descripción de los campos débil y fuerte?

Capítulo 3
En busca de la superfuerza

El ideal de encontrar una descripción matemática que incluya todas las fuerzas de la naturaleza ha sido el Santo Grial de la física desde que Einstein concibiera una teoría de campos de la gravedad, la teoría general de la relatividad. En un principio se intentó unificar la gravedad y el electromagnetismo en una sola teoría; después de todo, en los años veinte éstas eran las dos únicas teorías plenamente desarrolladas de que disponían los físicos para sus ensayos. Aunque estos intentos fracasaron, algunas de las técnicas desarrolladas durante esos intentos fallidos de construir una teoría unificada se han rescatado y están resultando extremadamente útiles en el contexto de la física de los últimos años. La gravedad es la más débil de las cuatro fuerzas de la naturaleza, y la más difícil de reconciliar con las otras tres. Aunque tiene un largo alcance (la partícula del campo gravitatorio, o gravitón, tiene, como el fotón, masa cero) y por tanto afecta a todo el Universo, cualquiera de las otras fuerzas la puede dominar cuando actúan a distancias tales que ambas sean efectivas. Es necesaria la masa de la Tierra para mantener un trozo de papel, de menos de un gramo de peso, pegado a mi mesa de escritorio. Pero para levantar ese trozo de papel en contra de la atracción gravitatoria de la Tierra entera, basta que frote un bolígrafo contra mi jersey de lana para cargarlo eléctricamente y luego sostener el bolígrafo cargado sobre el trozo de papel. La fuerza eléctrica que el bolígrafo ejerce sobre el papel hace entonces que se eleve sobre la mesa. La gravedad es una fuerza ciertamente muy débil. La única razón por la cual las fuerzas eléctricas no dominan el Universo es que en casi todos los lugares las cargas positivas y negativas están compensadas, de modo que no queda ninguna carga residual que pueda afectar a estrellas y galaxias lejanas. Tanto la fuerza débil como la fuerza fuerte son también más fuertes que la gravedad, pero afortunadamente tienen un alcance limitado porque están mediadas por partículas (cuantos de campo) con masa. En términos aproximados, la fuerza fuerte es unas 1.000 veces más fuerte que la fuerza eléctrica, y unas 100.000 veces más fuerte que la fuerza débil (de modo que la fuerza eléctrica es unas 100 veces más fuerte que la fuerza débil). Pero la fuerza fuerte es unas 1038 veces más fuerte que la gravedad, por lo que no debe extrañar que sea mucho más fácil desarrollar una teoría unificada de las fuerzas fuerte, débil y eléctrica que intentar hallar una teoría unificada de la fuerza de la gravedad y cualquiera de las otras tres fuerzas.
Cuando los físicos se dieron cuenta de que tenían que habérselas con cuatro fuerzas fundamentales, y no dos, el problema de una teoría de campos unificada se presentó más desalentadora que en los años veinte. Varios investigadores, entre los que destacaba Einstein, perseveraron en los intentos de hallar una serie de ecuaciones que describieran una teoría unificada que incluyera la gravedad, el electromagnetismo y las otras en un solo paquete, pero ni Einstein lo consiguió, aunque pasó buena parte de los últimos treinta años de su vida intentando unificar el electromagnetismo y la gravedad. Cuando el éxito comenzó a asomar, lo hizo por el extremo opuesto, como si dijéramos, a Einstein. Einstein comenzó por la fuerza de la gravedad, que domina el mundo a gran escala. Pero en la actualidad, los físicos ven la adición de la fuerza de la gravedad a la teoría unificada como la última pieza del rompecabezas. De hecho, han progresado pieza por pieza, comenzado por las fuerzas que dominan los átomos, las dos fuerzas de magnitud más parecida, y moviéndose hacia las fuerzas más débiles y de mayor alcance. La fuerza débil fue la primera en recibir su propio modelo teórico de campos «correcto», y luego se añadió la fuerza electromagnética para obtener un modelo unificado electrodébil. Hoy disponemos también de una teoría gauge «correcta» de la fuerza fuerte, y firmes indicaciones de cómo unir la fuerza fuerte y el campo electrodébil en una teoría de gran unificación o TGU. Todavía no existe una única TGU que unifique las tres primeras fuerzas, pero se han esbozado ya las propiedades de los tipos de modelo que casi con certeza incluyen una teoría unificada.
Estos últimos desarrollos precisan la comprensión de los procesos de partículas que tienen lugar a muy altas energías, a energías equivalentes a densidades de la materia muy superiores a la densidad de la materia en un núcleo atómico. De modo que los pasos hacia una teoría de campos unificada representan también, en un sentido muy real, un retroceso hasta los tiempos de la creación, al estado superdenso y superenergético conocido como Big Bang que dio nacimiento al Universo. Las teorías nos cuentan sobre las condiciones que prevalecían en el Universo durante la primera fracción de segundo de la creación, tal como explico en mi libro En busca del Big Bang. Quizá sea ésta la mejor indicación de que las teorías sobre quarks y leptones realmente están llegando a un nivel fundamental de la física. El éxito de estos modelos, donde se encuentran la física de partículas y la cosmología, en explicar la evolución inicial del Universo es la mejor evidencia que tenemos que estamos desarrollando las teorías de partículas y de fuerzas en la dirección correcta.
Si las nuevas teorías resisten, como han resistido hasta ahora, la física pronto habrá alcanzado su objetivo fundamental de describir todo mediante un único conjunto de ecuaciones y, por implicación, la comprensión del propio Big Bang desde el momento de la creación hasta el final de los tiempos. El campo unificado, que Paul Davies ha denominado «superfuerza», es la clave para entender no sólo cómo funciona el mundo en la actualidad, sino cómo llegó a ser como es. La búsqueda de la superfuerza sigue un camino que comenzó a trazarse en 1954, tan sólo un año antes de la muerte de Einstein, cuando un físico de origen chino que trabajaba en Estados Unidos publicó, junto a un colega americano, un artículo en el que aplicaba la idea de la teoría gauge local al problema de la fuerza fuerte. Su modelo no conseguía una descripción particularmente ajustada de la fuerza fuerte, pero marcó un avance conceptual crucial que animó a otros investigadores a afrontar otros problemas mediante técnicas similares. Irónicamente, los primeros frutos de este ataque a la fuerza fuerte resultaron ser una mejor comprensión de la interacción débil.

§. Unificación electrodébil
Chen Ning Yang nació en Hefei, China, en 1922. Su padre fue profesor de matemáticas y el propio Yang estudió en las universidades chinas de Kunming y Tsinghua, donde obtuvo una maestría antes de ir a Chicago en 1945 para trabajar en su tesis doctoral, que obtuvo en 1948 bajo la dirección de Edward Teller. Pasó un año más en Chicago como ayudante de Enrico Fermi, y en 1949 pasó a formar parte del profesorado del Instituto de Estudios Avanzados de Princeton, donde permaneció hasta 1965. Yang estaba interesado en la posibilidad de modelar una teoría de campos de la interacción fuerte siguiendo el ejemplo de la EDC, y se dedicó intermitentemente al problema, aunque sólo con éxito parcial, desde sus tiempos en Chicago hasta 1954. Entonces pasó un año fuera de Princeton, en el Laboratorio Nacional Brookhaven, donde compartió una oficina con el teórico Robert Mills.
Mills y Yang consiguieron construir juntos una teoría de campos invariante frente a transformaciones gauge para la interacción fuerte. La simetría que importa en la teoría de Yang-Mills es la simetría del espín isotópico que ya he mencionado. En esta descripción de los nucleones, los protones y neutrones se representan en el espacio matemático mediante flechas verticales y horizontales, respectivamente; si existe simetría local, entonces es permisible variar el espín isotópico de nucleones individuales en diferentes lugares del Universo, y en tiempos distintos. En otras palabras, existen interacciones que cambian protones individuales en neutrones, y viceversa. Por supuesto, la simple simetría global «sólo» nos permite, en nuestra imaginación, cambiar todos los neutrones en protones y todos los protones en neutrones, y todos al mismo tiempo.
Como ocurre con otras teorías de este tipo, la simetría se conserva cuando hacemos cambios locales en el campo gracias a la adición de algo que contrarreste los cambios que realizamos. En la teoría de Yang-Mills, sólo se consigue preservar las leyes de la física frente a cambios en el espín isotópico si se incluyen seis campos vectoriales. Dos de estos campos equivalen, matemáticamente, a los campos magnético y eléctrico ordinarios, y conjuntamente describen los fotones, que son los portadores de la fuerza electromagnética. Los cuatro campos restantes, tomados en pares, describen dos nuevas partículas similares al fotón pero con carga, una positiva y la otra negativa. Las interacciones entre estas partículas eran, según esta teoría, de una desalentadora complejidad.
Parecía claro que esta forma de abordar el problema de la interacción fuerte era cuando menos incompleta. Para empezar, ninguno de los «fotones» tenía masa, lo que implica que tuvieran alcance infinito, cuando en realidad la fuerza fuerte es, de las cuatro fuerzas clásicas, la que tiene más corto alcance, y por tanto sus partículas portadoras deben tener una masa relativamente grande. Pero las ideas que subyacen al modelo eran, y son, muy interesantes. A un nivel simple, puede imaginarse que dos «fotones» con carga opuesta se unen, como un fotón y un electrón, para formar un «átomo» del campo fuerte. A un nivel más profundo, uno de los descubrimientos fundamentales con importantes consecuencias para el desarrollo de teorías posteriores de las cuatro interacciones fue que, debido a la presencia de fotones cargados, el orden en que se aplica una serie de transformaciones a una partícula fundamental puede afectar de forma crucial su estado final.
Eso suena complicado, así que será mejor examinarlo paso a paso. El estado de un electrón, por ejemplo, puede cambiar por absorción o emisión de un fotón de luz. Si el electrón primero absorbe y luego emite el fotón, acabará en el mismo estado que si primero emitiera el fotón y luego lo absorbiera (suponiendo que comienzan en el mismo estado y los fotones son idénticos). El orden de las interacciones no importa y por tanto la EDC se puede calificar de teoría abeliana. [32]
\r\nLos números ordinarios también se comportan así. Todos sabemos que 2×4 es lo mismo que 4×2, y que 6 + 7 es lo mismo que 7 + 6. Se dice que los números tienen la propiedad conmutativa y, en general, podemos escribir A×B = B×A. Pero en física cuántica, generalmente no ocurre así. Resulta que A×B no es lo mismo que B×A, y se dice que las variables son no conmutativas, o no abelianas. Lo mismo ocurre con los «fotones» cargados de la teoría de Yang-Mills. Si un hadrón cambia por rotación local de la flecha de espín isotópico, y luego cambia una segunda vez por una segunda rotación, diferente, del espín isotópico, el estado en el que acaba depende del orden en que se realizaron los cambios. La teoría de Yang- Mills es una teoría gauge local no abeliana, y resulta que todos los campos fundamentales se describen mediante teorías gauge no abelianas; incluso el electromagnetismo forma parte, como veremos a continuación, de una teoría no abeliana mayor.
Todo esto debe sonar muy profundo y técnico. Pero podemos demostrar las transformaciones no abelianas simplemente con este libro (u otro cualquiera). Basta con que coloquemos el libro plano sobre una mesa frente a nosotros, con la cubierta hacia arriba, a la vista. Si giramos el libro 90º levantando el extremo más lejano a nosotros (la parte de «arriba» del libro), el libro quedará en pie con la cubierta de cara a nosotros. Si ahora miramos el libro desde arriba y lo giramos 180º, quedará en pie con la contracubierta hacia nosotros. Ahora podemos volver a hacer el experimento desde el principio (el libro plano sobre la mesa, la cubierta hacia arriba), pero esta vez realizando las rotaciones en el orden inverso. Primero giramos el libro 180º, de manera que quede plano sobre la mesa pero con el título al revés. Luego lo giramos «hacia arriba» 90º alzando el extremo más lejano. Acabamos con la cubierta de cara a nosotros y cara abajo. Es el mismo libro, con la misma cantidad de energía, pero en un estado diferente. Simplemente hemos sometido el libro a un par de transformaciones no abelianas.
Aunque los teóricos de mediados de los años cincuenta sabían perfectamente que la teoría de Yang-Mills aún necesitaba pulirse, las ideas básicas eran interesantes y estimularon nuevas líneas de pensamiento. Eran ciertamente lo bastante interesantes como para justificar la publicación de un artículo que esbozaba la teoría en 1954. [33] Había de llevarles veinte años de trabajo a los teóricos para desarrollar este enfoque en una teoría satisfactoria de la fuerza fuerte, con muy poco progreso hasta finales de los años sesenta, cuando se reconoció a los quarks como las partículas fundamentales, y a los gluones como los portadores de la verdadera fuerza fuerte. Pero entre tanto las ideas se trasladaron a la teoría de la interacción débil, y después a la teoría electrodébil que une el electromagnetismo con la fuerza débil.
Julián Schwinger fue una suerte de niño prodigio en matemáticas. Nacido en 1918, entró en el City College de Nueva York a la edad de catorce años, luego se trasladó a la Universidad de Columbia, donde se licenció a la edad de diecisiete años, para obtener un doctorado sólo tres años más tarde. Trabajó con Robert Oppenheimer (el «padre de la bomba atómica») en la Universidad de California, luego en la Universidad de Chicago y en el MIT antes de obtener una plaza de profesor en la Universidad de Harvard en 1945. Un año más tarde, con veintiocho años de edad, se convirtió en uno de los profesores titulares más jóvenes nombrados en tan augusta institución. Schweiger contribuyó significativamente al desarrollo de la EDC, y en 1965 compartió el Premio Nobel de Física con Richard Feynman y Shin’ichiro Tomonaga, de la Universidad de Tokio, por su trabajo. [34]
\r\nAsí que Schwinger tenía la base necesaria para abordar la idea de Yang- Miller y aplicarla a la fuerza débil y el electromagnetismo. Las reglas del juego son ligeramente diferentes en el caso de la interacción débil. En la desintegración beta, por ejemplo, un neutrón se convierte en protón, de modo que se altera la simetría del espín isotópico (isospín). Pero al mismo tiempo en esta interacción un neutrino se convierte en electrón (o, lo que es lo mismo, se crean al mismo tiempo un antineutrino y un electrón), de manera que se produce una transformación en el mundo de los leptones análoga al cambio de isospín del mundo de los hadrones. Esto lleva a la idea de «isospín débil», un parámetro cuántico como el isospín, pero que se aplica igualmente a leptones y hadrones. En 1957, Schwinger tomó la teoría gauge local no abeliana desarrollada por Yang y Mills para la fuerza fuerte y la aplicó conjuntamente a la fuerza débil y al electromagnetismo (EDC). Como la teoría de Yang-Mills, su versión postulaba «nuevos» bosones vectoriales, uno sin carga y otros dos con carga. Y, al igual que Yang y Mills, identificó los cuantos de campo sin carga como fotones. Pero, a diferencia de Yang y Mills, en el tratamiento de Schwinger los dos bosones vectoriales cargados se pudieron interpretar como W+ y W-, los portadores de la fuerza débil. Las masas todavía constituían un problema. Era necesario introducirlas en la teoría de las partículas W casi manualmente y ad hoc allí donde fuera preciso. Pero a pesar de sus obvias tachas, esta teoría otra vez estimuló nuevas ideas interesantes. Implicaba que la fuerza débil y la fuerza electromagnética tenían «realmente» una magnitud similar, eran en cierto modo simétricas, pero esta simetría se perdía, o se rompía, porque las partículas W tenían masa (y por tanto un alcance limitado) mientras que el fotón no tenía masa (y por tanto un alcance infinito).
Esto condujo a dos líneas de desarrollo de la teoría de campos. Sidney Bludman, de la Universidad de California en Berkeley, resiguió las relaciones con la teoría de Yang-Mills y apuntó en 1958 que la fuerza débil sola podía describirse mediante una teoría gauge local no abeliana con tres partículas, la W+, la W- y un tercer bosón vectorial, con carga cero, llamado Z 0, o simplemente Z. Esto dejaba al electromagnetismo fuera de escena por el momento, pero traía consigo la implicación de que debía haber interacciones débiles en las que no interviniera la carga eléctrica: las mediadas por las partículas Z, a las que se conoce como interacciones de corriente neutra. Todos estos cuantos de campo seguían teniendo masa cero en el modelo de Bludman, así que el modelo seguía estando un tanto alejado de la realidad. Pero estaba quizá menos lejos de la «respuesta» que los modelos anteriores.
Entre tanto, Sheldon Lee Glashow, un físico nacido en el Bronx en 1932 y licenciado por la Universidad de Cornell en 1954, había estado trabajando en su doctorado bajo la dirección de Schwinger. Había hallado una manera de tomar la variación sobre el tema de Bludman y combinarla con una descripción del electromagnetismo, generando así un modelo, que publicó en 1961, que incluía un triplete de bosones vectoriales portadores de la fuerza débil y un único bosón vectorial portador de la fuerza electromagnética. El único beneficio inmediato de este enfoque fue que demostró que era posible combinar el singlete y el triplete de tal modo que se produjera una partícula neutra con masa, Z, pero se dejara la otra, el fotón, sin masa, en lugar de tener dos partículas neutras, ambas con masa. Pero todavía era preciso introducir las masas manualmente para destruir la simetría entre las fuerzas electromagnética y débil en las ecuaciones básicas y, lo que era aun peor, no parecía que la teoría pudiera renormalizarse y se resentía de los mismos infinitos que aparecían en la EDC, donde se podían eliminar mediante un juego de manos matemático. El juego de manos necesario para introducir la masa en los primeros modelos electrodébiles impedía realizar la renormalización.
Al mismo tiempo, desde finales de los años cincuenta y hasta principios de los años sesenta, el físico paquistaní Abdus Salam y su colega John Ward, trabajaban en el desarrollo de una teoría electrodébil muy similar a la propuesta por Glashow. Salam había nacido en Jhang, en lo que hoy es Paquistán, en 1926. Tras estudiar en la Universidad de Punjab, se trasladó a la de Cambridge, donde obtuvo su doctorado en 1952, e impartió clases en Lahore y en la Universidad de Punjab hasta 1954, cuando volvió a Cambridge y, entre otras cosas, dirigió el trabajo del estudiante Ronald Shaw. Los temas de investigación escogidos por los estudiantes suelen reflejar los intereses de sus directores, y el trabajo de Shaw no fue una excepción. Salam estaba realmente interesado en las teorías gauge de las fuerzas básicas de la naturaleza, siguiendo el camino marcado por la teoría de Yang-Mills. En 1957 consiguió una plaza de catedrático de física teórica en el Imperial College de Londres, y en 1964 impulsó la creación del Centro Internacional de Física Teórica en Trieste, un instituto que proporciona oportunidades de investigación a físicos de los países en vías de desarrollo. Hasta su muerte en 1997, Salam fue director del Centro de Trieste, dividiendo su tiempo entre este centro y el Imperial College.
La variación sobre el tema electrodébil de Salam-Ward (Ward, un físico británico, trabajó varios años en diversas instituciones norteamericanas durante los años sesenta, entre ellas la Universidad John Hopkins) adolecía de los mismos defectos que la versión de Glashow’: era necesario introducir las masas manualmente y, a causa sobre todo de esto, era imposible renormalizar la teoría. El primer paso hacia la solución de este problema se dio en 1967 cuando Salam e, independientemente, el físico americano Steven Weinberg, hallaron una forma de hacer que aparecieran las masas de los bosones vectoriales débiles de forma natural (bueno, casi natural) en las ecuaciones. El truco utilizaba la rotura espontánea de simetría, y nuevamente dependía de ideas que se habían desarrollado inicialmente en el contexto del campo fuerte.
Se puede comprender la ruptura de simetría bastante fácilmente en el contexto del más débil de los campos, la gravedad. Para un astronauta en caída libre en un laboratorio espacial no existen direcciones especiales en el espacio. Si el astronauta suelta un bolígrafo, éste flota en cualquier dirección en que lo empuje el astronauta. Todas las direcciones son equivalentes: existe una simetría básica. Sobre la superficie de la Tierra es diferente. Si se empuja un bolígrafo en cualquier dirección y se suelta, caerá siempre en el mismo sentido, hacia abajo. «Hacia abajo» significa hacia el centro de la Tierra. Si soltamos un bolígrafo en el Polo Norte cae hacia abajo; si lo hacemos en el Polo Sur, también cae hacia abajo. Pero ambos «hacia abajo» son contrarios. El campo gravitatorio de la Tierra oculta, o rompe, la simetría básica.
Otra forma de simetría oculta se aplica al imán común, que siempre tiende a alinearse en la dirección norte-sur, por bien que las ecuaciones del electromagnetismo sean simétricas. Esta forma de simetría oculta fue discutida hace medio siglo por el físico Werner Heisenberg, el mismo Heisenberg que derivó las relaciones de indeterminación por primera vez. Pero el ejemplo más fácil de entender concierne nuevamente a la gravedad. Imaginemos una superficie perfectamente lisa y simétrica en forma de sombrero mexicano, con el ala vuelta hacia arriba. Si el «sombrero» reposa sobre una superficie plana nivelada, entonces es perfectamente simétrico en el campo gravitatorio de la Tierra. Ahora imaginemos que colocamos una bola pequeña en la punta de la copa del sombrero. Todo es todavía perfectamente simétrico, en tanto que la bola no se mueva. Pero ya sabemos que pasa en una situación así. La bola es inestable y acabará por caer por un lado de la copa hasta reposar en el ala del sombrero. Una vez ocurre esto, el conjunto formado por bola y sombrero deja de ser simétrico. Existe ahora una dirección especial asociada al sistema, una dirección definida por la línea que apunta del centro del sombrero al punto donde reposa la bola en el ala. Este sistema es estable, se encuentra en el estado de menor energía fácilmente alcanzable, pero ya no es simétrico. En las teorías del tipo Yang- Mills, las masas asociadas a los cuantos de campo pueden surgir de una ruptura de simetría similar dentro del «espacio interno» abstracto en que apuntan las flechas del isospín.

013.jpg
Figura 3.1. Simetría de «sombrero mexicano». La bola en la punta de la copa representa una simetría inestable (véase la figura 2.7), que se rompe en cuanto la bola rueda en cualquier dirección hasta la base del ala.

La idea se elaboró gradualmente durante los años cincuenta y sesenta a partir del trabajo de varios físicos matemáticos, pero floreció plenamente con el trabajo de Peter Higgs, de la Universidad de Edimburgo, entre 1964 y 1966. Higgs se formó en el King’s College, en Londres, desde 1947, y obtuvo el título de doctor en 1954. Consiguió una plaza en Edimburgo en 1960. Aunque la línea de pensamiento en que se basa el mecanismo que propuso es demasiado complicada para detallarla aquí, sus implicaciones pueden entenderse en términos del mismo lenguaje con que nos estamos familiarizando. Higgs propuso que debe añadirse al modelo de Yang-Mills un campo tal que posea la propiedad insólita de no presentar la mínima energía cuando el valor del campo valga cero, sino cuando el campo tome un valor superior a cero. El campo electromagnético, como la mayoría de campos, tiene energía cero cuando el valor del campo es cero, y el estado en que todos los campos tienen mínima energía es lo que denominamos vacío. Si todos los campos fueran como el electromagnético, podríamos decir que en el estado de vacío todos los campos toman el valor cero. Pero el campo de Higgs toma un valor distinto de cero aun en su estado de mínima energía, lo cual confiere al vacío un carácter que de otro modo no tendría. Para reducir a cero el campo de Higgs sería preciso añadir energía al sistema.
Esto tiene profundas implicaciones. En términos de isospín, el campo de Higgs proporciona un marco de referencia, una dirección contra la cual medir la flecha que define el protón o el neutrón. Puede distinguirse un protón de un neutrón comparando la dirección de su flecha de isospín con la dirección definida por el campo de Higgs. Pero cuando la flecha de isospín gira durante una transformación gauge, la flecha de Higgs también gira, de modo que el ángulo sigue siendo el mismo. El ángulo que solía corresponder a un protón ahora corresponde a un neutrón, y viceversa. Sin el mecanismo de Higgs no habría manera de diferenciar entre protones y neutrones porque no se dispondría de nada con que comparar sus diferentes isospines. Y el campo de Higgs consigue esto aun cuando el campo en sí es escalar, con magnitud en cada punto del espacio «real», pero sin apuntar en ninguna dirección particular.
El efecto que todo esto ejerce sobre los bosones vectoriales es drástico. La teoría de campos requiere cuatro bosones de Higgs escalares, y como ya sabemos, el enfoque básico de Yang-Mills produce tres bosones vectoriales de masa cero. Cuando se juntan los dos elementos, tres de los bosones de Higgs y tres de los bosones vectoriales se funden entre sí; en la terminología gráfica de Salam, cada uno de los bosones vectoriales se «come» una de las partículas de Higgs. Cuando esto ocurre, los bosones vectoriales ganan masa y adquieren un espín correspondiente al espín de los bosones de Higgs. En lugar de tres bosones vectoriales sin masa y cuatro partículas de Higgs, la teoría predice que debe haber tres bosones vectoriales observables, cada uno con una masa definida, y un bosón escalar de Higgs, que también tiene masa grande, aunque la teoría no puede predecir su valor exacto. El campo de Higgs rompe la simetría subyacente de la manera justa para que encaje con lo que observamos. A costa de una sola partícula todavía no detectada, la masa aparece de forma natural en todas las variaciones del enfoque de Yang-Mills.
El propio Higgs había estado trabajando sobre el campo fuerte. Pero sus ideas fueron pronto trasladadas a la incipiente teoría electrodébil. El primero fue Steven Weinberg, en 1967. Weinberg era contemporáneo de Glashow (aunque seis meses más joven, habiendo nacido en mayo de 1933), y ambos cursaron juntos el bachillerato en el Bronx High School (graduándose en 1950), y estudios universitarios en la Universidad de Cornell, donde Weinberg se licenció en 1954. A partir de aquí sus caminos divergieron, aunque Weinberg acabó produciendo un modelo muy semejante a la descripción de Glashow de la interacción electrodébil, con el añadido de incluir un mecanismo de tipo Higgs. Para 1960 había llegado a Berkeley, donde permaneció hasta 1969 para ir primero al MIT y después, en 1973, a Harvard. El enfoque de Weinberg para la unificación electrodébil era esencialmente suyo, aunque se basaba en la misma cultura, el mismo acervo de conocimientos de física, de que se servían Glashow y Salam. Su interés por la interacción débil se remontaba a sus años de doctorado en Princeton, y a partir de los años sesenta trabajó para obtener un equivalente del mecanismo de Higgs a su propio modo. Su modelo electrodébil, que incluía las masas de los bosones vectoriales generados por rotura espontánea de simetría, fue enviado para su publicación en octubre de 1967, y apareció en la revistaPhysical Review Letters antes de que acabara el año. [35]
\r\nSalam se enteró del mecanismo de Higgs a través de un colega del Imperial College pocos meses antes de que Weinberg enviara el artículo para su publicación. Tomó el modelo electrodébil que había elaborado con Ward y le añadió el mecanismo de Higgs, obteniendo así esencialmente el mismo modelo que había desarrollado Weinberg, en el que las masas aparecían naturalmente, y dio una serie de conferencias sobre su nuevo modelo en Imperial College en 1967, seguidas de una charla en el Simposio Nobel en mayo de 1968, que salió después publicada en las actas del simposio.
A su debido tiempo, Glashow, Salam y Weinberg recibieron conjuntamente el Premio Nobel de Física por su papel en la elaboración de una teoría electrodébil unificada, un paso tan importante como lo había sido un siglo atrás el desarrollo, por parte de Maxwell, de una teoría electromagnética unificada. [36] «A su debido tiempo» no fue hasta 1979. Hizo falta algún tiempo para que la mayoría de físicos teóricos apreciaran plenamente la significación del modelo de Weinberg-Salam, algo que no ocurrió hasta 1971, cuando un físico holandés, Gerard’t Hooft, demostró que esta versión de la teoría electrodébil era en verdad renormalizable. Poco más tarde, en 1973, unos experimentos en el CERN obtuvieron las pruebas empíricas de las elusivas interacciones de corriente neutra que la teoría predecía, interacciones mediadas por la partícula neutra Z. Fue la normalización de la teoría por ’t Hooft lo que condujo al desarrollo explosivo de la teoría de campos en los años setenta, a una teoría de la interacción fuerte, e incluso a una comprensión de los primeros momentos de la vida del Universo.

§. La teoría gauge madura
Tal como la he narrado, la historia del desarrollo de las teorías gauge en los años cincuenta y sesenta puede parecer lógica y ordenada, el progreso inexorable de la ciencia. Pero eso es verdad sólo hasta cierto punto. En particular, el camino seguido por Weinberg, Salam y el resto durante los años sesenta era por aquel entonces poco más que un camino secundario de la ciencia. Los teóricos que entonces tenían escarceos con las teorías gauge locales no abelianas eran tanto matemáticos como físicos y se sentían atraídos tanto por las ecuaciones y las simetrías por su interés inherente, como por la relación que pudieran guardar con el mundo real. Es sólo gracias a nuestra mirada retrospectiva que podemos examinar la historia desde finales de los años noventa y apreciar la importancia de ese hilo particular en todo el tapiz de la ciencia. Y eso queda muy claro en la escasa atención que el artículo de Weinberg sobre la unificación electrodébil, publicado en 1967, recibió durante los siguientes cuatro años.
El destino de los artículos científicos publicados en las revistas más importantes, como es el caso del artículo de Weinberg, [37] se sigue en las páginas de una publicación llamada Scientific Citation Index, que confecciona listas anuales del número de veces que cada artículo se cita en otros artículos publicados en las principales revistas. En 1967, 1968 y 1969 nadie citó el artículo de Weinberg (ni siquiera el propio Weinberg). En 1970, hubo una sola cita; en 1971 hubo cuatro; en 1972, sesenta y cuatro; y en 1973, ciento sesenta y cuatro. [38] La repentina subida después de 1971 fue debida enteramente a los progresos realizados por Gerard’t Hooft cuando mostró que las teorías gauge en general, y la teoría electrodébil en particular, eran renormalizables.
El progreso hasta este logro fue lento y difícil; no vale la pena detallar aquí todos los desvíos a callejones sin salida que se produjeron durante el camino. Así que, una vez más, el progreso puede parecer simple y directo, pero conviene recordar que sólo lo parece así porque gozamos del beneficio de la retrospectiva.
Este hilo de la historia comienza con el trabajo de otro físico holandés, Martin Veltman, nacido en 1931, que estudió en la Universidad de Utrecht y pasó cinco años en el CERN antes de obtener una plaza de profesor de física en su antigua universidad. Veltman desarrolló él solo, por un camino indirecto, un conjunto de ecuaciones gauge equivalente al modelo de campos de Yang-Mills, y aunque desorientado tras una conversación con Richard Feynman en 1966, en la que Feynman abogaba por un enfoque diferente a los problemas de la física de partículas, finalmente decidió seguir la sugerencia de John Bell, un físico británico del CERN, de que la mejor vía de progreso pasaba por el desarrollo de un modelo tipo Yang- Mills para la interacción débil. Abordó el problema a su manera, mediante la técnica de las integrales de trayectoria desarrollada por Feynman que, por aquel entonces, pocos físicos tomaban seriamente como una herramienta práctica.
El problema grave más obvio de todos los modelos del tipo Yang-Mills era la aparición de infinitos que no podían eliminarse. A mediados de los años sesenta, parecía que no hubiera manera de eliminar estos infinitos, que las teorías eran en principio no renormalizables. Pero con la ayuda de computadoras electrónicas, que comenzaban a ser cada vez más importantes en este tipo de trabajo a medida que progresaban los años cincuenta, Veltman consiguió encontrar la manera de eliminar la mayoría de los infinitos y demostró que en principio era posible renormalizar la teoría completa. Pasó años cimentando la teoría, sentando las bases, cubriendo una enorme cantidad de terreno, pero nunca logró la renormalización, que era su objetivo. Esa tarea pasó a manos de la siguiente persona en tomar el testigo.
Gerard’t Hooft nació en Holanda en 1946. Comenzó su licenciatura en la Universidad de Utrecht en 1964 e inició su carrera investigadora, como parte de su doctorado bajo la dirección de Veltman, en 1969. Los problemas que decidió afrontar, y la manera como decidió afrontarlos, caían lejos de los temas dominantes de la ciencia. Para empezar, estaba interesado en teorías gauge, que estaban totalmente pasadas de moda. Y encima, siguiendo los pasos de Veltman, decidió afrontar los problemas de la teoría gauge mediante la técnica de las integrales de trayectoria de Feynman. Utilizando muchas de las técnicas desarrolladas por Veltman, ’t Hooft consiguió demostrar, en un artículo publicado en 1971, que las teorías gauge sin masa son realmente renormalizables. Éste era un excelente logro para un estudiante que acababa de iniciar su carrera investigadora, pero el problema realmente importante, por supuesto, era renormalizar las teorías que incluían partículas con masa, las Ws y la Z, los bosones vectoriales intermedios que, según se creía, eran los portadores de la fuerza débil. Mucho después, Veltman le relató a Pickering una conversación tan sorprendente que quedó grabada en su memoria y puede repetirse casi palabra por palabra diez años después. Traducida al español, venía a decir algo así:
Veltman: No me importa el qué ni el cómo, pero lo que tenemos que conseguir es al menos una teoría renormalizable con bosones vectoriales con carga y masa, y tanto da si se parece o no a la naturaleza, los detalles se pueden arreglar más tarde.
’t Hooft: Yo puedo hacerlo.
Veltman: ¿Qué dices?
’t Hooft: Que yo puedo hacerlo.
Veltman: Desarróllalo por escrito y entonces veremos. [39]
‘t Hooft lo desarrolló por escrito y Veltman vio que realmente había solucionado el problema. El artículo resultante fue publicado en la revista Nuclear Physics antes de finales de 1971 (vol. B35, p. 167), y ’t Hooft recibió su título de doctor en marzo de 1972. Para entonces, la transformación de la física de partículas y el retorno de las teorías gauge al escenario principal ya habían comenzado gracias a que un físico americano, Benjamin Lee, que había pasado el verano de 1971 en la Universidad de Utrecht y había retornado a los Estados Unidos armado con copias de los dos artículos de ’t Hooft de 1971, hizo correr por Estados Unidos la noticia del trabajo de un oscuro estudiante que había abordado un oscuro problema con una oscura técnica. Lee no sólo confirmó la validez del trabajo de ’t Hooft, sino que lo tradujo a un lenguaje matemático más convencional en su propio artículo, publicado en 1972. Fue el artículo de Lee lo que persuadió a muchos teóricos como Weinberg para que tomaran aquel trabajo en serio, y los convenció de que las teorías gauge de la interacción electrodébil con ruptura de simetría e introducción de masa a través del mecanismo de Higgs eran realmente renormalizables.
En 1973, unos experimentos en el CERN, que consistían en disparar haces de neutrinos de alta energía a través de una enorme cámara de burbujas llamada Gargamelle, produjeron pruebas empíricas de interacciones en las que intervenía la esquiva partícula Z. Los rastros registrados en la cámara de burbujas mostraban que un antineutrino o un neutrino podían interaccionar con un electrón tal como predecía la teoría electrodébil, en una interacción mediada por la partícula Z0 (como no hay transferencia de carga, esta interacción se califica de «corriente neutra»). Experimentos posteriores confirmaron la plausibilidad de esta interpretación de los eventos: tras analizar unos tres millones de fotografías de eventos ocurridos dentro de Gargamelle, los físicos hallaron 166 ejemplos de interacciones cuya mejor explicación se obtenía mediante las corrientes neutras. Para entonces, también los experimentadores habían quedado convencidos de que la teoría gauge electrodébil era la mejor teoría para explicar las interacciones en que intervenían leptones y fotones.

014.jpg
Figura 3.2. La naturaleza no siempre tiene una simetría subyacente. En este caso, la situación sería asimétrica aunque no hubiera bola (cf. figura 2.7). La bola puede hallarse en un estado correspondiente a un mínimo de energía local que no sea el estado más estable posible, como en el caso de la partícula alfa en el interior del núcleo (véase la figura 1.4). A niveles de energía alta, muy por encima de los dos valles, la simetría no es patente; a bajas energías, hay una elección de estados. Eventualmente, la bola alcanza el estado de mínima energía.

La significación de estos hallazgos, acoplada a la renormalización de la teoría electrodébil de ’t Hooft, era tan profunda que Weinberg, Salam y Glashow recibieron el Premio Nobel en 1979, aunque por aquel entonces todavía no se había demostrado empíricamente la existencia de las partículas W y de la Z. Pero la teoría no sólo predecía que estas partículas debían existir, sino que además predecía su masa. Las Ws debían tener cada una masa de unos 92 GeV (algo menos de 100 veces la masa de un protón) y la Z0 debía tener una masa de unos 82 GeV. Para crear estas partículas*y observar como se desintegran, se necesita un acelerador de partículas que pueda aportar por lo menos esta energía para las colisiones. El CERN construyó en Ginebra un acelerador con estas características donde se hacía colisionar un haz de protones de frente contra un haz de antiprotones. Y durante los primeros meses de 1983 el acelerador produjo la evidencia clara para probar la existencia de partículas W y Z, con masas muy cercanas a las predichas; las partículas se producen en las colisiones y luego se desintegran en electrones energéticos y otras partículas. [40] Sin duda este descubrimiento, que confirmaba los desarrollos teóricos galardonados en 1979, trajo su dosis de alivio al Comité del Nobel, que se apresuró a conceder el premio de Física de 1984 a Cario Rubbia, el director del equipo del CERN que realizó el trabajo experimental.
Es fácil apreciar el significado de estas masas para la unificación de las fuerzas en el Big Bang. Cuando la densidad de energía (temperatura) del Universo era lo bastante grande, las partículas con masas de poco menos de 100 GeV podían aparecer espontáneamente en pares de partícula y antipartícula. Y, lejos de estar limitadas a existir durante el breve tiempo que permite el principio de indeterminación, las portadoras de la interacción débil podían existir durante un tiempo más dilatado gracias a que la abundante energía libre que las rodeaba podía convertir cualquiera de estas partículas virtuales en partícula real. En tanto que la masa de la partícula fuera inferior a la energía disponible, podía existir indefinidamente, como los fotones, y la distinción entre fotones, Ws y Zs se desvanecía. A energías suficientemente elevadas, durante las primeras fases del Big Bang, no existía distinción entre la fuerza electromagnética y la fuerza débil. La distinción aparece únicamente porque vivimos en un Universo frío, donde se rompe la simetría. Las Ws y Zs comenzaron a «congelarse» y desaparecer de nuestro Universo cuando las temperaturas descendieron por debajo de 1015 K, aproximadamente una mil millonésima de segundo después del momento de la creación. Es entonces cuando las fuerzas electromagnética y débil tomaron caminos diferentes —hasta que la humanidad intervino, a una modesta escala, para recrear durante una minúscula fracción de segundo, en un minúsculo volumen del espacio del interior de una máquina cerca de Ginebra, las condiciones que habían existido en todo el Universo una mil millonésima de segundo después de la creación.
Para 1985, el colisionador protón-antiprotón del CERN producía energías de 900 GeV, un nuevo récord mundial, y para finales de los años ochenta, los bosones vectoriales intermedios ya se producían de forma rutinaria. Pero no será posible reproducir el mismo éxito con la creación de las partículas requeridas por teorías unificadas de las fuerzas de la naturaleza de mayor rango. Las nuevas teorías basadas en los triunfos de la teoría gauge electrodébil predicen partículas con masas que están muy por encima del nivel que pueda alcanzar cualquier acelerador construido por el hombre. Energías tan altas sólo estuvieron disponibles durante los primeros estadios del propio Big Bang. Así que el Universo se ha convertido en el campo de pruebas de las últimas ideas propuestas en la física de partículas. No obstante, las ideas deben mucho a las teorías del electromagnetismo y de la fuerza débil que las precedieron.

§. Quarks con color
A mediados de los años sesenta se conocía dos familias de leptones, cada una de ellas compuesta por una partícula del tipo del electrón y un neutrino. Los pares son el electrón y su neutrino, y el muón y su neutrino. Cuando se introdujo la idea de los quarks, sólo se necesitaban tres para explicar todas las partículas conocidas. Los quarks arriba y abajo formaban un par, mientras que el quark extraño estaba solo. De hecho, en el artículo en el que presentó sus ideas, Gell-Mann especuló que podía haber un cuarto quark que hiciera pareja con el quark extraño, dando un total de dos pares de quarks para igualar los dos pares de leptones. Pero pronto se desechó la idea porque no se disponía de ninguna evidencia de que existieran partículas que necesitaran el quark hipotético. El problema de cómo podían coexistir en el mismo estado tres quarks a todas luces idénticos para formar una partícula como omega menos era mucho más apremiante y absorbió buena parte de la energía puesta en la investigación por parte de aquellos físicos que ni siquiera se molestaron en poner alguna energía en la teoría de los quarks a mediados y finales de los años sesenta, antes de que se probara su valía.
Walter Greenberg, un teórico que trabajaba en la Universidad de Maryland, quedó cautivado por la idea de los quarks tan pronto como se introdujo, en 1964, porque le proporcionaba una aplicación práctica para unas ideas sobre las teorías de campos que había venido desarrollando durante varios años. En un principio, Greenberg estaba simplemente interesado en desarrollar versiones matemáticas de la teoría de campos, con poco o ningún énfasis en sus aplicaciones. Pero una de sus ideas abstractas, llamada «paraestadística», resultó ser pertinente para el problema de los quarks. Greenberg enseguida aplicó sus ideas abstractas al nuevo modelo de los hadrones y obtuvo unos resultados interesantes. Aunque su enfoque era muy técnico, venía a sugerir que podía haber diferentes variedades de «paraquarks» que obedecieran las leyes de la paraestadística, y que los tres quarks aparentemente idénticos de omega menos y de otros hadrones se podían distinguir mediante una propiedad previamente insospechada que venía en tres variedades. Dos teóricos se hicieron eco de la idea, Yoichiro Nambu, de la Universidad de Chicago, y M. Y. Han, de la Universidad de Siracusa. Ambos colaboraron en 1965 en el desarrollo de una versión de la técnica de Greenberg que se enraizara de forma más natural en el mundo de los experimentadores, y que fuera por tanto más accesible a los físicos que la versión matemáticamente elegante de la paraestadística.
La idea que subyacía a todo este trabajo era que cada uno de los quarks conocidos podía presentarse en tres variedades, que en la actualidad denominamos colores. La terminología no es más que una forma conveniente de etiquetar, como los nombres «arriba» y «abajo». Pero nos permite entender que existe una diferencia entre un quark arriba rojo y un quark abajo rojo. Las ecuaciones matemáticas nos dicen cómo interactúan los tres tipos de quarks, y lo hacen con elegante exactitud. Pero el núcleo de lo que nos dicen puede captarse fácilmente en simples términos de colores, a la luz de lo que nos dicen las ecuaciones. Por ejemplo, omega menos puede concebirse como si estuviera compuesta por tres quarks extraños, cada uno con idéntico espín, pero uno de color «rojo» (r), otro de color «azul» (b), y un tercero de color «verde» (g), de manera que son distinguibles y por tanto no son partículas idénticas en idéntico estado. Los colores no son más que un recurso mnemónico, unas muletas mentales que nos ayudan a comprender. Pero los físicos matemáticos nos aseguran que las imágenes invocadas por la analogía no se alejan demasiado de la realidad.
Eso es, al menos, lo que piensan hoy. Pero en 1965 todo esto se veía más como un truco matemático que algo con significado profundo. Nambu y Han enturbiaron un poco las aguas al introducir más tripletes de quarks en un intento de eliminar la necesidad de cargas fraccionarias, pero como eran pocos los que entonces se tomaban en serio las ideas sobre los quarks, todo este trabajo pasó bastante desapercibido. No obstante, la idea ofreció nuevas pautas para el comportamiento de los quarks, y resolvía el rompecabezas de por qué los quarks sólo se daban en tripletes (en los bariones) o en pares (en los mesones). Con sólo especificar la regla de que las únicas combinaciones «permitidas» eran las incoloras, Nambu consiguió explicar el reparto de hadrones entre estas dos familias. Cada mesón, postuló, debe estar compuesto por un quark de alguno de los colores y un antiquark de cualquier tipo, pero del anticolor correspondiente. Un rojo, por ejemplo, puede aparearse con un arriba antirrojo o con un extraño antirrojo. En cada uno de estos casos, el rojo y el antirrojo se «cancelan», en términos matemáticos.

015.jpg
Figura 3.3. Tres quarks pueden constituir un barión ten este caso, un protón), siempre y cuando sean de diferente color. Un par quark-antiquark forma un pión, pero el color de uno de los quarks debe quedar cancelado por el anticolor equivalente del otro quark. «Anti» se denota mediante una barra sobre el símbolo de la partícula.

La otra manera de conseguir un estado neutro, argumentó, es mezclando los tres colores en una sola partícula: un quark rojo, un quark azul y un quark verde, cada uno de los cuales puede ser arriba, abajo o extraño. Y lo mismo con tres anti-quarks de diferente color. Pero los quarks individuales, o los grupos de cuatro, por ejemplo, tendrían color, lo que al parecer está prohibido.
Para 1970 comenzaron a obtenerse resultados experimentales que parecían concordar con el modelo de colores de los quarks, y el concepto comenzó a ganar terreno. Aproximadamente al mismo tiempo, Glashow y dos de sus colegas de Harvard, John Iliopoulos y Luciano Maiani, reavivaron la idea de un cuarto quark, al que Glashow dio el nombre de «encanto» (charm o c), con el fin de poner orden en la interpretación teórica de otras observaciones experimentales extrañas. En 1971, Murray Gell-Mann y Harald Fritzsch, que nació en Zwickau en 1943 y es hoy profesor de investigación de física en el Instituto Max-Planck de Física de Munich, adoptaron la idea del color y comenzaron a desarrollar una teoría de campos que describiera el comportamiento de las interacciones entre partículas que vinieran en tres variedades. Ya en otoño de 1972, Gell-Mann y Fritsch propusieron que la mejor descripción de la estructura de los hadrones se obtenía mediante una teoría gauge de tipo Yang-Mills tal que los tripletes de quarks de colores interactuaran entre sí por mediación de un octeto de gluones. La simetría era más compleja, y los números, mayores, pero los principios eran los mismos de las satisfactorias teorías de EDC y de la fuerza electrodébil.
Nuevamente podemos comprender las ideas en términos de simetría. En este caso, tenemos que imaginar que cada barión contiene tres quarks, y que cada quark tiene alguna manera de seleccionar un color, una suerte de puntero interno, como la flecha hacia arriba o a través para el isospín, pero ahora con tres opciones, correspondientes a los tres colores. Una transformación gauge global simétrica giraría cada uno de los punteros en el sentido de las agujas del reloj, digamos que 120º, cambiando de este modo el color de cada quark, pero dejando inalteradas las leyes de la física. Una transformación gauge simétrica local cambiaría el puntero (color) de uno solo de los quarks del barión, pero todavía dejaría el mundo inalterado. La manera de restablecer la simetría en las transformaciones locales es, como anteriormente, aportando nuevos campos, en este caso los correspondientes a los ocho gluones, todos los cuales tienen masa cero (en la versión inicial de la teoría) y una unidad de espín; son bosones vectoriales análogos al fotón.

016.jpg
Figura 3.4. Puede imaginarse el color de un quark como si fuera un puntero que girara en tres posiciones, de modo análogo como el puntero del isospín distingue entre protones y neutrones.

Esta teoría vino a conocerse como cromodinámica cuántica (CDC), una denominación elegida por Gell-Mann a modo de imitación consciente de la electrodinámica cuántica. La CDC dice que cualquier quark es libre de cambiar de color, independientemente de todos los otros quarks, y que lo hace emitiendo un gluón; éste es inmediatamente absorbido por otro quark, que experimenta un cambio de color tal que compensa el cambio de color del primer quark y de este modo mantiene el hadrón incoloro. Todos los hadrones son siempre incoloros por mucho que los quarks de su interior puedan cambiar colores caleidoscópicamente a cada instante. Como los gluones son portadores de color, su comportamiento es muy diferente del de los fotones, que no tienen carga ni interaccionan entre sí. Los gluones interactúan, incluso durante el proceso de portar la fuerza de un quark a otro. Quizás el resultado más extraño de todo esto sea que aunque la fuerza «fuerte» es en realidad bastante débil a una distancia corta (por ejemplo, en el interior del protón), las interacciones de los gluones la hacen más fuerte a distancias mayores, de modo que a una distancia de 10-13 cm es lo bastante fuerte como para mantener a los protones juntos pese a la fuerza de repulsión de sus cargas eléctricas. Es como estirar una goma elástica pegada a un quark a cada extremo, que sólo mantiene a los quarks sueltos hasta que intentamos separarlos. Entonces, cuanto más se extienda, más se estira la goma y mayor es la fuerza que hace por mantener los quarks unidos. En nuestro caso, la «goma elástica» es una corriente de gluones que se están intercambiando entre los dos quarks.
Si se estira con suficiente fuerza, es decir, si se pone suficiente energía en una colisión, la goma elástica acaba por romperse. Pero eso no significa que haya de emerger de la colisión un quark libre. La energía de la fuerza interquark se invierte en la creación de un nuevo quark en cada uno de los extremos rotos, del mismo modo que cuando se parte un imán se «crea» un nuevo polo en cada uno de los nuevos extremos. Así que en lugar de emerger un solo quark, siempre emergen al menos dos, unidos por una corriente de gluones: un mesón. Y, como los gluones son portadores de color, también se ven forzados a viajar en grupo, como los quarks, y no pueden existir aislados; se ha sugerido que ésta es la razón por la que jamás se ha detectado un gluón aislado. Aun careciendo de masa, los gluones son incapaces de esparcirse como los fotones. Pero quizá pueda detectarse en experimentos como los realizados en el CERN grupos de gluones (o «glueballs», «bolas de gluones»). [41]
\r\nEl punto de inflexión de la física de los años setenta ocurrió en 1974, cuando un equipo de Stanford y otro de Brookhaven National Laboratory, en Long Island, obtuvieron, casi simultáneamente, pruebas empíricas de una nueva partícula con masa (que hoy suele denominarse psi) que sólo se puede explicar satisfactoriamente mediante el cuarto quark, «encanto».
Estos descubrimientos llevaron a la concesión del Premio Nobel de Física de 1976 a Samuel Ting, el investigador principal del grupo de Brookhaven, y a Burton Richter, su homólogo en el grupo de Stanford. El descubrimiento fue tan espectacular que en la actualidad los físicos hacen referencia al anuncio de los resultados experimentales, en noviembre de 1974, como la «revolución de noviembre»; una vez hallada una partícula con «encanto», los físicos ya sabían, en un cierto sentido, donde buscar otras, y pronto encontraron toda una familia de quarks con «encanto». Esta familia de quarks proporcionó a los físicos el banco de pruebas para la CDC, que había predicho con éxito muchos de los detalles del comportamiento de las «nuevas» partículas. Una vez identificados cuatro quarks y cuatro leptones, el mundo de las partículas parecía muy ordenado. Pero faltaba dar un (¿último?) paso.

017.jpg
Figura 3.5. La interacción entre dos quarks por intercambio de un gluón también se puede describir mediante un diagrama de Feynman.

En 1975, unos experimentos llevados a cabo en el Acelerador Linear de Stanford sugirieron que pudiera haber aún otro leptón, un «electrón» con el doble de masa que el protón, apodado «tau»; estas indicaciones quedaron confirmadas en Hamburgo un año más tarde. Se suponía, y se dispone todavía de evidencia indirecta de mucho peso, aunque aún no se haya probado, que debe existir también un neutrino tau equivalente, con lo que el número de leptones asciende a seis, en tres pares. Así que los teóricos argumentaron que «debería» haber dos quarks más para restablecer la simetría. Éstos recibieron el nombre de «cima» (top o t) y «fondo» (bottom o b), y en 1977 ya se había probado la existencia del quark fondo; la búsqueda del quark cima llegó a su fin en 1994, cuando se identificó entre los remanentes de unos experimentos de alta energía en el Fermilab, en Chicago. Pero aquí debiera acabar la retahila de quarks. Existen razones cosmológicas convincentes para pensar que no puede haber más de tres pares de leptones en el Universo, y unos experimentos en el CERN de finales de los años ochenta mostraron que el comportamiento de las partículas conocidas a altas energías excluye la posibilidad de una cuarta variedad de neutrino, lo que por implicación descarta la posibilidad de una cuarta variedad de electrón. Pero conviene recordar que el Universo sería exactamente igual a como es hoy si sólo hubiese dos tipos de quarks, arriba y abajo, y dos leptones, el electrón y el neutrino. El resto parece simplemente triplicar el esfuerzo, una (o dos) de esas cosas que se siguen de las ecuaciones y que ocurren por la simple razón de que nada impide que ocurran.

018.jpg
Entidades fundamentales que componen todas las formas de materia conocidas.

La teoría electrodébil y la CDC han tenido tanto éxito en la descripción del mundo de las partículas que a veces se las asocia bajo el nombre de «modelo estándar» de la física. Pero es un modelo todavía incompleto. Falta por combinar la CDC con la teoría electrodébil en una Teoría de Gran Unificación, o TGU; y la gravedad no se incluye en absoluto. De modo que no les falta trabajo a los teóricos en la actualidad. [42] El principal empuje de los esfuerzos actuales se dirige a la búsqueda de supersimetría, y a la posibilidad de que todo en el Universo esté hecho de cuerdas.

Capítulo 4
Buscando a SUSY deseperadamente

En 1991, la búsqueda de la superfuerza dio un importante paso adelante cuando, gracias a unos experimentos en un acelerador del CERN llamado Gran Colisionador de Electrones y Positrones (Large Electron- Positron Collider, o LEP), se consiguió colocar una de las piezas que faltaban en el rompecabezas de la CDC, la mejor teoría que poseemos sobre el comportamiento de los quarks y de la fuerza fuerte. Las nuevas observaciones aumentaron la confianza de los teóricos en la CDC (pasando de calificarla como yo hice en 1986, en la primera edición de En busca del Big Bang, de «buena» teoría, para considerarla ahora una «muy buena» teoría). Aunque no sea un nuevo paso hacia la unificación de todas las fuerzas de la naturaleza, sino más bien la confirmación de que un paso anterior realmente se había dado en la dirección correcta, este paso ha aumentado la confianza de los teóricos en que el camino correcto hacia la superfuerza pasa por añadir la CDC a la teoría electrodébil y a la gravedad.
Como su nombre sugiere, el LEP provoca la colisión frontal de haces de electrones contra haces de positrones o antielectrones. De acuerdo con las predicciones de la teoría, a las altas energías vinculadas a estas colisiones, la aniquilación de un electrón y su antipartícula correspondiente debería producir una partícula Z0, que a su vez se convertiría inicialmente en un par quark/antiquark. Los quarks energéticos producidos en estas interacciones deberían a su vez emitir gluones (de modo parecido a como los electrones acelerados radian fotones), y los gluones a su vez generarían chorros de hadrones, los cuales (a diferencia de los quarks individuales y chorros de gluones) se pueden detectar con los equipos que registran las colisiones entre electrones y positrones en el interior del LEP.

019.jpg
Figura 4.1. Cuando un electrón y un positrón se aniquilan mutuamente en una colisión de alta energía, pueden producir una partícula Z0 (línea de puntos) que se convierte en un quark y un antiquark. Éstos tienen tanta energía que radian gluones (líneas rizadas). Los quarks y los gluones no se pueden detectar directamente, pero los gluones producen chorros de hadrones que sí se detectan. La evidencia empírica de la CDC se obtiene en «eventos de vértices de tres gluones», como en la interacción de abajo derecha.

La característica crucial de la CDC que el LEP ha contrastado recientemente es que los gluones pueden en cierto momento interactuar entre sí, cosa que los fotones no pueden hacer. Como ya he explicado, ésta es la característica que subyace a la extraña manera en que la fuerza fuerte se hace más fuerte cuando intenta apartarse los quarks.
A consecuencia de estas interacciones, es teóricamente posible, dentro del marco de la CDC, que tres corrientes de gluones (y por tanto, tres corrientes de hadrones, al nivel al que operan los detectores del CERN) emerjan de un único punto, conocido como «vértice de tres gluones». En lo que concierne a las ecuaciones, esto es exactamente lo mismo que si una única corriente de gluones se partiera en dos para hacer dos corrientes de gluones (y por tanto de hadrones). La figura 4.1 muestra un ejemplo. La CDC predice que alrededor de una de cada cien interacciones «entre cuatro corrientes» como las mostradas en esta figura llevará la marca de un vértice de tres gluones, y esto es precisamente lo que el LEP detectó en la primavera y verano de 1991, en concordancia con las predicciones de la teoría estándar no abeliana: la prueba de que el número de colores de quarks es realmente tres y que la CDC es una buena descripción de cómo interactúan los quarks. Si los resultados del LEP no hubieran conseguido demostrar los efectos del vértice de tres gluones, o si la estadística de los experimentos hubiera implicado que el número de colores de los quarks no era tres, el modelo estándar de la física de partículas se habría desbaratado. Pero como no ha sido así, los teóricos pueden usarlo con más confianza que nunca como punto de partida hacia una unificación de las fuerzas de la naturaleza.

§. La búsqueda de la supersimetría
Con todo, la CDC no es todavía una teoría tan firmemente establecida como la EDC lo era hace unos cincuenta años. Hizo falta la perspectiva de los años ochenta para poder mirar atrás y distinguir el hilo principal del progreso de la física durante los años sesenta, y sin duda hará falta la perspectiva de los años 2020 o más para mirar atrás a la actual confusión de desarrollos teóricos en torno a la búsqueda de la superfuerza y escoger la línea principal. Intentaré no abogar por ninguna línea en concreto, entre las que se siguen en la actualidad, como si fuera la «mejor» o la «verdadera»; cualquiera que hubiera intentado hacer lo propio en, digamos, 1961, de buen seguro no habría escogido las teorías gauge locales no abelianas como las mejores candidatas a seguir, y mucho menos la idea de que los protones y los neutrones pudieran estar constituidos por otras partículas. Pero puedo esbozar brevemente algunas de las ideas fundamentales más interesantes, al nivel de los conceptos fundamentales de simetría e invariancia gauge. Estas ideas pueden subyacer a varias teorías detalladas entre las que sólo una (confiamos) describe el mundo real. Y por supuesto ofreceré ni que sea una cata de la idea que muchos teóricos consideran la línea de ataque más prometedora en la búsqueda de la superfuerza a finales del siglo XX. En cuanto a si las ideas en concreto que en la actualidad van a la cabecera caerán por el camino, si el pasado reciente nos dice algo es que las ideas simples y poderosas como la simetría realmente nos ayudan a distinguir entre las teorías buenas y las teorías malas.
Para poner las cosas en perspectiva, la EDC es una teoría excelente, la teoría electrodébil es una teoría verdaderamente muy buena, y la CDC es una teoría muy buena, a juzgar por los problemas resueltos hasta el momento y los que todavía están por resolver. Las semejanzas de familia entre las teorías quizá sean la mejor indicación de que estas teorías realmente le siguen la pista a algo más fundamental que unificará todas las fuerzas de la naturaleza en una superteoría de la superfuerza. El electromagnetismo es la más simple, y hace referencia únicamente a una carga. El campo débil se caracteriza por una propiedad que toma dos valores, el isospín, y relaciona dobletes de quarks y dobletes de leptones. Los quarks se dan en tripletes, y vienen descritos por un campo algo más complicado. Pero los mismos principios subyacen a los singletes de la EDC, los dobletes del campo débil y los tripletes de la CDC, y eso es lo que ha permitido combinar las dos primeras en una teoría unificada. Además, el color de la CDC es exactamente análogo a la carga eléctrica de la EDC, con la salvedad de que se da en tres variedades. Las partículas que no tienen carga no pueden percibir el campo electromagnético; las partículas que no tienen color (los leptones) no pueden percibir el campo de la CDC.
Impulsando estas ideas en la misma dirección, muchos teóricos han intentado construir una Teoría de Gran Unificación que englobe la teoría electrodébil y la CDC. La mayoría de TGUs propuestas pertenecen a la misma familia de teorías, que surgió de las líneas de investigación de Glashow y su colega de Harvard, Howard Georgi, a mediados de los años setenta. Todas estas teorías tratan las partículas en familias de cinco; por ejemplo, una de las familias consiste en los tres colores del quark antidown, más el electrón y su neutrino. Los miembros de estas familias pueden convertirse entre sí mediante el mismo tipo de transformación que convierte protones en neutrones o un color de quark en otro color, lo que equivale a girar un puntero con cinco posiciones en su escala. Sólo que ahora es posible convertir leptones en quarks y quarks en leptones. Las TGUs describen una simetría más profunda que cualquiera de las teorías más simples, pero hay que pagar un precio.
La teoría electrodébil sólo precisa de cuatro bosones: el fotón, dos partículas W y la Z. Las TGUs de cinco puntos (abreviadas «teorías SU(5)» en matemáticas), requieren veinticuatro bosones. Cuatro son los que precisa la teoría electrodébil; otros ocho son los gluones que requiere la CDC. Pero todavía quedan doce bosones «nuevos», ocupados en mediar nuevos tipos de interacciones hasta ahora insospechadas. Estas partículas hipotéticas se denominan colectivamente X, como las incógnitas, o Y. Pueden convertir quarks en leptones y viceversa, y tienen cargas de 1/3 o 4/3. Pero tienen una masa muy grande, tanto que su tiempo de existencia está enormemente restringido en el Universo actual, y por tanto desempeñan un papel muy pequeño en la actividad del mundo de las partículas.
De acuerdo con estas teorías, las tres fuerzas (electromagnetismo, interacción débil y fuerza fuerte de la CDC) habrían sido idénticas a energías altísimas, de hasta 1015 GeV, es decir, 1013 (10 billones) de veces superior a la energía de unificación de las fuerzas electromagnética y débil. Esta energía corresponde al momento en que el Universo llevaba tan sólo 10-37 segundos de existencia, a una temperatura de 1029 K, y significa que las masas de las partículas X deben ser de unos 1015 GeV, un billón de veces superiores a la mayor energía alcanzada durante una colisión en el colisionador de protones y antiprotones del CERN. Como no se puede albergar ninguna esperanza de crear estas condiciones artificialmente, los físicos tienen que buscar las pruebas de la existencia de tales partículas en el Big Bang. Sorprendentemente, existe la posibilidad de detectar aquí y ahora un efecto secundario de su existencia.
Si un quark del interior de un protón pudiese tomar prestada suficiente energía de la relación de indeterminación para crear un bosón X virtual e intercambiarlo con otro quark, uno de los quarks se convertiría en electrón (o en positrón). Los dos quarks restantes formarían un mesón (un pión) y el protón se habría desintegrado. Como el bosón X tiene una masa tan grande, su tiempo de vida virtual es tan corto que sólo podría pasar de un quark a otro si estuvieran separados por menos de 10-29 cm, que es diecisiete potencias de diez menor que el tamaño del propio protón (10-17 veces el tamaño de un protón). Los encuentros tan íntimos entre quarks han de ser realmente raros. Pero deben ocurrir de tanto en cuando, con una probabilidad que puede calcularse. Para un protón individual ocurrirá con una probabilidad de una vez en más de 10 30 años (y, según qué teoría prefiera uno, más de 1032 años). La edad del Universo es de tan sólo 1010 años, así que no es de extrañar que siga habiendo protones y parezcan muy estables. Pero como la probabilidad de que un protón se desintegre en un año es 1030, si se dispone de 1030 protones, es bastante probable que se desintegre al menos uno, aunque no se sepa cuál, por cada año de observación.
Se han diseñado experimentos para contrastar precisamente esto, para observar un número ingente de protones durante meses y años con la esperanza de ver cómo se desintegra uno de ellos. Una tonelada de agua contiene unos 1033 protones, y el agua es fácil de conseguir. Se han puesto a punto varios experimentos en varios países para observar los productos de la desintegración de un protón en grandes tanques de agua o en masas de hierro. Todavía no se ha obtenido evidencia en uno u otro sentido. Pero con el paso del tiempo y el límite de la vida de un protón fijado en unos 1031 años, tarde o temprano se habrá de observar algo. Quizás no se tarde en publicar noticias concluyentes, en uno u otro sentido.
Pero no todo anda bien con las TGUs. Una línea de investigación que comenzó con una simple idea de simetría en la teoría gauge se ha vuelto disforme y compleja: siguen proliferando los bosones y el problema del verdadero significado de la renormalización sigue barriéndose debajo de la alfombra, donde forma un bulto más visible cada vez que se incorpora una nueva fuerza a los modelos. Se puede hacer sitio para nuevos quarks y leptones siempre que haga falta, lo que indica una preocupante falta de moderación del lado de las teorías. Para mayor bochorno, todas las TGUs predicen la existencia de monopolos magnéticos, que no se han podido encontrar en el mundo que habitamos. Además, puesto que el número de teorías gauge posible es infinito, es un misterio por qué éstas en particular habrían de ser las que nos dicen algo acerca del mundo real. ¿Y si abandonáramos este proceso de construcción paulatina, este castillo de cartas cuidadosamente dispuestas capa sobre capa, y tornáramos a las raíces?
Esto es lo que Julián Weiss, de la Universidad de Karlsruhe, y Bruno Zumino, del campus de Berkeley de la Universidad de California, hicieron en 1974. Las TGUs nos sorprenden porque relacionan leptones y quarks, pero siguen dejando a los bosones en el limbo como algo diferente del mundo material, como meros portadores de fuerzas. Weiss y Zumino vinieron a decir que, si la simetría es una buena idea, ¿por qué no liarse la manta a la cabeza, abrazar la idea de la supersimetría y relacionar fermiones y bosones?
Parémonos a pensarlo un momento. La distinción entre fermiones y bosones es la gran diferencia en la física cuántica. Los bosones no obedecen el principio de exclusión de Pauli; los fermiones sí. Se parecen tan poco como los huevos y las castañas del proverbio. ¿Es posible que la materia y la fuerza no sean más que dos caras de una misma moneda? La supersimetría dice que sí, que toda variedad de fermión (toda variedad, no toda partícula individual) del Universo debe tener su contrapartida bosónica, y cada tipo de bosón debe tener su propia contrapartida fermiónica. Lo que observamos en nuestros experimentos, lo que percibimos en nuestra experiencia cotidiana, es únicamente la mitad del Universo. Cada tipo de quark, un fermión, debe tener una contrapartida, un tipo de bosón llamado squark; el fotón, un bosón, debe tener una contrapartida, un fermión llamado fotino; y así sucesivamente. Del mismo tenor, debe haber winos, zinos, gluinos y sleptones. Pero explicar adonde han ido a parar todas estas partículas no es problema: en esta fase temprana del juego, los teóricos pueden agitar su varita mágica para invocar alguna forma (no especificada) de rotura de la simetría que haya conferido unas masas tan grandes a estas partículas invisibles que las hubiera dejado fuera de juego cuando el Universo se enfrió.
Afirmar que existe una simetría entre bosones y fermiones suena a barbaridad para quien haya crecido en la creencia de que existe una distinción entre partículas y fuerzas. ¿Pero es realmente una barbaridad? ¿No habíamos topado ya con algo parecido? Después de todo, la física cuántica nos dice que las partículas son ondas y las ondas, partículas. Para un físico del siglo XIX como Maxwell, los electrones eran partículas y la luz, una onda; en los años veinte los físicos descubrieron que los electrones son tanto partículas como ondas, y que los fotones son tanto ondas como partículas. Y éstos son los miembros arquetípicos de las familias de bosones y fermiones. ¿Es que acaso la supersimetría atenta más contra nuestro sentido común que simplemente llevando la dualidad onda-partícula hasta su límite lógico, para decirnos que una partícula-onda es lo mismo que una onda-partícula? La única razón por la que la supersimetría nos parece rara es porque en los dos últimos capítulos nos hemos alejado de las raíces de la física cuántica y, por conveniencia, hemos descrito los eventos del mundo subatómico en términos de colisiones e interacciones entre pequeños corpúsculos sólidos. Si nuestra mente estuviera dotada para concebir los mismos conceptos de forma más abstracta, más cercana a las ecuaciones de la física cuántica; si pudiéramos así comprender cabalmente la naturaleza de la realidad cuántica, donde nada es real si no se observa y no hay manera de saber qué están haciendo las «partículas» salvo cuando interaccionan entre sí, entonces la supersimetría nos parecería mucho más natural. El problema está en nuestra imaginación, no en la teoría. Pero aun con nuestra limitada imaginación podemos apreciar una característica de la nueva teoría que la hace sobresalir sobre la mayoría de candidatos al título de «superfuerza». Lo más espectacular de la supersimetría (o SUSY, abreviadamente) es que los trucos matemáticos necesarios para convertir bosones en fermiones y viceversa implican automática e inevitablemente la inclusión de la estructura de espacio-tiempo y la gravedad.
Las operaciones de simetría necesarias para convertir bosones en fermiones son parientes matemáticos cercanos de las operaciones de simetría de la relatividad general, la teoría de la gravedad de Einstein. Si se aplica una transformación de supersimetría a un fermión, se obtiene su contrapartida bosónica. Un quark, por ejemplo, se convierte en squark. Si se vuelve a aplicar la misma transformación, se obtiene el fermión original, pero ligeramente desplazado hacia un lado. Las transformaciones de supersimetría no implican únicamente a bosones y fermiones, sino que incluyen el espacio-tiempo. Y la relatividad general nos dice que la gravedad es simplemente un reflejo de la geometría del espacio-tiempo.
Pero la idea de la supersimetría se les ocurrió a los físicos de manera un tanto peculiar. Todo comenzó en 1970, cuando Yoichiro Nambu, de la Universidad de Chicago, tuvo la ocurrencia de tratar a las partículas fundamentales no como puntos, sino como unas entidades unidimensionales diminutas llamadas cuerdas. [43] Esto ocurría aproximadamente al mismo tiempo que se comenzaba a tomar en serio el modelo de los quarks, así que durante los años setenta, la idea de Nambu quedó eclipsada por el éxito del modelo de los quarks: se la veía como una rival de esta teoría y no como una idea complementaria. Las entidades fundamentales que intentaba modelar no eran quarks, sino hadrones (partículas, como el neutrón y el protón, que perciben la fuerza fuerte, y que en la actualidad describimos compuestos de quarks). El éxito del modelo de los quarks parecía dejar esta suerte de teoría de cuerdas al margen; pero algunos físicos con inclinaciones matemáticas no cejaron de jugar con ella.
La teoría de cuerdas de Nambu se basaba en trozos de cuerda de apenas 10-13 cm, con sus giros y vibraciones. Las propiedades de las partículas que intentaba modelar de este modo (masa, carga eléctrica y demás) se concebían como si correspondieran a diferentes estados de vibración, como las diferentes notas tañidas en la cuerda de una guitarra, o asociadas de algún modo a los giros de los extremos de las cuerdas. Además, estas vibraciones consistían en oscilaciones en más dimensiones que las tres del espacio más la del tiempo a las que estamos acostumbrados, extremo éste que volveremos a tocar más adelante.
Por desgracia, cuando se llevaron a cabo los cálculos apropiados parecían decir que las entidades descritas por estas cuerdas tenían todas espín entero, en el sentido normal de la mecánica cuántica. En otras palabras, serían todas bosones (portadores de fuerzas, como los fotones). ¡Pero el propósito del modelo era describir hadrones, que son fermiones y tienen espín múltiplo de 1/2! Entonces Pierre Ramond, de la Universidad de Florida, halló un modo de solventar el problema. Descubrió una manera de adaptar las ecuaciones de Nambu para que incluyeran cuerdas con espín múltiplo de 1/ 2 y que por tanto describieran fermiones. Pero la teoría permitía que estas cuerdas fermiónicas se juntaran en pares para constituir bosones con espín entero. John Schwarz, en Princeton, Joel Scherk, en Caltech, y el físico francés André Neveu desarrollaron esta idea hasta elaborar una teoría matemática completa de las cuerdas con espín que incluía tanto bosones como fermiones, pero requería que las cuerdas vibraran en diez dimensiones. Fue Scherk, en particular, quien estableció, en 1976, que los fermiones y los bosones emergieran de esta teoría en igualdad de condiciones, cada fermión con su contrapartida bosónica, y cada bosón con su contrapartida fermiónica. Había nacido la supersimetría.
Todo esto puede verse bajo una luz provechosa, en la que a menudo hace hincapié Ed Witten, uno de los principales actores en el teatro de la supersimetría durante los años noventa. Los bosones son entidades cuyas propiedades pueden describirse mediante relaciones ordinarias de conmutación, reglas familiares como A por B es igual a B por A. En cambio, los fermiones poseen propiedades que no siempre obedecen estas relaciones: no son conmutativos. [44] La matemática necesaria para describir este comportamiento es la de la mecánica cuántica, no la de la mecánica clásica (newtoniana). El concepto de fermión se basa enteramente en los principios de la física cuántica, mientras que los bosones tienen naturaleza esencialmente clásica. La supersimetría pone al día nuestra comprensión del espacio-tiempo para incluir fermiones además de bosones; por consiguiente, actualiza la teoría especial de la relatividad, la primera teoría de Einstein del espacio y el tiempo, trasladándola a la mecánica cuántica.
La profundidad de esta idea se reconoció en 1976, y se vio entonces que el siguiente paso debía ser tratar de traer al redil la gravedad, actualizando así de modo análogo la teoría general de la relatividad, la segunda teoría de Einstein del espacio y el tiempo. De haberse conseguido, el desarrollo de la teoría de cuerdas se habría adelantado una década. Pero no fue así. Aunque el problema de la gravedad estaba en la mente de muchos físicos a finales de los años setenta, por aquel entonces se creía que el siguiente paso debía ser la extensión de la supersimetría para incluir la gravedad, en un paquete teórico apodado supergravedad, sin utilizar para nada la idea de cuerdas.
Casi al mismo tiempo que la supersimetría irrumpía en escena, la teoría de cuerdas que la había traído al mundo se relegaba al olvido. La mayoría de investigadores nunca la habían visto como mucho más que un camino secundario de la física, y hacia 1976 ya había quedado totalmente eclipsada por el modelo de los quarks. Una vez implantada en la mente de los físicos la idea de la supersimetría, no era difícil incorporarla al modelo entonces estándar del mundo de las partículas, tal como hemos bosquejado anteriormente. De hecho, es así como varias generaciones de estudiantes posteriores a 1976 aprendieron la supersimetría, sin ninguna mención de las cuerdas. La física avanzó y dejo atrás la teoría de las cuerdas. Prácticamente los únicos que siguieron trabajando en este campo fueron John Schwarz y, en Londres, Michael Green (Scherk murió joven, sin poder contribuir más a la idea).
Pero mientras la teoría de cuerdas languidecía, su descendencia, la supersimetría, florecía. Un corro de entusiastas se apresuró a adoptar las ideas de SUSY y desarrollar varias líneas de ataque. Una de ellas describe las TGUs de acuerdo con SUSY, y estas teorías se apodan TGUs SUSY. Otra se centra en la gravedad —supergravedad, que se presenta en varias formas con semejanzas de familia pero diferencias en los detalles de construcción. Una de las mejores características de todos los modelos de supergravedad es que todas especifican un número concreto de posibles tipos de partícula en el mundo real (tantos leptones, tantos fotinos, etc.), a diferencia de la inacabable proliferación de familias permitida por las viejas TGUs. Nadie ha conseguido todavía una teoría que especifique el número de tipos de partículas del mundo real, pero esto se ve como un problema menor en comparación con el problema previo de un número potencialmente infinito de tipos de partículas. Una de las versiones preferidas de estas teorías es la llamada supergravedad «N = 8»; sus seguidores entusiastas aseveran que en un solo paquete puede explicarlo todo: fuerzas, partículas de materia y geometría del espacio-tiempo. Pero lo mejor de la supergravedad N = 8 es que no parece meramente renormalizable, sino capaz de renormalizarse a sí misma: los infinitos que han afectado a las teorías de campos durante medio siglo se cancelan por sí mismos en la teoría N = 8, sin que nadie tenga que levantar un dedo para animarlos a hacerlo. N = 8 siempre produce respuestas finitas a los problemas que le plantean los físicos. ¡Eso sí es una «superfuerza»!
Pero un grave problema de la supergravedad es que opera en once dimensiones. ¿Dónde están? Todo el éxito de los años setenta y principios de los ochenta en hallar modos potenciales de traer la gravedad y el espacio-tiempo al redil de la física de partículas recordó a los físicos que, tiempo atrás, en los años veinte, ya se había intentado explicar todas las fuerzas de la naturaleza mediante un espacio-tiempo curvo, tal como se explica la gravedad en la teoría de Einstein. Y, desde el principio, esta técnica no sólo incluía dimensiones superiores (más allá de las cuatro dimensiones familiares), sino también un truco para sacarlas fuera de la vista.

§. Las múltiples dimensiones de la realidad
A principios de 1919 Theodor Kaluza, un joven investigador de la Universidad de Königsberg en Alemania, [45] estaba en su estudio trabajando sobre las implicaciones de la nueva teoría general de la relatividad, que Einstein había presentado tan sólo cuatro años antes y que estaba a punto de ser confirmada, de forma espectacular, por las observaciones de Arthur Eddington de la curvatura de la luz durante un eclipse total de Sol. Como de costumbre, el hijo de nueve años de Kaluza, Theodor hijo, estaba sentado tranquilamente en el suelo del estudio, jugando a sus propios juegos. De repente, Kaluza dejó de trabajar. Se sentó inmóvil durante unos segundos, con la vista clavada en los papeles repletos de ecuaciones de su trabajo. Silbó suavemente, dio una fuerte palmada con ambas manos sobre la mesa, comenzó a tararear su aria favorita, de Fígaro, y se puso a caminar arriba y abajo de la habitación mientras canturreaba.
No era en absoluto el comportamiento habitual del joven padre de Theodor, y la imagen quedó gravada en la mente del niño, que pudo recordarla vivamente sesenta y seis años después, en una entrevista para el programa Horizon de la BBC. [46] La razón del insólito comportamiento de su padre era el descubrimiento que hoy, tras décadas de abandono, se sitúa en el centro de la investigación sobre la naturaleza del Universo.
Mientras manipulaba las ecuaciones de Einstein, en las que la fuerza de la gravedad se explica mediante la curvatura de un continuo de espacio- tiempo en cuatro dimensiones, Kaluza se preguntó, como suelen hacer los matemáticos, qué aspecto tomarían las ecuaciones de escribirse para representar cinco dimensiones. Lo que halló es que su versión de la relatividad general en cinco dimensiones incluía la gravedad, como antes, pero también un nuevo conjunto de ecuaciones de campo que describían otra fuerza. El momento que quedó gravado tan vivamente en la memoria del joven Theodor fue el momento en que su padre escribió las ecuaciones y vio que le resultaban familiares: no eran sino las ecuaciones del electromagnetismo de Maxwell.
Kaluza había unificado la gravedad y el electromagnetismo en un solo paquete, pero al precio de añadir una quinta dimensión al Universo. El electromagnetismo parecía no ser más que la gravedad actuando en una quinta dimensión.
Por desgracia, aunque Einstein no había tenido problema en «encontrar» las cuatro dimensiones (tres del espacio y una del tiempo) para ponerlas en la relatividad general, no se disponía de ningún tipo de evidencia que indicara la existencia de una quinta dimensión en el Universo. Con todo, el descubrimiento de Kaluza era sorprendente, y parecía importante.
En aquel entonces no era tan fácil para un joven científico publicar un descubrimiento espectacular así como así. Hoy, si un investigador tiene una idea brillante, basta con que escriba un artículo y lo envíe a una revista especializada. Los editores de la revista lo envían entonces a uno o varios expertos para que lo evalúen antes de decidir si publicarlo o no. Pero en aquellos días lo que se consideraba correcto era que el autor enviase el artículo primero a una autoridad eminente, quien, de aprobarlo, enviaría el trabajo a una sociedad erudita con su recomendación para que fuera publicado. Así que Kaluza le envió sus resultados a Einstein.
Einstein se mostró inicialmente fascinado y entusiasmado. Escribió en una carta a Kaluza, en abril de 1919, que a él nunca se le había ocurrido la idea y que, «a primera vista, su teoría me satisface enormemente». [47] Pero pronto comenzó a encontrar pequeños problemas y, siendo un perfeccionista, envió una serie de cartas a Kaluza urgiéndolo para que arreglara esos detalles antes de publicarlo. La correspondencia, que hoy parece un tanto quisquillosa, continuó hasta 1921, cuando Einstein tuvo un repentino cambio de opinión (nadie sabe muy bien por qué) y le envió una tarjeta a Kaluza para decirle que él (Einstein) iba a recomendar la publicación. En 1921, ningún editor discutía las recomendaciones de publicación provenientes de Einstein, y el artículo apareció en las actas de la Academia de Berlín aquel mismo año, bajo el título un tanto soso (en alemán): «Sobre el problema de la unificación en la física».
El defecto más patente de la teoría presentada en aquel artículo (aparte de la falta de una quinta dimensión) es que no tomaba en cuenta para nada la teoría cuántica: era, como la propia relatividad general, una teoría «clásica». Con todo, Kaluza hijo recuerda que inicialmente hubo mucho interés en el trabajo de su padre, en 1922, y luego ninguno en absoluto. Hasta Einstein, que pasó el resto de su vida buscando una teoría unificada, parece haber desestimado la idea de Kaluza desde entonces, pese a que en 1926 el físico sueco Oskar Klein halló la manera de incorporar la idea de Kaluza a la teoría cuántica.
El comportamiento de un electrón, o un fotón, se describe en la física cuántica mediante un conjunto de ecuaciones con cuatro variables. Una forma estándar de estas ecuaciones es la llamada ecuación de Schrödinger, que toma su nombre del físico austríaco que la formuló. Klein reescribió la ecuación de Schrödinger con cinco variables en lugar de cuatro, y demostró que las soluciones a esta ecuación se podían representar entonces mediante partículas-ondas que se desplazaran bajo la influencia de los campos gravitatorio y electromagnético. Todas las teorías de este tipo, en las que los campos están representados geométricamente mediante más de cuatro dimensiones, reciben en la actualidad el nombre de teorías de Kaluza-Klein. [48] Ya en 1926, conseguían insertar la gravedad y el electromagnetismo en una teoría cuántica.
Una de las razones por las que se desestimó, o se desatendió completamente estas teorías durante los años que siguieron al trabajo de Klein es que para entonces ya se conocían más fuerzas, y el modelo no parecía realista. La «respuesta» consiste en invocar más dimensiones, añadiendo más variables a las ecuaciones para así incluir los efectos de todos los nuevos campos y sus portadores, descritos siempre mediante los mismos efectos geométricos que la gravedad. Una onda electromagnética (un fotón) se desplaza por la quinta dimensión; la Z, por poner una ejemplo, sería una onda en la sexta; y así sucesivamente. Cuantos más campos haya, y más portadores de fuerzas, más dimensiones se necesitarán. Pero el número de dimensiones no es peor que el que se obtiene con las técnicas estándar de unificación de las cuatro fuerzas, como la supergravedad.
En realidad, el número es exactamente el mismo. La teoría que va a la cabeza entre todas las candidatas (y, de hecho, la única buena teoría de la supergravedad) es la teoría N = 8. Esta teoría describe una manera de relacionar partículas con espín diferente, dentro de las operaciones de la supersimetría. La gama disponible de espines va de +2 a -2, en cuantos de 1/2. [49] Hay, por tanto, 8 pasos posibles (ocho transformaciones de SUSY) de un extremo al otro, de donde el nombre de la teoría. Pero hay otra manera de mirar todo esto. Del mismo modo que Kaluza manipuló las ecuaciones de Einstein para ver cómo eran en cinco dimensiones, los físicos matemáticos de la actualidad han manipulado las ecuaciones de la supergravedad para ver qué aspecto cobran en otras dimensiones. Lo que han descubierto es que la versión más simple de la supergravedad, la descripción matemática más directa y bella, utiliza once dimensiones, ni más, ni menos. En once dimensiones hay una teoría única que pudiera ser la tan buscada superfuerza. Si hay once dimensiones con las que jugar, toda la complejidad de las ocho transformaciones de SUSY desaparece, y nos queda una sola simetría fundamental, una supergravedad N = 1. Además, ¿cuántas dimensiones son necesarias en una teoría Kaluza-Klein para incluir todas las fuerzas conocidas de la naturaleza y sus respectivos campos? Exactamente once: los cuatro componentes familiares del espacio- tiempo y siete dimensiones adicionales; ni más, ni menos.
Las implicaciones de todo esto han animado enormemente a muchos físicos; nada menos que una autoridad del calibre de Abdus Salam ha calificado esta geometrización del mundo de las partículas y los campos como una «idea increíble, milagrosa». [50] Todavía queda mucho camino por hacer antes de conseguir una teoría completa de este tipo, pero la unificación de las teorías de Kaluza-Klein con la supergravedad para producir una teoría de la gravedad en once dimensiones fue sin duda un hito en la búsqueda de SUSY, por bien que su auténtica significación sólo pueda apreciarse con la perspectiva que da el tiempo.
Aun así, ¿por qué no percibimos todas esas dimensiones adicionales? Para los matemáticos, esto no constituye un problema. De alguna manera, cada una de las dimensiones adicionales debe haberse curvado sobre sí misma, tornándose invisible en nuestro mundo tri- (o tetra) dimensional. Suele explicarse mediante una analogía con una manguera. Desde lejos, una manguera parece únicamente una línea ondulada, un objeto unidimensional. Pero de cerca se puede ver que se trata de un cilindro, un objeto bidimensional. Cada «punto» de la línea ondulada es en realidad un círculo, un bucle alrededor de un punto, y el cilindro es una línea de círculos, uno detrás de otro. En la teoría original de Kaluza-Klein, cada uno los puntos del espacio-tiempo se concebía como un pequeño bucle, un bucle de apenas 10-32 cm de sección, que se extendía en una dirección que no es ni hacia arriba, ni hacia abajo, ni hacia los lados. La versión moderna es un tanto más complicada. El «bucle» se ha convertido en un objeto denominado heptaesfera (en rigor, una heptaesfera un tanto achatada), el análogo de una esfera en siete dimensiones. Pero el principio es el mismo. Y, según nos dicen los matemáticos, la heptaesfera es la forma más simple de estructura multidimensional que permite describir un Universo tan complejo como el que nos rodea.

020.jpg
Figura 4.2. Lo que desde lejos parece una línea unidimensional resulta ser un tubo bidimensional. Cada «punto» de la línea es en realidad un círculo diminuto alrededor de la circunferencia del tubo. Es así como se concibe el proceso de compactación que «esconde» las dimensiones adicionales del espacio requeridas por algunas teorías de la física de partículas.

Según esta concepción, el Universo se originó en un estado con once dimensiones en el que no existía distinción entre fuerzas y materia, y mucho menos entre diferentes fuerzas; tan sólo una suerte de estado puro de energía de once dimensiones. A medida que la energía se disipaba, algunas dimensiones se curvaron sobre sí mismas, creando las estructuras que percibimos como materia (las «partículas»), cual ondas que vibraran en las dimensiones recurvadas, y creando asimismo las fuerzas de la naturaleza como manifestaciones visibles de las distorsiones propias de la geometría subyacente. Para romper la heptaesfera y pelarla para revelar las diez dimensiones del espacio en toda su gloria haría falta algo más que la energía de la gran unificación. Haría falta la energía de la creación misma.
Son ideas embriagadoras, en la avanzadilla de la investigación más actual, que se arremolinan profusamente en las revistas científicas de los años noventa. La variación más excitante sobre el tema, como explicaré escuetamente, trata las «partículas» no como puntos, sino como cuerdas unidimensionales que se «mueven» en un espacio de diez dimensiones. Se trata de las teorías de «supercuerdas». Por otro lado, otros teóricos, entre los que se incluye, sorprendentemente, Stephen Hawking (uno de los primeros seguidores entusiastas de la teoría N = 8 que, según dijo, podría marcar el fin de la física al explicar todo lo que los físicos habían intentado explicar), creen que las teorías Kaluza-Klein sólo nos llevarán a callejones sin salida.
Los teóricos que hoy gustan de la versión Kaluza-Klein de la supergravedad y SUSY no lo hacen porque haya ninguna prueba experimental de que sea correcta, sino por la belleza y coherencia interna que posee. Como Einstein dijo en una ocasión refiriéndose a la relatividad general, ¡es tan bella que debe ser cierta! El propio Kaluza se hubiera mostrado de acuerdo, puesto que era un teórico por excelencia. Su hijo nos cuenta cómo Theodor Kaluza había aprendido a nadar por libro. Una vez meticulosamente absorbida la teoría, y habiéndose convencido de su corrección, llevó a su familia hasta un lago cercano, saltó al agua y comenzó a nadar cincuenta metros afuera, cincuenta metros de vuelta. Demostró que la teoría funcionaba. No sabemos de ningún lago al que podamos tirar la teoría Kaluza-Klein para ver si nada o se hunde. Como Salam, tan sólo puedo decir que espero que sea correcta.
Pero hay un problema de efectos potencialmente devastadores. Para poder incorporar el espín a esta teoría es necesario que conjuntamente el espacio y el tiempo ocupen un número par de dimensiones. Como el lector habrá advertido, once es un número impar. Pero al tiempo que los teóricos se percataban de los problemas que esto podía plantear, emergía una nueva variación sobre la idea de la superfuerza que abarcaba tanto la idea de la simetría como la noción de dimensiones superiores, y aun más.

§. Acordonando las cosas
La búsqueda de una teoría unificada de la física puede interpretarse con relación a las dos grandes teorías del siglo XX. La primera, la teoría general de la relatividad, relaciona la gravedad con la estructura del espacio y el tiempo. Nos dice que hay que tratarlos como un todo unificado, el espacio- tiempo, y que las distorsiones de la geometría del espacio-tiempo son responsables de lo que percibimos como fuerza de la gravedad. La segunda, la mecánica cuántica, describe el comportamiento del mundo atómico y subatómico; disponemos de teorías cuánticas que describen cada una de las otras tres fuerzas de la naturaleza, con la excepción de la gravedad. Una descripción completa y unificada del Universo y todo lo que contiene (una «teoría de todo», o TDT) habrá de reunir la gravedad y el espacio-tiempo en el mismo canasto. Esto implica que, a una escala apropiada, muy pequeña, el propio espacio-tiempo debe estar cuantizado en fragmentos discretos, en lugar de formar un continuo. La teoría de cuerdas, en una forma ampliada conocida como teoría de supercuerdas, produce de forma natural una descripción de la gravedad a partir de un paquete teórico inicialmente establecido en términos cuánticos, aunque hizo falta varios años para que la gravedad apareciera en las ecuaciones.
La teoría de cuerdas no despegó hasta mediados de los años ochenta, cuando John Schwarz y Michael Green desarrollaron una nueva variación sobre el tema. Comenzaron a trabajar juntos hacia finales de los años setenta, después de un encuentro durante un congreso en el CERN en que descubrieron que, a diferencia del resto de estudiosos de la física de partículas de aquella época, ambos estaban interesados en cuerdas. Comenzaron a producir resultados casi de inmediato. El primer paso crucial que dieron fue percatarse de la necesidad de una teoría de todo, de todas las partículas y de todos los campos, y no simplemente de los hadrones. En una teoría así, las cuerdas tendrían que ser realmente minúsculas, mucho más pequeñas que las cuerdas de Nambu, que se habían diseñado únicamente para describir hadrones. Aun sin conocer como habría de desarrollarse la teoría, Schwarz y Green fueron capaces de predecir la escala a la que habrían de operar las cuerdas, porque querían que incluyera la gravedad. La gravedad sólo comienza a verse seriamente afectada por efectos cuánticos a una escala de alrededor de 10-33 cm (es decir, 10-35 m), la escala de distancia a la que la propia estructura del espacio-tiempo empieza a verse afectada por la indeterminación cuántica. [51] Y, por supuesto, la nueva versión de la teoría de cuerdas incorporaba SUSY.
El primer modelo de cuerdas desarrollado por Schwarz y Green, en 1980, trataba de cuerdas con extremos abiertos que vibraban en diez dimensiones, podían enlazarse unas con otras y podían romperse. Superficialmente, no parece otra cosa que una versión encogida de la teoría de cuerdas de Nambu. Pero en realidad iba mucho más lejos, e incluía (en principio, pues completar todos los cálculos necesarios es otra cosa) estados de cuerda correspondientes a todas las partículas y campos conocidos, así como todas las simetrías conocidas que afectan a fermiones y bosones, más la supersimetría. O más bien debiera decir «casi todas las partículas y campos conocidos». Había una excepción: la gravedad. Pese a todas sus buenas intenciones, seguía sin poder explicarse la gravedad mediante la nueva teoría de cuerdas.
No obstante, esta primera versión preparó el terreno para todo lo que había de venir. La idea central de todas las teorías de cuerdas subsiguientes es que la concepción convencional de las partículas fundamentales (leptones y quarks) como puntos sin extensión en ninguna dirección debe remplazarse por la idea de partículas como objetos con extensión en una dimensión, como una línea dibujada sobre un trozo de papel, o la más fina de las cuerdas. La extensión es diminuta, apenas 10-35 m. Haría falta colocar 1020 cuerdas como éstas, una tras otra, para alcanzar el diámetro de un protón.
El siguiente gran paso hacia una auténtica teoría de todo se produjo en 1981, cuando Schwarz y Green le dieron (literalmente) un nuevo giro a la historia. La teoría de las cuerdas abiertas de 1980 vino a conocerse como teoría de Tipo I, y la nueva teoría, la de Tipo II, introdujo una variación clave sobre el tema: bucles cerrados de cuerdas. La teoría de Tipo I sólo tenía cuerdas con extremos abiertos; la teoría de Tipo II sólo tenía bucles cerrados de cuerdas. En una ingeniosa forma de empaquetarlo todo, en los bucles cerrados los estados fermiónicos correspondían a ondas que discurrían por el bucle en un sentido, mientras que los estados bosónicos correspondían a ondas que se desplazaban por el bucle en el sentido opuesto, en una patente demostración del poder e influencia de la supersimetría. La versión de bucles cerrados presentaba ciertas ventajas con respecto al modelo abierto; una de las más notables es que permitía deshacerse más fácilmente de los infinitos que afligían a los físicos de partículas en el modelo abierto. Pero la teoría de Tipo II también presentaba sus dificultades y no parecía (por aquel entonces) que fuera a ser capaz de predecir, o abarcar, toda la diversidad del mundo de partículas conocido.

021.jpg
Figura 4.3. Una cuerda de extremos abiertos traza una lámina al moverse en el espacio. Un bucle de cuerda traza un tubo.

Pero se cernía otro nubarrón más sobre el horizonte. En 1982, Ed Wittten y Luis Alvarez-Gaumé descubrieron que el truco para compactar la teoría de Kaluza-Klein sólo dejaba las fuerzas de la naturaleza en la forma deseada si se comenzaba con un número impar de dimensiones antes de la compactación. Esto hizo la supergravedad de once dimensiones más atractiva que nunca, pero planteó graves problemas en las teorías de cuerdas de diez dimensiones. Esto no paró a los que porfiaban por mejorar las teorías, pero les dio algo más en qué pensar.
El siguiente paso adelante fue en realidad un paso atrás. Insatisfechos con la teoría Tipo II, Schwarz y Green retornaron a la teoría Tipo I e intentaron eliminar los infinitos que la asediaban. El problema es que había demasiadas variaciones posibles sobre el tema y que todas ellas parecían estar acosadas no sólo por infinitos, sino también por «anomalías», comportamientos que no se correspondían con el mundo que percibimos, especialmente en lo que concierne a las leyes de conservación. Por ejemplo, en más de una versión de la teoría la carga eléctrica no se conservaba, de modo que la carga podía aparecer de la nada, o desaparecer del mismo modo.

022.jpg
Figura 4.4. La interacción entre dos bucles de cuerda puede representarse mediante un diagrama de Feynman. Una característica crucial es que, como las cuerdas trazan tubos en el espacio-tiempo, las interacciones no tienen lugar en un punto en este diagrama; todo es ligeramente borroso. Y precisamente porque ninguna de las interacciones tiene lugar en un punto, en la teoría de cuerdas no aparecen infinitos.

Pero en 1984, Schwarz y Green hallaron que había una y sólo una forma de simetría (técnicamente, SO(32)) que, aplicada a la teoría de cuerdas de Tipo I, eliminaba todas las anomalías y todos los infinitos.
Habían conseguido una teoría única, libre de anomalías e infinitos, que se erigía como auténtica candidata para una teoría de todo. Fue entonces cuando otros físicos comenzaron a hacerse eco de su trabajo y prestarle atención nuevamente.
Uno de los equipos que se lanzaron tras el éxito alcanzado por Schwarz y Green en 1984 tenía su base en la Universidad de Princeton. David Gross y tres colegas suyos (a los que conjuntamente se designa a veces «Cuarteto de Cuerda de Princeton») volvieron a mirarse la teoría de cuerdas cerradas en bucles, que reescribieron en términos matemáticos algo más complejos. No les faltaba trabajo reescribiendo la teoría, que es algo más complicada de lo que he dejado entrever hasta aquí. El tipo de vibraciones asociadas a los fermiones realmente requieren las diez dimensiones que he mencionado. Pero las vibraciones bosónicas descritas (al principio, de manera no intencionada) en la primera versión de Nambu de la teoría de cuerdas en realidad tenían lugar en veintiséis dimensiones. Gross y sus colegas dieron con el modo de incorporar ambos tipos de vibraciones en un único bucle cerrado de cuerda: las vibraciones en diez dimensiones discurrían en un sentido del bucle, y las vibraciones en veintiséis dimensiones, en el sentido contrario. Esta versión de la idea recibe el nombre de teoría de cuerdas heterótica. [52]
\r\nLas cuerdas heteróticas dejan bien atado uno de los cables sueltos de la teoría de Tipo II. En las teorías de cuerdas con extremos abiertos, algunas de las propiedades que asociamos a partículas (las propiedades que los físicos llaman «carga») están ligadas a los extremos giratorios de las cuerdas (la carga puede ser eléctrica, si nos ocupamos del campo electromagnético, o la «carga de color» de los quarks, o alguna otra). Pero los bucles cerrados no tienen extremos abiertos: ¿dónde se localizan entonces estas propiedades? En las cuerdas heteróticas estas propiedades todavía se describen adecuadamente, pero hay que imaginarlas difuminadas por toda la extensión de la cuerda. Ésta es la principal distinción física entre las cuerdas heteróticas y las cuerdas cerradas que Green y Schwarz investigaron a principios de los años setenta; puede concebirse la teoría heterótica de cuerdas como si fuera un híbrido entre la forma más antigua de teoría de cuerdas y la primera teoría de supercuerdas.
¿Cómo puede aplicarse a las vibraciones de una misma cuerda dos conjuntos diferentes de dimensiones? Porque se ha podido compactar dieciséis de las veintiséis dimensiones de las vibraciones bosónicas en un solo conjunto, dejando otras diez dimensiones que equivalen a las diez dimensiones de las vibraciones fermiónicas, y seis de estas diez dimensiones se han podido compactar de otra manera, con lo que al final nos quedamos con las cuatro dimensiones familiares del espacio-tiempo. Es la riqueza que proporcionan las dieciséis dimensiones adicionales lo que sirve para explicar la gran diversidad de bosones, desde los fotones a las partículas W y Z y los gluones, en comparación con la relativa simplicidad del mundo fermiónico, constituido por unos pocos quarks y leptones. Las dieciséis dimensiones adicionales de la teoría de cuerdas heterótica son responsables de un par de simetrías subyacentes; ambas pueden usarse para investigar las implicaciones físicas de la teoría (cualquier otra elección de grupos de simetría conduce a infinitos). Una de ellas es el grupo de simetría SO(32), que ya había aparecido en la investigación de cuerdas abiertas (donde 32 viene del doble de 16); el otro grupo de simetría se conoce como E8 x E8 , que en realidad describe dos mundos completos que coexisten paralelamente (8 y 8 hacen 16). Cada una de las simetrías E8 puede disgregarse de forma natural para producir el tipo de simetrías que utilizan los físicos de partículas para describir nuestro mundo. Cuando seis de las diez dimensiones se rizan, proporcionan el grupo de simetría conocido como E6, que a su vez se puede subdividir en SU(3) × SU(2) × U(1). Pero SU(3) es el grupo de simetría asociado al modelo estándar de quarks y gluones, en tanto que SU(2) × U(1) es el grupo de simetría asociado a la interacción electrodébil. Todos los elementos de la física de partículas quedan incluidos en una de las partes E8 del grupo de simetría E8 × E8.

023.jpg
Figura 4.5. Los bucles de cuerda pueden hacer otro truco: dos bucles pueden fusionarse y formar un tercer bucle, como en este diagrama de «pantalón».

Puesto que para describir nuestro Universo sólo se precisa uno de los componentes E8, queda todo un conjunto duplicado de posibilidades. La simetría entre las dos mitades del grupo se habría roto en el origen del Universo, cuando la gravedad se separó del resto de las fuerzas de la naturaleza. El resultado habría sido, según creen algunos teóricos, el desarrollo de dos universos interpenetrados que interaccionan únicamente a través de la gravedad: nuestro mundo y un universo «sombra». Existiría entonces la sombra de fotones, la sombra de átomos, quizá incluso sombras de estrellas y planetas, [53] habitados por sombras de personas que coexistirían en el mismo espacio-tiempo que habitamos, pero siempre invisibles para nosotros. Una sombra de planeta podría atravesar la Tierra sin afectarla en absoluto, salvo a través de la fuerza de la gravedad. Suena a ciencia ficción, pero una razón por la que se toma muy en serio es porque se dispone de evidencia astronómica y cosmológica de que una buena parte del Universo existe en una forma de materia oscura, invisible pero que se puede detectar gravitacionalmente. No obstante, es igualmente probable que en el universo sombra otras roturas de simetría posteriores hayan ocurrido de forma diferente a como han ocurrido en nuestro mundo, y que no haya sombras de estrellas ni demás. Todo esto es tangencial a la historia que se explica aquí (pero véase En busca del Big Bang). Pero nos ha traído de vuelta a la gravedad, que es la razón del inmenso interés despertado por la teoría de cuerdas y la supersimetría a mediados de los años ochenta.
El revuelo suscitado por la teoría de supercuerdas tiene que ver sobre todo con que la gravedad aparece de forma natural en esta teoría. Puede pensarse en la gravedad de dos maneras. Si se comienza por la descripción del espacio-tiempo curvado de Einstein, se acaba en la concepción de la gravedad como ondas en el espacio-tiempo, naturalmente con su partícula asociada, el gravitón de espín 2. Es así como se desarrolló el concepto históricamente. Pero, en principio, también se puede comenzar por desarrollar una teoría cuántica de campos basada en una partícula de masa cero y espín 2, el gravitón, y ver qué describen las ecuaciones. Y el desarrollo de las ecuaciones conduce a la teoría general de la relatividad de Einstein. [54] El problema de todas la teorías que precedieron a la de supercuerdas (salvo quizá la supergravedad N = 8) es que cuando se añade una partícula sin masa y espín 2, aparecen infinitos que resulta imposible eliminar aun con la renormalización. El descubrimiento crucial de mediados de los ochenta fue que siempre que los teóricos construían una descripción matemática de bucles de supercuerdas ajustada para describir el comportamiento de las partículas conocidas, las ecuaciones siempre describían, junto a los quarks, leptones y demás, una partículas sin masa y espín 2. Y, además, lo hacían sin que los infinitos mostraran su horrenda faz. Uno de los fundadores de la teoría de supercuerdas, John Schwarz, se refiere a esto como una «verdad profunda» que debe decirnos algo fundamental sobre cómo funciona el Universo.
La gravedad debe incluirse en la teoría de supercuerdas, en la que emerge de forma natural de tal manera que puede describirse en términos físicos simples. La forma más simple de cuerda cerrada que surge de forma automática de la teoría tiene las propiedades de un bosón vectorial de espín 2, la partícula cuántica de la gravedad. Y, en efecto, son gravitones, los portadores de la fuerza gravitatoria. La gravedad, e incluso las ecuaciones de la teoría general de la relatividad de Einstein, surge de forma natural de la teoría de cuerdas en tanto fenómeno cuántico.
Todo esto era lo bastante excitante como para animar a otros teóricos a trabajar sobre cuerdas y supercuerdas después de 1984. Pero, del mismo modo que hubo de pasar una década desde los primeros progresos importantes de la teoría de cuerdas (y de SUSY) a mediados de los años setenta y la conjunción del descubrimiento de las cuerdas heteróticas y de que los gravitones forman parte de la teoría de cuerdas a mediados de los años ochenta, hubieron de pasar diez años más antes de que se hiciera otro descubrimiento crucial. Pudiera haber ocurrido antes: recuérdese el rompecabezas de la necesidad de un número impar de dimensiones para que la compactación funcionara. ¡Y el comodín de la baraja, la supergravedad de once dimensiones! A finales de los años ochenta unos pocos teóricos, entre ellos Michael Duff, de la Universidad A & M de Texas, sugirió la posibilidad de que, en lugar de limitarnos a las cuerdas, se podría añadir una dimensión más, convirtiéndolas en algo semejante a láminas bidimensionales (membranas), en lugar de líneas unidimensionales. La dimensión adicional eleva a once el total de dimensiones, pero una de estas dimensiones se riza inmediatamente de tal modo que las membranas se comportan como las cuerdas de diez dimensiones de la teoría de cuerdas. La idea era más una especulación que una teoría bien o siquiera medianamente desarrollada, y francamente no se la tomaba en serio a mediados de los ochenta. Pero se reavivó en forma de teoría mucho más completa a mediados de los noventa, y la idea de las membranas (a menudo designada teoría M) [55] es hoy la moda más rabiosa.
La causa del revuelo suscitado por la teoría M a finales de los años noventa es que ofrece, por fin, un paquete matemático único para describir todas las fuerzas y partículas de la naturaleza. Como ya se habrá notado, de la propia teoría de cuerdas se conocen variedades diferentes, cada una con sus puntos positivos y sus puntos negativos. De hecho, hay exactamente cinco variaciones sobre el tema. Son la teoría de Tipo I de Schwarz y Green, dos versiones de la teoría de Tipo II, y dos versiones de cuerdas heteróticas. Y se dispone, además, de un comodín, la supergravedad de once dimensiones. Se puede demostrar matemáticamente que éstas son las únicas variaciones sobre el tema viables; todas las otras posibilidades que incluyen supersimetría están afectadas por infinitos.
A primera vista, seis rivales compitiendo por el título de «teoría de todo» parecerán muchos. Pero es realmente una lista muy corta. Los intentos de la física de partículas de vieja escuela por obtener una teoría de gran unificación dan lugar a una plétora de posibilidades, todas las cuales son igualmente buenas o malas. A mediados de los años ochenta, disponer de tan sólo media docena de posibilidades parecía milagroso. El gran descubrimiento de mediados de los noventa fue que las seis teorías estaban relacionadas entre sí. En particular, se descubrió que todas eran manifestaciones de una sola teoría M. De un modo que recuerda a cómo la teoría electrodébil es una sola teoría que describe lo que parecen dos interacciones distintas a menor energía (el electromagnetismo y la interacción débil), la teoría M es una teoría única a energías aun mayores, y describe lo que parecen ser seis modelos diferentes a menor energía. En particular, las diferencias entre los seis modelos se manifiestan al nivel de la interacción débil, pero la unidad aparece al nivel de la interacción fuerte.
Quizá no tengamos que esperar mucho antes de comprobar si la teoría M es realmente una buena teoría y si es realmente la tan buscada teoría de todo. Los niveles de energía necesarios para examinar las predicciones de la teoría M se conseguirán con el más reciente de los aceleradores de partículas de alta energía, el Gran Colisionador de Hadrones (Large Hadron Collider, o LHC), que se espera que esté en funcionamiento en el CERN mediada la primera década del siglo XXI. Es interesante notar cómo se sigue el patrón establecido por los principales descubrimientos de la teoría de cuerdas a mediados de tres décadas sucesivas, los setenta, los ochenta y los noventa. Sería redondo si la historia llegara a su fin en el año 2005 o 2006, treinta años después de la primera revolución de la teoría de cuerdas. Por supuesto, la prueba última de cualquier teoría consiste en contrastar las predicciones y los resultados experimentales.
Entre tanto, los matemáticos están involucrados a fondo en la nueva física. El movimiento de puntos en el espacio y el tiempo puede describirse mediante líneas trazadas por partículas (las trayectorias o líneas de mundo). Pero el movimiento de cuerdas y membranas traza superficies y volúmenes en el espacio-tiempo, lo que requiere un tratamiento matemático bastante diferente. Las topologías multidimensionales, que algunos matemáticos habían venido estudiando por su interés abstracto intrínseco, han cobrado de repente relevancia práctica. A lo que parece, la teoría de supercuerdas guarda algo para todos.
Pero quizá no tengamos que esperar otros cinco o seis años antes de obtener confirmación experimental de la existencia de SUSY. Después de todo, basta con identificar una sola partícula SUSY en el laboratorio para probar que la supersimetría es una buena descripción del mundo, y esto constituiría una fuerte indicación de que alguna de las teorías de supercuerdas, quizá la teoría M, es la teoría de todo subyacente. [56] Ya se dispone de cierta evidencia experimental de SUSY, por bien que indirecta. Si damos un paso atrás desde nuestra posición de deseo de una unificación última de las cuatro fuerzas, gravedad incluida, en un solo paquete con la ayuda de cuerdas, nos daremos cuenta de que en 1991 el Gran Colisionador de Electrones-Positrones del CERN, en Ginebra, además de confirmar la exactitud de la CDC, produjo también evidencia de que el concepto básico de supersimetría, que sostiene tanto la teoría de supercuerdas como otros intentos de construir una teoría de todo, realmente nos proporciona una buena descripción del comportamiento fundamental de partículas y campos.

§. ¿SUSY hallada?
La manera más efectiva de contrastar las predicciones de la supersimetría sería crear las contrapartidas supersimétricas de por lo menos algunas de las partículas de nuestra experiencia cotidiana mediante colisiones de alta energía en aceleradores como el LEP, y medir sus propiedades. Como todavía no se ha producido ninguna partícula SUSY de este modo, sabemos que poseen una masa (suponiendo que realmente existan) correspondiente a energías superiores a las que se pueden alcanzar con la generación actual de aceleradores de partículas. Esto se traduce en masas superiores a unos pocos cientos de GeV (1 GeV, que corresponde aproximadamente a la masa de un protón, es 1,58×10-27 kilogramos). Pero hay otra manera, más sutil, de contrastar la existencia de supersimetría.
El truco se fundamenta en la suposición de que las fuerzas de la naturaleza (conocidas a veces como «interacciones») se hallen realmente unificadas a muy alta energía. En ese caso, puede utilizarse las mediciones existentes de interacciones entre partículas para extrapolar los cambios en su comportamiento a medida que aumenta la energía disponible. Finalmente, los teóricos confían en que pueda demostrarse que estas extrapolaciones sólo apuntan hacia la gran unificación si se incorporan los efectos de la supersimetría. La magnitud de la influencia de SUSY necesaria para obtener la unificación nos daría una idea de las propiedades de las partículas SUSY.
Ésta es la técnica aplicada en el CERN. Utiliza medidas de una propiedad básica de cualquier campo cuántico conocida como constante de acoplamiento. La constante de acoplamiento es en realidad un número (un número «puro», sin dimensiones, a diferencia de la longitud o la masa) que determina la fuerza de cada interacción. Es la comparación de constantes de acoplamiento lo que nos permite decir que, por ejemplo, la interacción débil es tantas veces más débil que la interacción fuerte. Pero cuando anteriormente di varias cifras para establecer comparaciones de este tipo, no mencioné que en realidad los valores que citaba correspondían a energías bajas, y que la fuerza de cada una de las constantes de acoplamiento de interés en cada caso depende de la energía que participa en la interacción entre dos partículas. Por ejemplo, la constante de acoplamiento electromagnética que nos permite describir la dispersión de dos electrones cuando interaccionan a baja energía es 1/137, un valor que resultará familiar para quien haya estudiado física, por corresponder a la constante de la estructura fina. Pero en la colisiones en el LEP, que se producen a energías en torno a 100 GeV, el acoplamiento es más fuerte, y la constante en cuestión vale 1/129. La teoría estándar de partículas predice este aumento de la fuerza de acoplamiento a mayores energías, y el valor de las interacciones medido en el LEP constituye firme evidencia de la bondad del modelo estándar. Pero el modelo estándar no predice el valor preciso de la constante de acoplamiento (en realidad, las razones del valor preciso de todas las constantes de acoplamiento sigue siendo un profundo misterio que, hasta el momento, no ha podido explicar ninguna teoría).
Existe otra constante de acoplamiento para la interacción fuerte, que también varía al aumentar la energía de las interacciones (en este caso, las interacciones entre quarks y gluones, no entre electrones y fotones), pero varía en el sentido contrario: esta constante de acoplamiento es mayor a energías altas que a energías bajas. Nuevamente, las observaciones se ajustan a los patrones generales predichos por la teoría. Las mediciones de esta constante a bajas energías dan un valor de aproximadamente 0,18, mientras que a las energías alcanzadas en el LEP, el valor medido es 0,12. Este debilitamiento del acoplamiento fuerte a altas energías está directamente relacionado con el hecho de que los quarks están más sueltos cuando están muy cerca, pero se presentan fuertemente ligados cuando se los intenta apartar. La tercera fuerza del modelo estándar, la interacción débil, también tiene una constante de acoplamiento que disminuye a medida que aumenta la energía. Y aquí es donde la historia comienza a complicarse.
Los portadores de la interacción débil, los bosones W y Z, tienen, como ya hemos visto, una masa grande, de 80 GeV para las W y 91 GeV para la Z. Debido a esto, el debilitamiento de la constante de acoplamiento relevante sólo se manifiesta a energías superiores a la equivalente a las masas de W y Z, es decir, alrededor de 100 GeV, que es el nivel al que opera el LEP. Para complicar aún más las cosas, como las interacciones electromagnética y débil son facetas diferentes de la interacción electrodébil unificada, las comparaciones resultan más fáciles si se expresan mediante dos combinaciones de las constantes de acoplamiento débil y electromagnético. Estas constantes de acoplamiento efectivas se denominan a1 y a 2. a1 aumenta con la energía de las interacciones, mientras que a2 disminuye al aumentar la energía. Siguiendo la misma notación, la constante combinada de acoplamiento de la interacción fuerte se designa a3.
Utilizando datos del LEP, los investigadores del CERN consiguieron medir en 1991 la variación de estos tres parámetros para un rango de energías. Esto les permitió visualizar las variaciones gráficamente en forma de tres líneas rectas dentro del mismo gráfico, y extender entonces las líneas hasta niveles de energía más altos, donde todavía no se han realizado experimentos. Si la gran unificación de las tres interacciones se produce a alguna energía mayor, entonces las tres líneas debieran cruzarse en un solo punto, que correspondería a la energía de unificación. Pero no ocurre así. Las tres líneas se cruzan en puntos diferentes, dibujando un minúsculo triángulo en el gráfico, a una energía en torno a 1016 GeV. [57]
\r\n¿Qué ocurre cuando incorporamos SUSY a los cálculos? Si las partículas SUSY tienen todas aproximadamente la misma energía, y su masa promedio es mayor que la masa de la partícula Z, entonces la extrapolación de los cambios en las constantes de acoplamiento es idéntica al caso anterior desde la energía correspondiente a la partícula Z hasta la energía correspondiente a la masa de SUSY. Pero entonces las líneas se tuercen, a la energía correspondiente a la masa de SUSY, y luego prosiguen nuevamente en línea recta hasta la región de muy alta energía donde (confiamos) tiene lugar la gran unificación. Escogiendo un valor específico de la masa promedio de SUSY, los científicos del CERN consiguen que las tres líneas se crucen en un solo punto; el valor necesario para que salga el truco (unos 1.000 GeV) es sólo ligeramente mayor que las energías alcanzadas hasta hoy en los colisionadores de partículas. Éstas son muy buenas noticias, porque la próxima generación de aceleradores de partículas, el Gran Colisionador de Hadrones del CERN, alcanzará energías precisamente dentro de ese rango, y servirá por tanto para contrastar la teoría de supersimetría (y hacer otros trucos que se discuten en el Apéndice 2). Si todos los cálculos son correctos y las partículas SUSY realmente existen, puede ser que se descubran antes del año 2010. Pero, ¿y si los aceleradores de partículas no consiguen encontrar partículas SUSY con masas alrededor de 1.000 GeV? Bueno, entonces habrá que volver a la pizarra y buscar alguna otra manera de conseguir que las tres líneas se encuentren en un punto. Así de cerca nos hallamos de descubrir, por fin, si SUSY es realmente una buena teoría.
Yo me siento realmente optimista. Por lo menos ya sabemos que si se incorpora SUSY a los cálculos, las extrapolaciones de las constantes de acoplamiento a mayores energías se sitúan más cerca de la unificación que si las extrapolaciones se realizan basándose únicamente en el modelo estándar sin SUSY, lo que constituye en sí un paso importante. Aun más notable es que se haya conseguido esto mediante la extensión más simple posible del modelo estándar para incluir a SUSY, y con las suposiciones más simples posibles acerca de la gran unificación (aunque todos estos modelos simples se generan de forma natural a partir de la teoría de supercuerdas). Sospecho que estamos delante de otra verdad profunda, y ésta es ciertamente una nota esperanzadora con la que dar fin a esta historia de la búsqueda de SUSY.

Apéndice 1
Teoría de grupos para principiantes

La teoría de grupos es una rama de las matemáticas que trata de grupos y simetría. En matemáticas, un grupo (o un grupo de simetría) se define como una colección de elementos (un conjunto), designados a, b, c, y así sucesivamente, y relacionados entre sí mediante ciertas reglas:
Primero, si a y b son miembros del grupo G, entonces su producto, ab, es también miembro del grupo G. Este proceso es asociativo, lo que significa que a(bc) = (ab)c, y así sucesivamente.
Segundo, debe existir un elemento, llamado elemento unidad y generalmente designado e, que se define tal que ae = a, be = b, y así sucesivamente para todos los elementos del grupo.
Tercero, cada elemento tiene un inverso, que se escribe a-1, b_1 y así sucesivamente, y se define tal que aa_1 = e, y así sucesivamente.
Un grupo tal que ab = ba es un grupo abeliano. El conjunto de los números enteros (1, 2, 3...) es un ejemplo simple de grupo abeliano. Más generalmente, los grupos están constituidos por elementos que son ellos mismos matrices. Una matriz es un tipo de número multidimensional, representado mediante una serie de números dispuestos en una suerte de cuadrícula, como las piezas de ajedrez sobre el tablero. Si el menor de los objetos representados por un grupo en particular tiene N filas por N columnas (una matriz N×N), entonces N es la dimensión del grupo. De aquí viene el número 3 en el grupo SU(3), que resulta ser importante en la física de partículas: es la dimensión de ese grupo en particular («SU» viene del inglés Special Unitary group, grupo unitario especial).
La teoría de grupos fue desarrollada en el siglo XIX por el matemático noruego Sohus Lie (por lo que estos grupos reciben a veces la denominación de «grupos de Lie»). Si bien la teoría de grupos se había utilizado en descripciones matemáticas de la simetría de cristales, fue una rama de la matemática más bien oscura hasta la segunda mitad del siglo XX, cuando Chen Ning Yang y Robert Mills dieron con una manera de describir la interacción fuerte mediante grupos de Lie, y luego Murray Gell-Mann y Yuval Ne’eman (trabajando independientemente) descubrieron que SU(3) proporcionaba un marco para la descripción matemática de las relaciones entre partículas elementales. Desde entonces, los grupos de simetría han sido una herramienta esencial de los físicos para el desarrollo de las teorías gauge de las fuerzas de la naturaleza. En este contexto, los grupos de simetría se denominan a veces grupos gauge.
Un ejemplo sencillo de grupo es el conjunto de rotaciones de un sistema de coordenadas (los ejes x, y de un gráfico) alrededor del punto de encuentro de los ejes x e y. Si se hace rotar el eje del gráfico, las coordenadas de cada uno de los puntos, medidas por referencia a los ejes, cambian, pero las relaciones entre los puntos no cambian: no es más que un simple ejercicio de poner etiquetas nuevas, una transformación gauge. Esto significa, por ejemplo, que aunque la Tierra esté en rotación, la distancia de Londres a París (o entre cualesquiera lugares de la Tierra) permanece inalterada. Todos nosotros experimentamos transformaciones gauge literalmente a cada minuto. Y si se mueven los ejes primero un ángulo A y después un ángulo B, el resultado es el mismo que si se mueven directamente un ángulo C, donde C = A + B. Como el ángulo de rotación se puede hacer tan pequeño como uno desee y varía de forma continua, como en el ejemplo de la Tierra en rotación, este grupo de rotación es un grupo continuo (los grupos SU, tan importantes en la teoría de partículas, son también grupos continuos). El hecho de que las leyes de la física permanezcan inalteradas por transformaciones de este tipo implica la ley de conservación del momento angular; en general, siempre que un grupo de simetría describe el comportamiento de un fenómeno físico, debe haber una cantidad que se conserva asociada a ese fenómeno (esta proposición se denomina a veces teorema de Noether, y es una característica útil de la teoría de grupos que puede aprovecharse para examinar el comportamiento físico de partículas y fuerzas).
Los grupos que describen el comportamiento de partículas y campos en el mundo cuántico son por desgracia más difíciles de visualizar en términos físicos, pero obedecen los mismos principios matemáticos. Una de las características clave de esta aplicación de la teoría de grupos es que, a causa de las simetrías inherentes, predicen que debe existir un número determinado de partículas de cada tipo determinado (de quarks, por ejemplo, o de gluones), descritos por un grupo de simetría determinado. Por ejemplo, SU(3) tiene «sitio» para quarks de sólo tres variedades de carga de color, y para ocho únicas variedades de gluones.
Una de las características clave del tipo de grupos importantes en la teoría de física de partículas es su simetría. Todos sabemos qué es la simetría en un contexto geométrico, y esta idea es trasladada al mundo cuántico para describir las relaciones entre fuerzas y partículas. Esto permite a los científicos describir la física mediante la geometría, invocando, de ser necesario, más dimensiones que las tres dimensiones familiares del espacio más la del tiempo.
Un ejemplo familiar de simetría es la simetría de reflexión de ciertos patrones, en la que el lado derecho del patrón es la imagen especular del lado izquierdo. La esfera posee otro tipo de simetría: se ve siempre igual, independientemente de cómo se la haga rotar, por lo que decimos que posee simetría esférica, o que es invariante a las rotaciones.
La simetría forma parte de las leyes de la física de una forma muy profunda. La simetría que dice que las leyes de la naturaleza son las mismas en cualquier lugar del Universo (invariancia a la traslación), por ejemplo, corresponde a la ley de conservación del momento linear; la simetría que dice que las leyes de la física son las mismas en todo momento equivale a la ley de conservación de la energía; y la invariancia a la rotación de las leyes de la física es equivalente a la ley de conservación del momento angular.
Muchas de las simetrías de la física cuántica son simetrías rotas, correspondientes a situaciones que son intrínsecamente simétricas pero se han vuelto asimétricas. El ejemplo clásico es el de una bola en equilibrio en la cima de una colina cónica perfecta; cuando la bola rueda por uno de los lados del cono, se rompe la simetría, pero la situación final todavía lleva la marca de la simetría subyacente. Con estas ideas, los físicos han descubierto simetrías entre las fuerzas de la naturaleza, entre quarks y leptones, e incluso entre fermiones y bosones (supersimetría).
Un tipo particular de simetría se sitúa en el centro de la teoría de campos. Se trata de la simetría gauge, un concepto utilizado en la teoría de campos para describir un campo tal que las ecuaciones que describen el campo no cambian al aplicarse una operación a todas las partículas del espacio. (Es posible también poseer simetría local, que corresponde al caso en que la operación se aplica a una región particular del espacio).
El término «gauge» significa simplemente «medir», y lo importante es saber que los campos con simetría gauge pueden volver a medirse («regauge») a partir de diferentes líneas de referencia sin que sus propiedades se vean afectadas.
El ejemplo clásico es la gravedad. Imagínese una bola colocada sobre un escalón de una escalera. Tiene una cierta cantidad de energía gravitatoria potencial. Si la bola se baja hasta otro escalón, pierde una cantidad determinada de energía gravitatoria, y esta cantidad depende únicamente de la fuerza del campo gravitatorio y de la diferencia de altura entre los dos escalones. La energía potencial gravitatoria puede medirse desde donde se desee. Generalmente se mide con referencia a la superficie de la Tierra o al centro de la Tierra, pero podría escogerse cualquiera de los dos escalones, o cualquier punto en el Universo, como punto de referencia con valor cero. En cualquiera de los casos, la diferencia de energía entre los dos escalones es siempre la misma, independientemente de cómo se vuelva a medir («regauge») la línea de referencia. Por consiguiente, la gravedad es una teoría gauge.
Tanto la gravedad como el electromagnetismo son teorías gauge, y el requisito de simetría gauge es uno de los pilares sobre los que descansa el desarrollo de la teoría de la interacción débil y la teoría de la cromodinámica cuántica mediante campos cuánticos. La situación es más complicada en estas teorías cuánticas de campos que en el simple ejemplo de la gravedad (véase simetría gauge), pero puede comprenderse con la ayuda de una analogía presentada por Heinz Pagels en su libro El código cósmico.
Pagels nos pide que imaginemos una lámina infinita de papel pintada uniformemente en un tono gris. Como es completamente uniforme, es imposible saber donde se encuentra uno en la lámina de papel: es globalmente invariante. Lo mismo es cierto independientemente del tono exacto de gris de la pintura, un ejemplo de simetría gauge (con recalibrar, «regauge», el color, no se cambia nada). Ahora imagínese una lámina similar de papel, pero esta vez pintada con diferentes tonos de gris. Se ha roto la simetría y ahora es posible distinguir diferentes regiones en la lámina de papel. Pero la simetría, la invariancia global, puede restablecerse si colocamos sobre el papel una lámina de plástico con tonos de gris exactamente complementarios de los que hay sobre el papel, es decir, oscuro sobre claro y claro sobre oscuro. El efecto combinado producirá un tono gris uniforme, y la invariancia global se habrá restablecido.
La lámina de papel con múltiples tonos de gris representa un campo cuántico visible. La lámina de plástico pintada con tonos complementarios representa un campo gauge, que a veces se denomina campo de Yang-Mills en honor a los dos investigadores que desarrollaron en los años cincuenta esta forma de la teoría cuántica de campos que restablece la simetría.
La idea central de todo esto es que un campo con invariancia global completa no se puede detectar porque es igual en todos los puntos. Los campos sólo se manifiestan, por así decirlo, cuando se rompe la simetría y se establecen diferencias de un punto a otro. Fue esta idea de la rotura de la simetría en la teoría gauge lo que condujo, independientemente, a Steven Weinberg y a Abdus Salam a sentar los cimientos de la teoría electrodébil en 1967, un hito que señala el camino seguido por todos los intentos posteriores de desarrollar una teoría de gran unificación.

Apéndice 2
Recreando el nacimiento del universo en el laboratorio

Las teorías sobre la bola de fuego en que nació el Universo pronto podrán contrastarse mediante experimentos en la Tierra que recreen las condiciones del Big Bang es una serie de «Little Bangs». Si el Universo nació en una bola de fuego de energía, tal como postula la ampliamente aceptada teoría del Big Bang, ¿cómo se convirtió toda esa energía en la materia que vemos a nuestro alrededor? La teoría estándar de la materia dice que los hadrones ordinarios (partículas como los protones y neutrones que conforman los núcleos atómicos) están compuestos de entidades fundamentales llamadas quarks que se mantienen unidas mediante el intercambio de gluones. El intercambio de gluones produce una fuerza tan fuerte que ningún quark aislado puede escapar de un hadrón. Pero bajo las condiciones de extrema presión y temperatura de la primera fracción de segundo del Universo, hace 13.000 millones de años, los hadrones individuales no podían haber existido. En su lugar, de acuerdo con la teoría estándar, el Universo habría sido una suerte de sopa de quarks y gluones, un «plasma de quarks y gluones».
La «era» de los quarks y gluones llegó a su fin una centena de milésima de segundo después de que el Universo comenzara a expandirse a partir de un punto. En este momento crucial tuvo lugar una transición de fase, algo equivalente al paso de vapor a agua líquida, y se formaron los hadrones. En la actualidad, físicos a ambos lados del Atlántico están diseñando experimentos para examinar la transición quark/hadrón y contrastar así experimentalmente las teorías sobre las que se cimienta nuestra comprensión del origen del Universo.
Para hacerse una idea de lo extremo de las condiciones, es necesario ver la temperatura y la densidad de una forma muy diferente a como lo hacemos en nuestra vida cotidiana. De forma un tanto confusa, los físicos miden ambas cantidades en lo que parece la misma unidad, el electronvolt, o eV. En rigor, el eV es una medida de energía (1 eV equivale a 1,6×10 -19 julios), de modo que sirve perfectamente bien para medir la temperatura. Las partículas que colisionan con energías de unos pocos electronvolts tienen una temperatura equivalente a unas pocas decenas de miles de grados Kelvin, y éstas son las energías y temperaturas asociadas a las reacciones químicas normales.
La energía puede convertirse en su equivalente en masa dividiendo por c2, de acuerdo con la famosa ecuación de Einstein, E = mc2, y cuando se utilizan electronvolts como unidades de masa, o para expresar densidades, las unidades son eV/c2, aunque el término c2 suele obviarse al escribir las unidades. Así, la masa de un electrón es 500 keV (en realidad, 500 keV/c2), y la masa de un protón es 1 GeV (1 GeV/c2). El neutrón tiene una masa casi igual (en realidad un poco mayor), y el empaquetamiento de neutrones y protones en el núcleo atómico proporciona la mayor densidad de masa que puede existir en el Universo en la actualidad (salvo por la remota posibilidad de que los hadrones estén tan apretujados en el centro de algunas estrellas de neutrones que estén disgregados en una sopa de quarks y gluones). El radio de un protón es aproximadamente 8×10 -16 m, que es lo bastante cercano, para el caso que nos concierne, a un femtometro (1 fm = 10-15 m). De modo que la densidad de un protón, la densidad más alta de la materia corriente, es aproximadamente 1 GeV por fm2.
Se han realizado cálculos del comportamiento de la materia en la transición quark-hadrón mediante una técnica relativamente nueva llamada teoría gauge de retículas (lattice gauge theory), con la ayuda de potentes computadoras. De acuerdo con estos cálculos, la temperatura crítica (equivalente a la temperatura crítica a la que hierve el agua) se sitúa en el intervalo de 150 a 200 MeV, que corresponde a una densidad de energía de 2-3 GeV por fm2, es decir, suficiente energía pura en el interior de un protón para crear tres protones, de acuerdo con la ecuación de Einstein. ¿Cómo podrán los físicos reproducir estas condiciones?
La línea de ataque que se sigue actualmente en el CERN, en Europa, y en el Brookhaven National Laboratory, en Estados Unidos, es provocar la colisión frontal de haces de iones pesados. Los aceleradores de partículas realizan de forma ya rutinaria experimentos en los que se provoca la colisión de haces de protones o electrones (o las partículas de antimateria correspondientes) contra dianas que contienen núcleos de elementos más pesados, o contra haces opuestos de partículas elementales. Pero ahora los investigadores están poniendo a punto la técnica requerida para provocar la colisión entre un haz con núcleos de elementos muy pesados y otro haz opuesto con el mismo tipo de núcleos pesados. Para hacerse una idea del tipo de colisión que tiene lugar cuando dos núcleos pesados chocan frontalmente, considérese el ejemplo (por el momento, hipotético) de qué ocurre con un núcleo de oro acelerado hasta 0,999957 veces la velocidad de la luz.
Un núcleo de oro contiene 118 neutrones y 79 protones, de modo que contiene 79 unidades de carga positiva, que es lo que hace posible que se pueda acelerar hasta tan alta velocidad mediante campos magnéticos. A esta velocidad, los efectos relativísticos harán que la masa del núcleo aumente, al tiempo que su forma se encoge en el sentido del desplazamiento hasta convertirse en una suerte de torta aplanada. Ambos efectos vienen gobernados por el mismo factor relativístico, de modo que la masa aumenta en 108 veces la masa en reposo, y el grosor a lo largo de la línea de desplazamiento se reduce en un factor de 1/108 con respecto al grosor de un núcleo de oro estacionario. Redondeando, es unas cien veces más pesado (con una masa de 100 GeV por nucleón), pero el grosor de la torta es ahora tan sólo un 1 por 100 de su diámetro medido a lo largo de la línea de desplazamiento.
Cuando un núcleo relativístico como este topa con un núcleo idéntico que se desplace en el sentido contrario, el resultado es espectacular. Con (un poco más de) cien veces la masa y un 1 por 100 del volumen original de cada nucleón, la densidad de la materia de los núcleos durante el momento de la colisión es más de 20.000 veces superior a la densidad de un núcleo de oro ordinario. La colisión de otros elementos pesados, como plomo o uranio, produce densidades semejantes. Y mientras las dos tortas nucleares se atraviesan, se producirán numerosas colisiones frontales entre protones y neutrones, y entre nucleones y los remanentes de las colisiones que acaben de producirse frente a ellos. La mejor manera de imaginar lo que ocurre entonces es usando el modelo estándar de los nucleones en cuanto entidades compuestas de quarks.
Cada protón y cada neutrón (cada nucleón) contienen tres quarks. Pero, como ya he mencionado, los quarks no pueden existir aisladamente. Se dan o bien en tripletes o en pares, y la mejor manera de entender esto es imaginándolos como si estuvieran ligados por medio de una goma elástica (en realidad, un intercambio de gluones) que mantiene unido cada par de quarks. Si se intenta separar dos quarks, la goma elástica se estira, y la energía puesta en la separación de los dos quarks quedará almacenada de modo parecido a como se almacena la energía en una goma elástica estirada, o en un muelle estirado.
Hasta aquí, esto significa que los dos quarks unidos de este modo están unidos más fuertemente cuanto más alejados se encuentren, que es justo al revés de como actúan las fuerzas familiares como el magnetismo o la gravedad. Al final, si se continúa estirando la goma «elástica», acaba por romperse, pero sólo cuando se haya puesto la energía suficiente para crear dos quarks «nuevos» (¡otra vez E =mc2 ), uno a cada lado de la rotura.
Este proceso recuerda lo que pasa cuando se intenta separar un polo magnético norte de un polo magnético sur serrando por la mitad una barra imantada. Cada vez que el imán se parte en dos, se obtiene dos nuevos imanes, en lugar de dos polos magnéticos separados.
Así la colisión entre dos iones pesados que se movieran a velocidades relativísticas puede imaginarse como si se arrancara quarks de nucleones individuales, estirándose la goma elástica que los mantiene unidos a otros quarks hasta que se rompe y se crean nuevas combinaciones de pares y tripletes de quarks, conformando el todo una suerte de maraña de gomas elásticas rotas y reunidas, entrelazadas como espagueti. La maraña de gomas elásticas puede acabar por unir dos quarks que se muevan en sentido contrario a una velocidad cercana a la de la luz, absorbiendo una gran cantidad de la energía cinética de la colisión y rompiéndose para producir toda suerte de nuevas partículas en el lugar de la colisión, una vez que lo que haya quedado de los núcleos originales se haya hecho a un lado. Éste es el plasma de quarks y gluones que los físicos están tan deseosos de estudiar, los «little bangs» que pueden reproducir condiciones que pudieran no haber existido durante los últimos 15.000 millones de años, desde el mismísimo Big Bang. Y como las partículas se crean a partir de energía (la energía cinética relativística de los núcleos en colisión), es fácil ver que la masa de partículas en esta mini bola de fuego puede ser mayor que la masa de los dos núcleos originales. En tales colisiones de partículas no se trata de romper los núcleos para liberar sus constituyentes, sino de crear las altas densidades de energía necesaria para la formación de nuevas partículas. La energía necesaria para hacer las nuevas partículas proviene de los campos magnéticos utilizados para acelerar los núcleos originales.
¿Cuán cerca se encuentran los experimentadores de producir un plasma de quarks y gluones? ¿Y cómo van a analizar los «little bangs» si consiguen crearlos?
Los actuales aceleradores de partículas simplemente no fueron construidos para este tipo de experimento y, aparte de la cantidad de energía con que debe alimentarse al acelerador, existen otras restricciones que limitan el tipo de núcleos que pueden utilizarse. En el CERN, por ejemplo, el acelerador SPS sólo puede funcionar con núcleos que tengan el mismo número de protones y neutrones, pero los núcleos muy pesados siempre tienen más neutrones que protones. Con núcleos de azufre-32, el SPS puede alcanzar 19 GeV por nucleón, una quinta parte de la energía necesaria para producir las colisiones que tratamos aquí. Algunos aceleradores de Brookhaven pueden alcanzar 5 GeV por nucleón con silicio-28. Con nuevos sistemas de aceleración anejos (los a veces llamados «pre-aceleradores»), ambos laboratorios podrán utilizar pronto núcleos más pesados, como el plomo, pero con los mismos factores relativísticos.
Pero a finales de los años noventa quedarán listos para su uso el Colisionador Relativístico de Iones Pesados (Relativistic Heavy Ion Collider, o RHIC) de Brookhaven, y el Gran Colisionador de Hadrones (Large Hadron Collider, o LHC) del CERN. El RHIC operará a aproximadamente 200 GeV por nucleón, mientras que el LHC alcanzará los 300 GeV por nucleón. Estas energías equivalen a densidades de energía de 3 GeV por fm2 a una temperatura de 200 MeV para el RHIC, y 5 GeV por fm2 a 220 MeV para el LHC, ambos plenamente dentro del rango donde, según la teoría, debiera formarse el plasma de quarks y gluones.
La manera de comprobar si realmente se ha formado el plasma de quarks y gluones es buscar una «signatura» que no pueda producirse de otra manera. Las partículas que se detecten emergiendo de los «little bangs» serán, por descontado, partículas corrientes como los hadrones y los electrones, pero llevarán la marca de las condiciones bajo las que se han formado. Una predicción concreta de la teoría estándar es que de los «little bangs» deberán emerger pares electrón-positrón y muón-antimuón («dileptones termales»), si bien los experimentadores están igualmente interesados en todos los productos de estas reacciones y prevén sorpresas durante esta exploración de lo desconocido. Cualquier nueva idea sobre cómo se produce materia corriente a partir de un plasma de quarks y gluones arrojará luz sobre la creación durante el Big Bang de la materia de que estamos hechos.
Una posibilidad particularmente interesante es que las mini bolas de fuego de los «little bangs» produzcan un tipo de materia estable diferente de la materia de que estamos hechos. Aunque tanto los protones como los neutrones contienen tres quarks, la materia corriente sólo contiene dos tipos de quark, el quark arriba (u) y el quark abajo d), junto con sus contrapartidas de antimateria. Un protón está formado por dos quarks arriba (cada uno con una carga +2/ 3) y un quark abajo (con carga -1/3) unidos mediante una goma elástica de gluones, mientras que un neutrón contiene dos quarks d y un quark u.
Pero hay otros tipos de quark que intervienen en interacciones a altas energías y se combinan para formar partículas más exóticas, generalmente efímeras. Uno de estos quarks, el llamado «extraño» (s), debiera poder combinarse, de acuerdo con la teoría, con quarks u y d para formar «materia extraña» («pepitas de quarks») con números aproximadamente iguales de quarks u, d y s. Se ha proclamado la detección de materia extraña en rayos cósmicos, pero hasta el momento no se dispone de evidencia concluyente de la existencia de estas pepitas. Pero un plasma de quarks y gluones debiera producir pepitas de materia extraña al igual que hadrones ordinarios. Aquéllas tendrían carga eléctrica aproximadamente cero (el quark s tiene carga -1/3) pero masa comparable a la de un núcleo atómico grande, y, como sería muy fácil de detectar, proporcionaría una signatura inequívoca de una bola de fuego de quarks y gluones.
Algunos investigadores sugieren que se podría incluso medir el tamaño y la forma de la bola de fuego mediante una técnica puesta a punto originariamente para medir el tamaño de estrellas lejanas. El nombre de la técnica hace referencia a los dos astrónomos que la desarrollaron, R. Hanbury-Brown y R. Q. Twiss. Tal como la utilizan los astrónomos, la técnica consiste en observar una misma estrella simultáneamente con dos telescopios que se encuentren separados al menos 200 metros; después se combinan las señales de luz de los dos telescopios para producir un patrón de interferencia. Éste proporciona información acerca del tamaño de la estrella de la que proviene la luz.
El método Hanbury-Brown-Twiss puede adaptarse para medir las propiedades de las mini bolas de fuego producidas durante las colisiones de iones pesados, usando como sonda piones en lugar de luz. El plasma de quarks y gluones debería producir piones en cantidades copiosas; a partir del estudio de las interferencias entre estas partículas (recuérdese que en el mundo cuántico toda partícula es también una onda), debería ser posible inferir las propiedades geométricas de la X) la de fuego de la que emergen.
Vale la pena pararse un momento a señalar la grandiosidad del salto de escala que todo esto representa. La técnica de Hanbury-Brown-Twiss fue desarrollada para medir tamaños le estrellas (generalmente del orden de 109 metros de diámetro) a distancias de varios años luz. Ahora se está adaptando para medir el tamaño de mini bolas de fuego, generalmente de menos de 10 fm (menos de 10-14 m) de diámetro a una distancia de aproximadamente un metro. ¡Es un cambio de escala de veintitrés órdenes de magnitud!
Conseguirlo no será fácil, pero de hacerlo, se cerrará limpiamente el círculo de esta investigación. El interés por crear el plasma de quarks y gluones proviene de su importancia en cosmología (el Big Bang) y posiblemente en astronomía (el interior de las estrellas de neutrones); sería apropiado que una técnica desarrollada por astrónomos pudiera adaptarse para profundizar en la naturaleza de las burbujas de plasma de quarks y gluones que los experimentadores confían en producir antes de que acabe la década. [58]

Bibliografía

Los libros mencionados aquí proporcionan una base firme sobre los temas discutidos en este libro. La mejor manera de mantenerse al día de los nuevos avances es a través de las páginas de revistas como New Scientist, Science News y Scientific American (edición española: Investigación y Ciencia).
Notas:
[1] Lo que 13 significa un punto decimal seguido de 12 ceros y un 1; 10 13 significa un 1 seguido de 13 ceros; y así para cualquier potencia.
[2] Recuérdese que el electrón no se descubrió hasta 1897, de modo que la explicación de Planck de la radiación del cuerpo negro era inevitablemente un tanto vaga en lo que toca a la naturaleza de las partículas cargadas del interior de los átomos y de cómo éstas «vibraban» para producir ondas electromagnéticas.
[3] Esto resulta especialmente irónico si se tiene en cuenta que recientemente varios teóricos han señalado que, después de todo, hay una manera de explicar el efecto fotoeléctrico mediante la interacción de ondas electromagnéticas con átomos cuantizados. No obstante, por ingenioso que sea el truco, no echa por tierra la teoría cuántica, ya que utiliza física cuántica moderna para explicar el comportamiento de los átomos. Además, eso no quita que, históricamente, fuera el efecto fotoeléctrico lo que persuadiera a la gente de que la luz estaba cuantizada, como prueba el hecho de que Einstein recibiera el Premio Nobel. Aquí me ajustaré al relato histórico.
[4] Uno de los científicos que participaron en estos experimentos era George Thomson, el hijo de J. J. En 1937, J. J. vio con orgullo cómo su hijo recibía el Premio Nobel de Física por su demostración de la naturaleza ondulatoria de los electrones, de buen seguro rememorando el feliz día de 1906 cuando él mismo había recibido el Premio Nobel por demostrar que los electrones eran partículas. Ambos galardones fueron merecidos, y nada compendia mejor la extraña naturaleza de la realidad cuántica que este insólito doblete padre-hijo.
[5] ¿Cómo sabemos qué hace un electrón cuando no lo observamos? A partir de repetidas observaciones, en numerosos experimentos, de dónde están los electrones y en qué sentido se mueven cuando los observamos, los físicos infieren que la descripción matemática correcta de la función de onda concuerda con esta descripción simple. El lector que desee conocer los detalles, los encontrará en En busca del gato de Schrödinger.
[6] Notablemente descrito en toda su gloria técnica por Feynman y A. R. Hibbs en su libro Quantum Mechantes and Path Integráis, McGraw-Hill, 1965.
[7] No obstante, existen maneras de generalizar esta técnica y calcular sus implicaciones generales sin necesidad de calcular todas y cada una de las trayectorias con detalle. Por ejemplo, Feynman ha demostrado que la trayectoria más probable, que corresponde a la trayectoria clásica, sigue la línea de acción mínima, y ha establecido matemáticamente que sólo es necesario incluir en los cálculos las trayectorias cercanas a la línea de acción mínima, puesto que las amplitudes de probabilidad de las otras trayectorias deben cancelarse entre sí. El problema de los experimentos de la rejilla doble es que existen trayectorias a través de cada uno de los agujeros que tienen la misma acción mínima», y todas ellas son igualmente importantes en el cálculo del destino de un electrón.
[8] Véase su libro The Fabric of Reality, publicado en 1997 por Allen Lane.
[9] Quantum Mechantes, Routledge & Kegan Paul, Londres, 1984.
[10] Esta es una versión un tanto simplificada. En realidad, por razones que no merece la pena explicar con detalle aquí, existen niveles de energía en el interior del átomo que acomodan cuatro escalones» de la escalera, o cuatro escalones iguales de cuatro escaleras distintas, de tal modo que ocho electrones pueden tener estados muy similares. Pero lo importante es que, en rigor, en todos los casos ninguno de estos electrones se encuentra en un estado idéntico a otro de los electrones del mismo nivel.
[11] Particles Do Not Exist», en Quantum Theory of Gravity, Adama Hilger, Bristol, 1984.
[12] Todavía pueden verse en el museo de la Royal Institution, en Londres.
[13] En rigor, la función de onda describe los pares electrón-positrón como se explicará más adelante.
[14] A un nivel más fundamental, aun los campos escalares pueden estar asociados a direcciones, porque el campo cambia de un lugar a otro y los objetos que interaccionan con el campo buscan un estado de mínima energía. Una bola cae hacia abajo en el campo gravitatorio de la Tierra por esta razón. Pero una diminuta partícula con carga se desplazará a lo largo de una línea de fuerza incluso en un campo eléctrico perfectamente uniforme: ésta es la distinción fundamental.
[15] La analogía funciona tan bien para la repulsión que no he podido resistir la tentación de usarla. Sin embargo, es inútil cuando se trata de explicar la atracción entre partículas de carga opuesta, como el protón y el electrón. Desgraciadamente, el mundo cuántico no siempre se puede describir con analogías familiares.
[16] Precisamente porque las partículas del interior» del núcleo son virtuales, y no reales, pueden actuar como cola uniendo protones y neutrones sin contribuir para nada a la masa del núcleo. En el tratamiento de la interacción fuerte mediante la teoría cuántica de campos se topa con los mismos problemas de infinitos que aparecen en la EDC y, como veremos, se solventan del mismo modo, por renormalización. Pero en todo ello participa una generación» de partículas más fundamentales» que las descritas hasta aquí.
[17] Al principio estaba receloso de utilizar esta terminología, que no tiene para nada en cuenta que las partículas son realmente» cuantos de un campo. Pero partícula» y campo» no son más que etiquetas que usamos por conveniencia. Cuando discutí con el físico de partículas Frank Cióse la mejor manera de utilizar estas etiquetas en mi exposición, me dijo que no importaba. Cuando él examina experimentos con partículas», como los realizados en el CERN, e intenta entender lo que ocurre, piensa en términos de flujo, o transferencia, de momento en las interacciones bajo examen. Es esto, según dice, lo que realmente importa. Tanto las partículas como los campos tienen momento, y mientras se sepa adonde va a parar el momento, las etiquetas tienen una importancia secundaria.
[18] El rastro que deja un electrón al moverse en el sentido de las agujas del reloj en un campo magnético es, por supuesto, idéntico al rastro que deja un positrón equivalente que se mueva en sentido contrario a las agujas del; reloj. El logro de Anderson radica en gran medida en el método de determinar en qué dirección se desplazaban las partículas que dejaban los rastros; es, este trabajo de detalle lo que le mereció el Premio Nobel. Para mí resulta fácil decir que Anderson midió la curvatura de los rastros de partículas y encontró» positrones. Pare él fue mucho más difícil hacer el trabajo.
[19] Aunque ni el neutrón ni, por tanto, el antineutrón, tienen carga eléctrica, son tan diferentes como los miembros de los otros dos pares, y las implicaciones de los cálculos de Dirac son tan profundas para ellos como para los otros. El fotón es su propia antipartícula, una sutileza a la que volveré más adelante.
[20] En rigor, debiera incluir sus antipartículas en esta descripción. Pero todo lo que se aplica a los protones, por ejemplo, se aplica a los antiprotones y así para el resto de partículas.
[21] La antipartícula equivalente del pión neutro resulta ser indistinguible del original; por lo que concierne a cualquier interacción observable, el pión neutro es su propia antipartícula. Lo mismo se aplica al fotón; aunque en principio se puede escribir las ecuaciones que describen antifotones, en la práctica los fotones y los antifotones son lo mismo.
[22] Vale la pena señalar que no se puede concebir de ningún modo un electrón como algo que exista dentro» de un neutrón, como si el neutrón estuviera compuesto por un protón y un electrón unidos por fuerzas electromagnéticas. El principio de indeterminación no permite que un electrón quede confinado en un espacio siquiera del tamaño de un núcleo, y mucho menos del tamaño de un neutrón. Para convertir un neutrón en un protón y un electrón es necesario invocar, entre otras cosas, la ecuación de la masa-energía de la relatividad, que permite que la masa se convierta en energía y a continuación en otra forma de masa. Cada electrón producido por una desintegración beta es una partícula de nueva creación.
[23] De hecho, en la versión original de Fermi del modelo todas las interacciones tenían lugar en un punto, lo que a todos los efectos confería a la Partícula W un alcance cero y una masa infinita. La idea de usar una partícula con masa finita para describir la fuerza débil se remonta a 1938, cuando fue introducida por el físico sueco Oskar Klein.
[24] O, como Dirac sin duda hubiese dicho, barridos bajo la alfombra.
[25] Benjamín, Nueva York
[26] Por supuesto, en los años sesenta había ideas rivales. De hecho, hasta 1970, la línea de ataque que describo aquí constituyó menos de la mitad de todos los artículos teóricos que abordaban los problemas de física de alta energía publicados cada año. Es de nuevo por razones de brevedad que me ciño a lo que resultó ser el camino principal, y dejo de lado todos los senderos secundarios, los callejones sin salida y las vueltas sobre los propios pa sos que se dieron en el desarrollo de la teoría de quarks.
[27] Three quarks for Muster Mark», de donde que se pronuncie como bark», y no como pork»
[28] Del artículo de Gell-Mann de Physics Letters, vol. 8, 1964, p. 214; citado también por Andrew Pickering en Constructing Quarks, Edinburgh Uiversity Press, 1984, p. 88.
[29] Ambos informes del CERN aparecieron en 1964, con numeración 8182/TH401 y 8419/TH412.
[30] Isgur, 1981, p. 439. En el mismo informe, Zweig dice que Murray Gell-Mann me confió en una ocasión que envió su primer artículo sobre quarks a Physical Letters para su publicación porque estaba convencido que Physical Review Letters lo habría rechazado». Es interesante que Gell-Mann recibiera el Premio Nobel en 1969, específicamente por sus otras contribuciones a la física de partículas, y en particular la extrañeza y la vía óctuple. Aún en 1969, la teoría de quarks seguía sin ser la vía obvia para entender el mundo de las partículas, y se situaba bastante abajo en la lista de logros citados. Zweig no ha recibido (todavía) el premio, aunque su teoría de quarks sea hoy fundamental para entender el Universo, y su versión de 1964 estaba más trabajada, en el detalle, que la de Gell-Mann. ¿Acaso Zweig todavía está pagando por su osadía juvenil? Si no es así, quizá el Comité del Nobel repare algún día su descuido.
[31] Y esto no es simplemente un experimento imaginario»; se puede hacer, y se ha hecho
[32] Por Niels Henrik Abel, el matemático noruego que vivió de 1802 a 1829 y realizó numerosas e importantes aportaciones a la rama de las matemáticas conocida como teoría de grupos. Su temprana muerte fue un duro golpe para las matemáticas del siglo XIX.
[33] Adelantándose en esto a otro gran teórico que estaba desarrollando ideas similares independientemente. Ronald Shaw era un estudiante que, trabajando en la Universidad de Cambridge bajo la dirección de Abdus Salam, obtuvo un modelo muy semejante al modelo de Yang y Mills, pero al ver que la versión de éstos aparecía en el Physical Review de octubre de 1954 (vol. 96, p. 191), no se molestó siquiera en intentar publicar su propia versión.
[34] Tomonaga, que nació en 1906 y murió en 1979, trabajó independientemente de los científicos americanos y publicó sus resultados primero, en 1943. Feynman y Schwinger hicieron sus aportaciones independientes a la EDC justo después de la guerra, y el trabajo de Tomonaga no se hizo accesible al público angloparlante hasta 1947. Los tres llegaron al mismo modelo por tres vías diferentes, lo que constituye en sí mismo una fuerte indicación de que el modelo que habían obtenido describía una característica fundamental de la naturaleza.
[35] Vol. 19, p. 1.264.
[36] Ahórrese el lector las lágrimas por Yang, excluido del galardón en 1979. Ya había recibido el Premio Nobel en 1957 por otra contribución clave a la teoría de la física de partículas, relacionada con la historia temprana del Universo, que he descrito en otro libro.
[37] El artículo de Salam de 1968 ni siquiera se publicó en una de las revistas principales de física, sino en las oscuras páginas de las actas del Simposio Nobel, que ni siquiera caen dentro de la red del índice de citas. Así que no disponemos de cifras comparables para este artículo, pero como su publicación fue tan oscura, difícilmente habrá recibido más atención que el artículo de Weinberg en Physical Review Letters.
[38] Cifras citadas por Pickering, p. 172.
[39] Ligeramente parafraseado de Pickering, p. 178.
[40] Los detalles sobre la búsqueda de estas partículas pueden hallarse en el libro de Christine Sutton, The Particle Connection, que describe cómo se consigue provocar colisiones tan energéticas (una saga en sí misma), y qué implican las observaciones.
[41] Se ha afirmado que las glueballs» se han detectado recientemente en el CERN, pero falta confirmación.
[42] La propia CDC, pese a todo el éxito cosechado hasta ahora, tiene todavía algunos problemas por resolver. Por ejemplo, pudiera ser posible, o necesario, conferir masa a los gluones mediante el mecanismo de Higgs, una tarea desalentadora para cualquier teórico, dada la extrema dificultad de dar cuenta de ocho gluones en un solo paquete matemático.
[43] Históricamente, las primeras indicaciones de la teoría de cuerdas aparecieron en 1968, cuando dos jóvenes investigadores del CERN, Gabriel Veneziano y Mahiko Suzuki, buscaban funciones matemáticas que pudieran utilizarse para describir el comportamiento de las partículas que interaccionaban fuertemente. Ambos se percataron, independientemente, de que una función escrita en el siglo xix por Leonhard Euler, llamada función beta de Euler, podía ajustase a lo que buscaban. Esta constituye precisamente el armazón matemático que sostiene la teoría de cuerdas; pero fue Nambu quien efectuó el traslado de las matemáticas a la física.
[44] En realidad, son no commutativos de un modo especial: se dice que son anticonmutativos.
[45] La ciudad es hoy Kaliningrado, y pertenece a la República de Rusia.
[46] Lo que Einstein nunca supo», emitido en 1985.
[47] Citado por Abraham Pais, en Subtle is the Lord, p. 330.
[48] De hecho, Gunnar Nordstrom, de la que hoy es la Universidad de Helsinki, ya había intentado conseguir, en 1914, una unificación de la gravedad y el electromagnetismo en cinco dimensiones, pero fracasó. Y en 1926 H. Mandel llegó independientemente a la misma idea básica que Kaluza, desconocedor al parecer del artículo de Kaluza de 1921.
[49] La hipotética partícula» de la gravedad, el gravitón, tiene espín 2, y la teoría sugiere que éste es el mayor valor posible.
[50] Horizon, op. a/.; véase también el artículo de Salam con J. Strathdee, en Annals of Physics, vol. 141, p. 316.
[51] La escala a la cual los efectos cuánticos se hacen importantes para una fuerza particular depende de la magnitud de la fuerza. Los efectos cuánticos sólo se hacen dominantes para la gravedad a una escala tan pequeña porque la gravedad es una fuerza muy débil, con mucho la más débil de las cuatro fuerzas de la naturaleza. Los físicos pueden calcular la escala a la que opera la gravedad cuántica sólo a partir de mediciones de la fuerza de la gravedad (el valor de la constante gravitatoria, G).
[52] Heterótico» tiene la misma raíz griega que heterosexual», que sugiere la combinación de al menos dos cosas diferentes.
[53] Y, por supuesto, sombras de sleptones, de squarks y de bosinos: la propia SUS Y estaría duplicada en la sombra del mundo.
[54] Fue Feynman quien primero llamó la atención sobre este extremo en los años sesenta, durante una serie de conferencias para estudiantes de doctorado en Caltech; sus conferencias sobre la gravedad sólo se publicaron a mediados de los noventa, recogidas bajo el título Feynman Lectures on Gravity.
[55] Término acuñado por John Schwarz, quien dice que la M» puede significar mágico, misterio o membrana, según la preferencia de cada uno».
[56] Se ha anunciado ya un par de veces la posible detección de partículas SUSY (posiblemente selectrones). Pero se trata en ambos casos de eventos únicos y efímeros en los aceleradores de partículas que nadie, hasta el momento, ha conseguido replicar. No obstante, para cuando este libro llegue a las librerías puede ser que ya se hayan realizado nuevas observaciones.
[57] Nótese que, para acabar de confundir a los no especialistas, lo que los expertos realmente trazan en estos gráficos es el inverso (uno dividido por») de las constantes de acoplamiento. Así, el inverso de la constante fuerte aumenta con la energía.
[58] Para una narración novelada de lo que puede ocurrir cuando el RHIC comience a funcionar, véase Cosm, de Gregory Benford (Orbit, Londres, 1998).